WO2010103109A1 - Method for generating an hdr video image sequence - Google Patents

Method for generating an hdr video image sequence Download PDF

Info

Publication number
WO2010103109A1
WO2010103109A1 PCT/EP2010/053200 EP2010053200W WO2010103109A1 WO 2010103109 A1 WO2010103109 A1 WO 2010103109A1 EP 2010053200 W EP2010053200 W EP 2010053200W WO 2010103109 A1 WO2010103109 A1 WO 2010103109A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
image
image sequence
exposure
value
Prior art date
Application number
PCT/EP2010/053200
Other languages
German (de)
French (fr)
Inventor
Kilian Jacob
Peter Rieder
Markus Schu
Original Assignee
Trident Microsystems, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trident Microsystems, Inc. filed Critical Trident Microsystems, Inc.
Publication of WO2010103109A1 publication Critical patent/WO2010103109A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures

Definitions

  • the present invention relates to a method for generating an HDR video image sequence.
  • HDR video image sequences are video image sequences in which the individual images have a high dynamic range (HDR) compared to conventional video images.
  • HDR images can be generated by taking a plurality of images with different exposure times from a given camera position, the image information of which is then superimposed.
  • dark details of the photographed environment are displayed in high contrast
  • pictures with low exposure time for example, bright details of the imaged surroundings appear rich in contrast.
  • a method for generating an HDR video image sequence is described, for example, in US Pat. No. 6,993,2200 B2.
  • the object of the present invention is to provide an improved method for generating an HDR video signal sequence and a device suitable for carrying out this method.
  • the method according to the invention for generating a video image sequence with a high dynamic range comprises: generating a plurality of image sequences each having a plurality of images with different exposures; and generating a respective one of the individual images of a sequence of images.
  • This Method is evaluated prior to generating the images of a first image sequence movement in at least one temporally preceding second image sequence and a movement value is determined. The exposures of the individual images of the first image sequence are adjusted depending on the movement value.
  • the exposure of an image is affected by both the exposure time, which is exposed when the image is taken, and the size of the aperture.
  • a different exposure of the individual images can thus be achieved by a variation of the exposure time and / or by a variation of the aperture.
  • a "higher exposure" of one image compared to another image is present if a higher exposure time and / or a larger aperture were used to capture one image than for the other image.
  • enlarging the aperture results in a reduction in depth of field, and increasing the exposure time results in motion blur.
  • the exposure can be varied over both parameters, there is a possibility of optimization with regard to adaptation or change of the exposure with regard to the least possible motion blur or the greatest possible depth of field.
  • FIG. 1 illustrates three video image sequences recorded with different exposure times.
  • FIG. 2 schematically illustrates the generation of a
  • HDR video image sequence from the three video image sequences according to FIG. 1.
  • Figure 3 illustrates a video image sequence comprising temporally successive images generated at different exposure times.
  • FIG. 4 illustrates the generation of a plurality of video signal sequences with the same phase of motion from the video signal sequence according to FIG. 3.
  • FIG. 5 illustrates a method for adjusting the exposure time for the generation of a video image.
  • FIG. 6 illustrates an example of a device for generating a plurality of video image sequences with motion-dependent exposure times.
  • FIG. 7 illustrates a dependence of the exposure time on a movement value according to a first example.
  • FIG. 8 illustrates a dependence of the exposure time on a movement value according to a second example.
  • Figure 9 illustrates an example of an apparatus for generating a video image sequence having images with motion-dependent exposure times.
  • FIG. 10 illustrates a dependence of the exposure time on a movement value during the duration of a picture sequence.
  • FIG. 1 diagrammatically illustrates a plurality of-in the example three-video image sequences S1, S2, S3 which each have a number of temporally successive video images. These individual video image sequences form the basis for the generation of an HDR video image sequence.
  • the video images of the different video sequences are recorded with different exposures. For purposes of explanation, for example, it is assumed that video images of a first video image sequence S1 with a first exposure, video images of a second video image sequence S2 with a second exposure, and video images of a third video image sequence S3 with a third exposure are captured, the first exposure being greater than second exposure and wherein the second exposure is greater than the third exposure.
  • Exposure can be varied by one or more of the following parameters: exposure time, aperture and auxiliary lighting. Exposure is increased if, with the same aperture and the same additional illumination, the exposure time is increased, if the aperture is increased with the same exposure time and the same additional illumination, or if the intensity of the additional illumination is increased with the same exposure time and the same aperture.
  • the additional lighting can be realized for example by a lamp with two or more brightness levels. In order to be able to vary the brightness from image to image, the luminaire should have low delay times or persistence times. This can be achieved for example by a luminaire based on light emitting diodes (LEDs). Such a lamp includes, for example, one or more LEDs, which are turned on or off depending on the desired brightness of the additional lighting.
  • This exposure B is the exposure referred to below.
  • This exposure B is a function of the exposure time explained T B , the aperture A and the brightness Z of an additional illumination, so that in general:
  • the video image sequences shown schematically in FIG. 1 each have the same motion phases. This is illustrated in FIG. 1 in that in each case one image of each of the video image sequences has the same recording time. These recording times are designated in FIG. 1 by to, to ⁇ T, to ⁇ 2T. T in this case denotes a time interval between the recording times of the individual images of each of the video image sequences. Pictures of the individual video image sequences S1, S2, S3, which have the same recording time, are referred to below as an image sequence with the same recording time.
  • the images of an image sequence with the same recording time can be superimposed in a well-known manner to an HDR image. If one carries out such an overlay method for all image sequences with the same recording time, one obtains an HDR video image sequence. Such a procedure is shown schematically in FIG.
  • FIG. 2 an overlay unit is shown in FIG. 2, to which the individual video image sequences S1, S2, S3 are fed and which is designed to superimpose the image information of the image sequences with the same recording time and thus to generate an HDR video image sequence S.
  • a method for superimposing individual images of an image sequence with the same recording time into an HDR image and devices for carrying out such a process are basically knows, so that can be dispensed with further explanations.
  • Image sequences with the same recording time can be produced in that a plurality of receiving devices, such as cameras, are provided, which generate from the same camera Posi tion ⁇ images with different exposure times to the same recording time points.
  • a plurality of receiving devices such as cameras
  • Such a procedure is complicated insofar as several cameras are needed.
  • Image sequences with the same recording time can also be generated by taking the individual images of a sequence chronologically from a camera position and then performing a motion-compensated interpolation, by means of which images with the same motion phase from the temporally successive images with different exposure time be generated .
  • FIG. 4 schematically shows a device for generating video image sequences S1, S2, S3 having the same motion phases from the video image sequence S 'shown in FIG. 3, which comprises temporally successive images with different exposure times.
  • a video image sequence S 'with temporally successive images having different exposure times can be generated using a single imaging device, wherein the exposure time is changed from image to image.
  • the frame rate of this video image sequence S ' is higher than the frame rate of the video image sequences S1, S2, S3 shown in FIG.
  • This frame rate of the video image sequence S ' corresponds to the product of the desired frame rate of the later HDR video image sequence and the number of images whose image information is to be superposed onto an HDR image.
  • Figure 3 illustrated sequence S ' can be evenly spaced in time.
  • the superimposition of three images into one HDR image is only an example. Of course, only two or even more than three images that were generated with different exposure times can be superimposed to an HDR image.
  • FIG. 4 schematically shows a device for generating video image sequences S1, S2, S3 having the same motion phases from the video image sequence S 'shown in FIG.
  • This device comprises a motion estimation and interpolation unit 21, 22, 23 for each of the video image sequences S1, S2, S3 to be generated.
  • Each of these motion estimation and interpolation units is supplied with a subimage sequence of the image sequence S '.
  • These partial image sequences are formed by a multiplexer 20 in time division multiplexing the images of the input image sequence S 'alternately with the individual motion estimation and interpolation units 21, 22, 23, such that the first motion estimation and interpolation unit 21 only has the images, for example supplied with the first exposure time are supplied; the second motion estimation and interpolation unit 22 is supplied with only the images generated at the second exposure time; and that the third motion estimation and interpolation unit 23 is supplied only with the images generated at the third exposure time.
  • the individual motion estimation and interpolation units 21, 22, 23 are designed to perform a motion estimation and, using this motion estimation, to generate image sequences that have the same phase of motion.
  • Such motion estimation and interpolation methods and devices for carrying out such motion estimation and interpolation methods are known in principle, so that further explanations on this can be dispensed with.
  • the exposures of the images of the image sequence resulting in an HDR image are provided be superimposed, depending on a movement value.
  • the motion value at a given point in time at which an image is generated or recorded is dependent on movement that is present in images of the image sequence that were taken before this point in time.
  • FIGS. 1 and 3 denotes a time at which at least one image of an image sequence is to be recorded, the images of which are later superimposed to form an HDR image.
  • FIG. 1 in which a plurality of image sequences are generated simultaneously with the same movement phase, a plurality of images are generated at this time to.
  • FIG. 3 in which the image sequences with images to be overlaid are generated in temporal succession, only one image is generated at the instant to.
  • a movement value which is dependent on a movement value of the video image sequence before the time t0.
  • the determination of the movement value comprises the comparison of at least two previously recorded temporally successive images. If, in accordance with the example according to FIG. 1, there are several image sequences S1, S2, S3 with the same motion phases, one of these image sequences can be selected to determine the motion value and the motion value can be determined by comparing two temporally successive images of the selected image sequence. The temporally successive images can follow each other directly in time. However, there may be more pictures between the two pictures to compare.
  • images with the same phase of motion are, for example, images whose time of recording is: to ⁇ ki • Ti • T, where i ⁇ 0 or images for their recording time: t o -k 2 -TiT, with i > 0 or images for their time of admission applies: to ⁇ k3 • Ti • T, with i ⁇ 0th
  • each pixel has associated therewith three pixel values: a first pixel value for the color red (R); a second pixel value for the color green (G); and a third pixel value for the color blue (B).
  • each pixel value is also associated with three pixel values: a luminance value (Y); and two chrominance values (U, V).
  • a comparison of two temporally successive images for determining the movement value includes, for example, the determination of a distance measure.
  • This distance measure is a measure of the difference between the individual pixels of the associated pixel values.
  • the determination of the distance measure comprises, for example, the determination of the difference between the pixel values of those pixels which are located in the same positions in the two images, the magnitude of this difference and the summation of these differences.
  • the result obtained is also called the sum of the absolute values of the differences (SAD, Sum of Absolute Differences).
  • SAD Sum of Absolute Differences
  • the distance measure in this case is the higher, the more the image contents of the two images to be compared differ, the more moving contents are thus present in the two images to be compared.
  • any other measures of distance such as even powers of the pixel differences, may be used instead of the amounts of the differences.
  • the comparison of two temporally successive images may comprise the evaluation of only one pixel value associated with each pixel, e.g. only the red value, the green value or the blue value or the y value, the u-value or the v-value.
  • the method according to the invention it is provided in particular to set a difference between the exposures of the individual pictures of a picture sequence depending on the movement value such that the more moving contents the previously generated pictures contain, the lower this difference.
  • This is based on the consideration that with moving content a high depth of field or high dynamics of the displayed images are hardly perceived by the viewer anyway.
  • the image sequence S 'according to FIG. 3 and in which the generation of the images to be superimposed comprises a motion estimation (cf. Figure 4)
  • the overlaying of images with different exposure times greatly falsifies the image impression in the case of an erroneous motion estimation.
  • the dispersion of the exposures applied to the images of an image sequence is determined by the difference between the highest and the lowest exposure, for example a longest and a shortest exposure time or a largest and smallest aperture.
  • the scattering is determined by the difference between the highest and the lowest exposure, for example a longest and a shortest exposure time or a largest and smallest aperture.
  • it is intended to reduce the number of different exposures used with increasing movement. In extreme cases, if a high degree of motion is present in the previously recorded images, the same exposure can be used for all images of the image sequence.
  • the exposure as a function of the detected movement it is provided in another example to vary the number of images of an image sequence as a function of the detected movement. For example, it is intended to increase the number of images of a sequence of images when there is a high degree of movement.
  • the exposures of these individual images may differ, and the variation of the exposure may be achieved by varying one of the aforementioned parameters. If the individual images of a sequence are recorded chronologically in succession and the exposure is varied by varying the exposure times for the individual images, then the maximum permissible exposure time pro reduces as the number of images per image sequence increases Image, if a given time is available for taking pictures of a sequence.
  • FIG. 1 An example of a device for generating a plurality of video image sequences with the same motion phase and motion-dependent exposure time is shown in FIG.
  • This device comprises three recording devices or cameras 31, 32, 33, which are located at a common camera position. Each of these recording devices has an adjustable exposure time that is dependent on one of the recording device 31, 32, 33 supplied exposure signal El, E2, E3. This exposure time can be adjusted frame by frame.
  • Each of the recording devices 31, 32, 33 has an output at which the image sequence generated by the respective recording device is available.
  • These image sequences can be supplied to an overlay unit 1 (shown in dashed lines), which generates an HDR image sequence from these image sequences S1, S2, S3.
  • At least one of the image sequences S1, S2, S3 generated by the recording devices 31, 32, 33 is supplied with a motion detection unit which is designed to detect motion in the already recorded images of the image sequence, for example by comparing two temporally successive at least one of the images image sequences.
  • the movement value S41 is available at the output of this movement determination unit 41.
  • This movement value S41 is supplied to an exposure setting unit 43 which, depending on this movement value, provides exposure signals E1, E2, E3 which Exposure times of the individual recording devices 31, 32, 33 generates.
  • the exposure setting unit 43 is configured to set fixed predetermined different exposure values when the motion value S41 is below a predetermined threshold value S41o and to set equal exposure values when the motion value S41 is above a predetermined threshold value.
  • a procedure is shown schematically in FIG. 7, in which the exposure values E1, E2, E3 are shown as a function of the movement value S41.
  • the greater the motion components S41 the larger the motion components S41 have compared to each other for determining the motion value S41.
  • FIG. 9 shows an example of a device for generating a sequence of images with temporally successive images with different exposure time.
  • This device comprises a recording device 34 which has an exposure time which can be set by an exposure signal E.
  • the image signal S ' is available at an output of this device.
  • This image signal S ' is fed to a motion detection unit 44, which is designed to detect motion in the previously recorded image sequence and to generate a motion value S44 taking into account this movement.
  • This movement value S44 is supplied to an exposure setting unit 42.
  • This exposure setting unit 42 is configured to generate the exposure signal E. Unlike the device explained with reference to FIG. 9, the movement setting unit 42 according to FIG.
  • FIG. 9 generates time-sequentially different exposure values E, and in each case one exposure value for each image of a picture sequence to be generated by the recording device 34.
  • the timing of the exposure values generated by this exposure setting unit 42 is schematically shown in FIG. T in FIG. 10 designates the time interval between two images of the later HDR image sequence. The multiple images with different exposure times are generated within this period of time T.
  • El in Fig. 10 denotes a first exposure value, E2 a second exposure value, and E3 a third exposure value each applied to an image of an image sequence, the individual images of that image sequence then being superposed on an HDR image.
  • the image with the highest exposure time El is taken first, then the image with the next lower exposure time E2 and then the image with the lowest exposure time E3.
  • this order is basically arbitrary.
  • the individual exposure values E1, E2, E3 depend on the movement value S44.
  • the dependence of the exposure values E1, E2, E3 on the movement value S44 corresponds, for example, to the dependencies of the exposure values E1, E2, E3 of the movement value S41 explained above with reference to FIGS.

Abstract

Described is a method for generating a sequence of high dynamic range video images, comprising the steps of: generating multiple image sequences, each of which includes at least one image; and generating at least one image from the individual images of an image sequence, wherein a movement in at least one earlier second image sequence is evaluated and a movement value is determined before generating the images of a first image sequence, and wherein the exposures of the individual images of the first image sequence are adjusted in accordance with the movement value.

Description

VERFAHREN ZUR ERZEUGUNG EINER HDR-VIDEOBILDFOLGE METHOD FOR GENERATING A HDR VIDEO LIVE RESULT
Die vorliegende Erfindung betrifft ein Verfahren zur Erzeugung einer HDR-Videobildfolge .The present invention relates to a method for generating an HDR video image sequence.
HDR-Videobildfolgen sind Videobildfolgen, bei denen die einzelnen Bilder im Vergleich zu herkömmlichen Videobildern einen hohen Dynamikbereich (High Dynamic Range, HDR) besitzen. Solche HDR-Bilder können dadurch erzeugt werden, dass aus ei- ner gegebenen Kameraposition mehrere Bilder mit unterschiedlichen Belichtungszeiten aufgenommen werden, deren Bildinformationen anschließend überlagert werden. In einem Bild mit langer Belichtungszeit werden beispielsweise dunkle Details der fotografierten Umgebung kontrastreich dargestellt, wäh- rend beispielsweise in Bildern mit niedriger Belichtungszeit helle Details der abgebildeten Umgebung kontrastreich erscheinen. Durch Kombination der einzelnen mit unterschiedlichen Belichtungszeiten erzeugten Bildern entsteht ein Bild, in dem sowohl helle als auch dunkle Details der fotografier- ten Umgebung kontrastreich dargestellt sind.HDR video image sequences are video image sequences in which the individual images have a high dynamic range (HDR) compared to conventional video images. Such HDR images can be generated by taking a plurality of images with different exposure times from a given camera position, the image information of which is then superimposed. In a picture with a long exposure time, for example, dark details of the photographed environment are displayed in high contrast, whereas in pictures with low exposure time, for example, bright details of the imaged surroundings appear rich in contrast. By combining the individual images created with different exposure times, a picture emerges in which both bright and dark details of the photographed environment are shown in high contrast.
Ein Verfahren zur Erzeugung einer HDR-Videobildfolge ist beispielsweise in der US 6 993 200 B2 beschrieben.A method for generating an HDR video image sequence is described, for example, in US Pat. No. 6,993,2200 B2.
Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Verfahren zur Erzeugung einer HDR-Videosignalfolge und eine zur Durchführung dieses Verfahrens geeignete Vorrichtung zur Verfügung zu stellen.The object of the present invention is to provide an improved method for generating an HDR video signal sequence and a device suitable for carrying out this method.
Diese Aufgabe wird durch ein Verfahren nach Anspruch 1 gelöst .This object is achieved by a method according to claim 1.
Das erfindungsgemäße Verfahren zur Erzeugung einer Videobildfolge mit hohem Dynamikbereich umfasst: Erzeugen von mehreren Bildsequenzen, die jeweils mehrere Bilder mit unterschiedlichen Belichtungen aufweisen; und Erzeugen jeweils eines Bildes aus den einzelnen Bilder einer Bildsequenz. Bei diesem Verfahren wird vor Erzeugen der Bilder einer ersten Bildsequenz Bewegung in wenigstens einer zeitlich vorangehenden zweiten Bildsequenz ausgewertet und ein Bewegungswert wird ermittelt. Die Belichtungen der einzelnen Bilder der ersten Bildsequenz werden hierbei abhängig von dem Bewegungswert eingestellt .The method according to the invention for generating a video image sequence with a high dynamic range comprises: generating a plurality of image sequences each having a plurality of images with different exposures; and generating a respective one of the individual images of a sequence of images. In this Method is evaluated prior to generating the images of a first image sequence movement in at least one temporally preceding second image sequence and a movement value is determined. The exposures of the individual images of the first image sequence are adjusted depending on the movement value.
Die Belichtung eines Bildes wird sowohl durch die Belichtungszeit, für die bei Aufnahme des Bildes belichtet wird, als auch durch die Größe der Blendenöffnung beeinflusst. Eine unterschiedliche Belichtung der einzelnen Bilder kann also durch eine Variation der Belichtungszeit und/oder durch eine Variation der Blendenöffnung erreicht werden. Eine "höhere Belichtung" eines Bildes im Vergleich zu einem anderen Bild liegt dann vor, wenn für die Aufnahme des einen Bildes eine höhere Belichtungszeit und/oder eine größere Blendenöffnung als für die Aufnahme des anderen Bildes verwendet wurde.The exposure of an image is affected by both the exposure time, which is exposed when the image is taken, and the size of the aperture. A different exposure of the individual images can thus be achieved by a variation of the exposure time and / or by a variation of the aperture. A "higher exposure" of one image compared to another image is present if a higher exposure time and / or a larger aperture were used to capture one image than for the other image.
Grundsätzlich führt eine Vergrößerung der Blendenöffnung zu einer Verringerung der Tiefenschärfe, und eine Erhöhung der Belichtungszeit führt zu einer Bewegungsunschärfe (Motion Blur) . Indem die Belichtung über beide Parameter variierbar ist, besteht bei Anpassung bzw. Änderung der Belichtung eine Optimierungsmöglichkeit hinsichtlich einer möglichst geringen Bewegungsunschärfe oder einer möglichst großen Tiefenschärfe.Basically, enlarging the aperture results in a reduction in depth of field, and increasing the exposure time results in motion blur. By the exposure can be varied over both parameters, there is a possibility of optimization with regard to adaptation or change of the exposure with regard to the least possible motion blur or the greatest possible depth of field.
Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend anhand von Figuren erläutert. Die Figuren dienen zur Veranschaulichung des Grundprinzips der Erfindung. In den Fi- guren sind daher nur die zum Verständnis dieses Grundprinzips notwendigen Merkmale dargestellt. In den Figuren bezeichnen, sofern nicht anders angegeben, gleiche Bezugszeichen gleiche Merkmale mit gleicher Bedeutung.Embodiments of the present invention will be explained below with reference to figures. The figures serve to illustrate the basic principle of the invention. The figures therefore only show the features necessary for understanding this basic principle. In the figures, unless otherwise indicated, like reference numerals designate like features having the same meaning.
Figur 1 veranschaulicht drei mit unterschiedlichen Belichtungszeiten aufgenommene Videobildfolgen. Figur 2 veranschaulicht schematisch die Erzeugung einerFIG. 1 illustrates three video image sequences recorded with different exposure times. FIG. 2 schematically illustrates the generation of a
HDR-Videobildfolge aus den drei Videobildfolgen gemäß Figur 1.HDR video image sequence from the three video image sequences according to FIG. 1.
Figur 3 veranschaulicht eine Videobildfolge, die zeitlich aufeinanderfolgende Bilder umfasst, die mit unterschiedlichen Belichtungszeiten erzeugt wurden.Figure 3 illustrates a video image sequence comprising temporally successive images generated at different exposure times.
Figur 4 veranschaulicht die Erzeugung mehrerer Videosignal- folgen mit gleicher Bewegungsphase aus der Videosignalfolge gemäß Figur 3.FIG. 4 illustrates the generation of a plurality of video signal sequences with the same phase of motion from the video signal sequence according to FIG. 3.
Figur 5 veranschaulicht ein Verfahren zur Einstellung der Belichtungszeit für die Erzeugung eines Videobil- des.FIG. 5 illustrates a method for adjusting the exposure time for the generation of a video image.
Figur 6 veranschaulicht ein Beispiel einer Vorrichtung zur Erzeugung mehrerer Videobildfolgen mit bewegungsabhängigen Belichtungszeiten.FIG. 6 illustrates an example of a device for generating a plurality of video image sequences with motion-dependent exposure times.
Figur 7 veranschaulicht eine Abhängigkeit der Belichtungszeit von einem Bewegungswert gemäß einem ersten Beispiel .FIG. 7 illustrates a dependence of the exposure time on a movement value according to a first example.
Figur 8 veranschaulicht eine Abhängigkeit der Belichtungszeit von einem Bewegungswert gemäß einem zweiten Beispiel .FIG. 8 illustrates a dependence of the exposure time on a movement value according to a second example.
Figur 9 veranschaulicht ein Beispiel einer Vorrichtung zur Erzeugung einer Videobildfolge, die Bilder mit bewegungsabhängigen Belichtungszeiten aufweist.Figure 9 illustrates an example of an apparatus for generating a video image sequence having images with motion-dependent exposure times.
Figur 10 veranschaulicht eine Abhängigkeit der Belichtungszeit von einem Bewegungswert während der Dauer ei- ner Bildsequenz. Figur 1 veranschaulicht schematisch mehrere - in dem Beispiel drei - Videobildfolgen Sl, S2, S3 die jeweils eine Anzahl zeitlich aufeinanderfolgender Videobilder aufweisen. Diese einzelnen Videobildfolgen bilden die Grundlage für die Erzeu- gung einer HDR-Videobildfolge . Die Videobilder der unterschiedlichen Videobildfolgen werden dabei mit unterschiedlichen Belichtungen aufgenommen. Zu Zwecken der Erläuterung sei beispielsweise angenommen, dass Videobilder einer ersten Videobildfolge Sl mit einer ersten Belichtung, Videobilder ei- ner zweiten Videobildfolge S2 mit einer zweiten Belichtung und Videobilder einer dritten Videobildfolge S3 mit einer dritten Belichtung aufgenommen werden, wobei die erste Belichtung größer als die zweite Belichtung und wobei die zweite Belichtung größer als die dritte Belichtung ist.FIG. 10 illustrates a dependence of the exposure time on a movement value during the duration of a picture sequence. FIG. 1 diagrammatically illustrates a plurality of-in the example three-video image sequences S1, S2, S3 which each have a number of temporally successive video images. These individual video image sequences form the basis for the generation of an HDR video image sequence. The video images of the different video sequences are recorded with different exposures. For purposes of explanation, for example, it is assumed that video images of a first video image sequence S1 with a first exposure, video images of a second video image sequence S2 with a second exposure, and video images of a third video image sequence S3 with a third exposure are captured, the first exposure being greater than second exposure and wherein the second exposure is greater than the third exposure.
Die Belichtung kann durch einen oder mehrere der nachfolgend genannten Parameter variiert werden: Belichtungszeit, Blendenöffnung und Zusatzbeleuchtung. Die Belichtung vergrößert sich dabei, wenn bei gleicher Blendenöffnung und gleicher Zu- satzbeleuchtung die Belichtungszeit vergrößert wird, wenn bei gleicher Belichtungszeit und gleicher Zusatzbeleuchtung die Blendenöffnung vergrößert wird, oder wenn bei gleicher Belichtungszeit und gleicher Blendenöffnung die Lichtstärke der Zusatzbeleuchtung verstärkt wird. Die Zusatzbeleuchtung kann beispielsweise durch eine Leuchte mit zwei oder mehr Helligkeitsstufen realisiert sein. Um von Bild zu Bild die Helligkeit variieren zu können, sollte die Leuchte geringe Verzögerungszeiten bzw. Nachleuchtzeiten besitzen. Dies kann beispielsweise durch eine Leuchte auf Basis von Leuchtdioden (LEDs) erreicht werden. Eine solche Leuchte umfasst beispielsweise eine oder mehrere LEDs, die je nach gewünschter Helligkeit der Zusatzbeleuchtung eingeschaltet oder abgeschaltet werden.Exposure can be varied by one or more of the following parameters: exposure time, aperture and auxiliary lighting. Exposure is increased if, with the same aperture and the same additional illumination, the exposure time is increased, if the aperture is increased with the same exposure time and the same additional illumination, or if the intensity of the additional illumination is increased with the same exposure time and the same aperture. The additional lighting can be realized for example by a lamp with two or more brightness levels. In order to be able to vary the brightness from image to image, the luminaire should have low delay times or persistence times. This can be achieved for example by a luminaire based on light emitting diodes (LEDs). Such a lamp includes, for example, one or more LEDs, which are turned on or off depending on the desired brightness of the additional lighting.
Mit B ist nachfolgend die Belichtung bezeichnet. Diese Belichtung B ist eine Funktion der erläuterten Belichtungszeit TB, der Blendenöffnung A und der Helligkeit Z einer Zusatzbeleuchtung, so dass allgemein gilt:B is the exposure referred to below. This exposure B is a function of the exposure time explained T B , the aperture A and the brightness Z of an additional illumination, so that in general:
B = f (TB, A, Z) .B = f (T B , A, Z).
Eine Variation einer Belichtung B0 hin zu einem anderen Belichtungswert B0' kann dabei durch Variation eines beliebigen der drei Parameter erreicht werden. Die in Figur 1 schematisch dargestellten Videobildfolgen be- sitzen jeweils gleiche Bewegungsphasen. Dies ist in Figur 1 dadurch veranschaulicht, dass jeweils ein Bild jeder der Videobildfolgen denselben Aufnahmezeitpunkt besitzt. Diese Aufnahmezeitpunkte sind in Figur 1 mit to, to~T, to~2T bezeichnet. T bezeichnet in diesem Fall einen zeitlichen Abstand zwischen den Aufnahmezeitpunkten der einzelnen Bilder einer jeden der Videobildfolgen. Bilder der einzelnen Videobildfolgen Sl, S2, S3, die denselben Aufnahmezeitpunkt besitzen, werden nachfolgenden als Bildsequenz mit gleichem Aufnahmezeitpunkt bezeichnet.A variation of an exposure B 0 toward another exposure value B 0 'can be achieved by varying any one of the three parameters. The video image sequences shown schematically in FIG. 1 each have the same motion phases. This is illustrated in FIG. 1 in that in each case one image of each of the video image sequences has the same recording time. These recording times are designated in FIG. 1 by to, to ~ T, to ~ 2T. T in this case denotes a time interval between the recording times of the individual images of each of the video image sequences. Pictures of the individual video image sequences S1, S2, S3, which have the same recording time, are referred to below as an image sequence with the same recording time.
Die Bilder einer Bildsequenz mit gleichem Aufnahmezeitpunkt, die unterschiedliche Belichtungszeiten besitzen, können in hinlänglich bekannter Weise zu einem HDR-BiId überlagert werden. Führt man ein solches Überlagerungsverfahren für alle Bildsequenzen mit gleichem Aufnahmezeitpunkt durch, so erhält man eine HDR-Videobildfolge . Ein solches Vorgehen ist schematisch in Figur 2 dargestellt.The images of an image sequence with the same recording time, which have different exposure times, can be superimposed in a well-known manner to an HDR image. If one carries out such an overlay method for all image sequences with the same recording time, one obtains an HDR video image sequence. Such a procedure is shown schematically in FIG.
Mit 1 ist in Figur 2 eine Überlagerungseinheit dargestellt, der die einzelnen Videobildfolgen Sl, S2, S3 zugeführt sind und die dazu ausgebildet ist, die Bildinformationen der Bildsequenzen mit gleichem Aufnahmezeitpunkt zu überlagern und so eine HDR-Videobildfolge S zu erzeugen. Verfahren zur Überlagerung von einzelnen Bildern einer Bildsequenz mit gleichem Aufnahmezeitpunkt zu einem HDR-BiId sowie Vorrichtungen zur Durchführung eines solchen Verfahrens sind grundsätzlich be- kannt, so dass auf weitere Ausführungen hierzu verzichtet werden kann.1, an overlay unit is shown in FIG. 2, to which the individual video image sequences S1, S2, S3 are fed and which is designed to superimpose the image information of the image sequences with the same recording time and thus to generate an HDR video image sequence S. A method for superimposing individual images of an image sequence with the same recording time into an HDR image and devices for carrying out such a process are basically knows, so that can be dispensed with further explanations.
Bildsequenzen mit gleichem Aufnahmezeitpunkt können dadurch erzeugt werden, dass mehrere Aufnahmevorrichtungen, wie z.B. Kameras, bereitgestellt werden, die aus derselben Kameraposi¬ tion Bilder mit unterschiedlichen Belichtungszeiten zu gleichen Aufnahmezeitpunkten erzeugen. Ein solches Vorgehen ist allerdings insofern aufwendig, da mehrere Kameras benötigt werden.Image sequences with the same recording time can be produced in that a plurality of receiving devices, such as cameras, are provided, which generate from the same camera Posi tion ¬ images with different exposure times to the same recording time points. However, such a procedure is complicated insofar as several cameras are needed.
Bildsequenzen mit gleichem Aufnahmezeitpunkt können auch dadurch erzeugt werden, dass die einzelnen Bilder einer Sequenz aus einer Kameraposition zeitlich aufeinanderfolgend aufge- nommen werden und dass anschließend eine bewegungskompensier- te Interpolation durchgeführt wird, durch welche aus den zeitlich aufeinanderfolgenden Bildern mit unterschiedlicher Belichtungszeit Bilder mit gleicher Bewegungsphase erzeugt werden .Image sequences with the same recording time can also be generated by taking the individual images of a sequence chronologically from a camera position and then performing a motion-compensated interpolation, by means of which images with the same motion phase from the temporally successive images with different exposure time be generated .
Figur 4 zeigt schematisch eine Vorrichtung zur Erzeugung von Videobildfolgen Sl, S2, S3 mit gleichen Bewegungsphasen aus der in Figur 3 dargestellten Videobildfolge S', die zeitlich aufeinanderfolgend Bilder mit unterschiedlichen Belichtungs- zeiten umfasst. Eine solche Videobildfolge S' mit zeitlich aufeinanderfolgenden Bildern, die unterschiedliche Belichtungszeiten besitzen, kann unter Verwendung einer einzigen Aufnahmevorrichtung erzeugt werden, wobei von Bild zu Bild die Belichtungszeit geändert wird. Die Bildfrequenz dieser Videobildfolge S' ist höher als die Bildfrequenz der in Figur 1 dargestellten Videobildfolgen Sl, S2, S3. Diese Bildfrequenz der Videobildfolge S' entspricht dem Produkt aus der gewünschten Bildfrequenz der späteren HDR-Videobildfolge und der Anzahl der Bilder, deren Bildinformationen zu einem HDR- Bild überlagert werden sollen. Die einzelnen Bilder der inFIG. 4 schematically shows a device for generating video image sequences S1, S2, S3 having the same motion phases from the video image sequence S 'shown in FIG. 3, which comprises temporally successive images with different exposure times. Such a video image sequence S 'with temporally successive images having different exposure times can be generated using a single imaging device, wherein the exposure time is changed from image to image. The frame rate of this video image sequence S 'is higher than the frame rate of the video image sequences S1, S2, S3 shown in FIG. This frame rate of the video image sequence S 'corresponds to the product of the desired frame rate of the later HDR video image sequence and the number of images whose image information is to be superposed onto an HDR image. The individual pictures of in
Figur 3 dargestellten Bildfolge S' können zeitlich gleichmäßig beabstandet sein. In diesem Fall gilt bezogen auf die Darstellung gemäß Figur 3 ki = k2 = k3 = 1/3. In diesem Zusammenhang sei darauf hingewiesen, dass die Überlagerung von drei Bildern zu einem HDR-BiId lediglich als Beispiel zu verstehen ist. Selbstverständlich können auch nur zwei oder auch mehr als drei Bilder, die mit unterschiedlichen Belichtungszeiten erzeugt wurden, zu einem HDR-BiId überlagert werden.Figure 3 illustrated sequence S 'can be evenly spaced in time. In this case, based on the Representation according to Figure 3 ki = k 2 = k 3 = 1/3. In this context, it should be noted that the superimposition of three images into one HDR image is only an example. Of course, only two or even more than three images that were generated with different exposure times can be superimposed to an HDR image.
Figur 4 zeigt schematisch eine Vorrichtung zur Erzeugung von Videobildfolgen Sl, S2, S3 mit gleichen Bewegungsphasen aus der in Figur 3 dargestellten Videobildfolge S'. Diese Vorrichtung umfasst für jede der zu erzeugenden Videobildfolgen Sl, S2, S3 eine Bewegungsschätz- und Interpolationseinheit 21, 22, 23. Jeder dieser Bewegungsschätz- und Interpolationseinheiten ist eine Teilbildfolge der Bildfolge S' zugeführt. Diese Teilbildfolgen sind dadurch gebildet, dass ein Multi- plexer 20 im Zeitmultiplex die Bilder der Eingangsbildfolge S' derart abwechselnd den einzelnen Bewegungsschätz- und Interpolationseinheiten 21, 22, 23 zugeführt sind, dass der ersten Bewegungsschätz- und Interpolationseinheit 21 bei- spielsweise nur die Bilder, die mit der ersten Belichtungszeit erzeugt wurden zugeführt sind; dass der zweiten Bewegungsschätz- und Interpolationseinheit 22 nur die Bilder, die mit der zweiten Belichtungszeit erzeugt wurden zugeführt sind; und dass der dritten Bewegungsschätz- und Interpolati- onseinheit 23 nur die Bilder, die mit der dritten Belichtungszeit erzeugt wurden, zugeführt sind. Die einzelnen Bewegungsschätz- und Interpolationseinheiten 21, 22, 23 sind dazu ausgebildet, eine Bewegungsschätzung durchzuführen und unter Verwendung dieser Bewegungsschätzung Bildfolgen zu erzeugen, die eine gleiche Bewegungsphase besitzen. Solche Bewegungsschätz- und Interpolationsverfahren sowie Vorrichtungen zur Durchführung solcher Bewegungsschätz- und Interpolationsverfahren sind grundsätzlich bekannt, so dass auf weitere Ausführungen hierzu verzichtet werden kann.FIG. 4 schematically shows a device for generating video image sequences S1, S2, S3 having the same motion phases from the video image sequence S 'shown in FIG. This device comprises a motion estimation and interpolation unit 21, 22, 23 for each of the video image sequences S1, S2, S3 to be generated. Each of these motion estimation and interpolation units is supplied with a subimage sequence of the image sequence S '. These partial image sequences are formed by a multiplexer 20 in time division multiplexing the images of the input image sequence S 'alternately with the individual motion estimation and interpolation units 21, 22, 23, such that the first motion estimation and interpolation unit 21 only has the images, for example supplied with the first exposure time are supplied; the second motion estimation and interpolation unit 22 is supplied with only the images generated at the second exposure time; and that the third motion estimation and interpolation unit 23 is supplied only with the images generated at the third exposure time. The individual motion estimation and interpolation units 21, 22, 23 are designed to perform a motion estimation and, using this motion estimation, to generate image sequences that have the same phase of motion. Such motion estimation and interpolation methods and devices for carrying out such motion estimation and interpolation methods are known in principle, so that further explanations on this can be dispensed with.
Bei dem erfindungsgemäßen Verfahren ist vorgesehen, die Belichtungen der Bilder der Bildsequenz, die zu einem HDR-BiId überlagert werden, abhängig von einem Bewegungswert einzustellen. Der Bewegungswert zu einem gegebenen Zeitpunkt, zu dem ein Bild erzeugt bzw. aufgenommen wird, ist dabei abhängig von Bewegung, die in Bildern der Bildfolge vorhanden ist, die vor diesem Zeitpunkt aufgenommen wurden. Ein solches Verfahren wird nachfolgend anhand von Figur 5 unter Einbeziehung der Figuren 1 und 3 erläutert werden.In the method according to the invention, the exposures of the images of the image sequence resulting in an HDR image are provided be superimposed, depending on a movement value. The motion value at a given point in time at which an image is generated or recorded is dependent on movement that is present in images of the image sequence that were taken before this point in time. Such a method will be explained below with reference to FIG. 5, including FIGS. 1 and 3.
Für die folgende Erläuterung sei angenommen, dass to in den Figuren 1 und 3 einen Zeitpunkt bezeichnet, zu dem wenigstens ein Bild einer Bildsequenz aufgenommen werden soll, deren Bilder später zu einem HDR-BiId überlagert werden sollen. Bei dem in Figur 1 dargestellten Fall, bei dem gleichzeitig mehrere Bildfolgen mit gleicher Bewegungsphase erzeugt werden, werden zu diesem Zeitpunkt to mehrere Bilder erzeugt. Bei dem in Figur 3 dargestellten Fall, bei dem die Bildsequenzen mit zu überlagernden Bildern zeitlich aufeinanderfolgend erzeugt werden, wird zum Zeitpunkt to nur ein Bild erzeugt.For the following explanation, let it be assumed that to in FIGS. 1 and 3 denotes a time at which at least one image of an image sequence is to be recorded, the images of which are later superimposed to form an HDR image. In the case illustrated in FIG. 1, in which a plurality of image sequences are generated simultaneously with the same movement phase, a plurality of images are generated at this time to. In the case illustrated in FIG. 3, in which the image sequences with images to be overlaid are generated in temporal succession, only one image is generated at the instant to.
In einem ersten Verfahrensschritt 101 ist bei dem Verfahren vorgesehen, einen Bewegungswert zu erzeugen, der abhängig ist von einem Bewegungswert der Videobildfolge vor dem Zeitpunkt to. Die Ermittlung des Bewegungswertes umfasst den Vergleich wenigstens zweier zuvor aufgenommener zeitlich aufeinander- folgender Bilder. Sind entsprechend dem Beispiel gemäß Figur 1 mehrere Bildfolgen Sl, S2, S3 mit gleichen Bewegungsphasen vorhanden, so kann zur Ermittlung des Bewegungswertes eine dieser Bildfolgen ausgewählt und der Bewegungswert kann durch Vergleich zweier zeitlich aufeinanderfolgender Bilder der ausgewählten Bildfolge ermittelt werden. Die zeitlich aufeinanderfolgenden Bilder können dabei unmittelbar zeitlich aufeinanderfolgen. Zwischen den zwei zu vergleichenden Bildern können jedoch noch weitere Bilder vorhanden sein.In a first method step 101, it is provided in the method to generate a movement value which is dependent on a movement value of the video image sequence before the time t0. The determination of the movement value comprises the comparison of at least two previously recorded temporally successive images. If, in accordance with the example according to FIG. 1, there are several image sequences S1, S2, S3 with the same motion phases, one of these image sequences can be selected to determine the motion value and the motion value can be determined by comparing two temporally successive images of the selected image sequence. The temporally successive images can follow each other directly in time. However, there may be more pictures between the two pictures to compare.
Es können auch zeitlich aufeinanderfolgende Bilder aus unterschiedlichen der in Figur 1 dargestellten Bildfolgen Sl, S2, S3 miteinander verglichen werden. Allerdings können sich in diesem Fall unterschiedliche Belichtungen auf das Vergleichsergebnis auswirken.It is also possible to compare temporally successive images from different image sequences S1, S2, S3 shown in FIG. However, in In this case, different exposures affect the comparison result.
Um Bewegung in einer Bildfolge gemäß Figur 3 zu ermitteln, besteht die Möglichkeit, entsprechend der Erläuterungen zu Figur 4 aus dieser Bildfolge S' mehrere Bildfolgen mit gleichen Bewegungsphasen zu erzeugen, eine dieser Bildfolgen auszuwählen und Bewegung durch Vergleich zweier zeitlich aufeinanderfolgender Bilder der ausgewählten Bildfolge zu ermit- teln.In order to determine motion in an image sequence according to FIG. 3, it is possible to generate several image sequences with the same motion phases from this image sequence S ', to select one of these image sequences and to move by comparing two temporally successive images of the selected image sequence determine.
Darüberhinaus besteht auch die Möglichkeit, unmittelbar Bilder der Bildfolge S' miteinander zu vergleichen, und zwar insbesondere solche zeitlich aufeinanderfolgenden Bilder der Bildfolge S', die dieselbe Bewegungsphase bezogen auf dieMoreover, it is also possible to directly compare images of the image sequence S 'with each other, and in particular such temporally successive images of the image sequence S', the same phase of motion with respect to the
Bilder der späteren HDR-Videobildfolge besitzen. Bilder mit gleicher Bewegungsphase sind bezogen auf das Beispiel gemäß Figur 3 beispielsweise solche Bilder, für deren Aufnahmezeitpunkte gilt: to~ki T-i T, mit i ≥ 0 oder Bilder für deren Aufnahmezeitpunkt gilt: to-k2-T-i-T, mit i > 0 oder Bilder für deren Aufnahmezeitpunkt gilt: to~k3 T-i T, mit i ≥ 0.Have pictures of the later HDR video sequences. With respect to the example according to FIG. 3, images with the same phase of motion are, for example, images whose time of recording is: to ~ ki Ti T, where i ≥ 0 or images for their recording time: t o -k 2 -TiT, with i > 0 or images for their time of admission applies: to ~ k3 Ti T, with i ≥ 0th
Die einzelnen Bilder aller zuvor erläuterten Videobildfolgen weisen jeweils eine Anzahl von matrixartig angeordneten BiId- punkten (Pixel) auf, denen jeweils wenigstens ein Bildinformationswert zugeordnet ist. Bei einer RGB-Darstellung sind jedem Bildpunkt drei Bildpunktewerte zugeordnet: ein erster Bildpunktwert für die Farbe Rot (R) ; ein zweiter Bildpunktwert für die Farbe Grün (G) ; und ein dritter Bildpunktwert für die Farbe Blau (B) . Bei einer YUV-Darstellung sind jedem Bildpunktwert ebenfalls drei Bildpunktwerte zugeordnet: ein Luminanzwert (Y) ; und zwei Chrominanzwerte (U, V) .The individual images of all previously explained video image sequences each have a number of matrix-like arranged pixels (pixels), to each of which at least one image information value is assigned. In an RGB representation, each pixel has associated therewith three pixel values: a first pixel value for the color red (R); a second pixel value for the color green (G); and a third pixel value for the color blue (B). In a YUV representation, each pixel value is also associated with three pixel values: a luminance value (Y); and two chrominance values (U, V).
Ein Vergleich zweier zeitlich aufeinanderfolgender Bilder zur Ermittlung des Bewegungswertes umfasst beispielsweise die Ermittlung eines Abstandsmaßes. Dieses Abstandsmaß ist ein Maß für die Differenz der den einzelnen Bildpunkten der zu ver- gleichenden Bilder zugeordneten Bildpunktwerte. Die Ermittlung des Abstandsmaßes umfasst beispielsweise die Ermittlung der Differenz zwischen den Bildpunktwerten solcher Bildpunkte, die sich in den beiden Bildern an den gleichen Positionen befinden, die Betragsbildung dieser Differenz und das Aufsummieren dieser Differenzen. Das so erhaltene Ergebnis wird auch als Summe der Absolutwerte der Differenzen (SAD, Sum of Absolute Differences) bezeichnet. Das Abstandsmaß ist in diesem Fall umso höher, je stärker sich die Bildinhalte der bei- den zu vergleichenden Bilder unterscheiden, je mehr bewegte Inhalte in den beiden zu vergleichenden Bildern also vorhanden sind. Anstelle der Beträge der Differenzen können selbstverständlich beliebige andere Abstandsmaße verwendet werden, wie z.B. geradzahlige Potenzen der Bildpunktdifferenzen.A comparison of two temporally successive images for determining the movement value includes, for example, the determination of a distance measure. This distance measure is a measure of the difference between the individual pixels of the associated pixel values. The determination of the distance measure comprises, for example, the determination of the difference between the pixel values of those pixels which are located in the same positions in the two images, the magnitude of this difference and the summation of these differences. The result obtained is also called the sum of the absolute values of the differences (SAD, Sum of Absolute Differences). The distance measure in this case is the higher, the more the image contents of the two images to be compared differ, the more moving contents are thus present in the two images to be compared. Of course, any other measures of distance, such as even powers of the pixel differences, may be used instead of the amounts of the differences.
Der Vergleich zweier zeitlich aufeinanderfolgender Bilder kann die Auswertung nur jeweils eines der einem Bildpunkt zugeordneten Bildpunktwerte umfassen, wie z.B. nur des Rot- Wert, des Grün-Werts oder des Blau-Werts bzw. des Y-Werts, des U-Werts oder des V-Werts. Selbstverständlich besteht auch die Möglichkeit, alle einem Bildpunkt zugeordnete Bildpunktwerte auszuwerten und die so erhaltenen Abstandsmaße zu addieren, um ein Gesamt-Abstandsmaß zu erhalten.The comparison of two temporally successive images may comprise the evaluation of only one pixel value associated with each pixel, e.g. only the red value, the green value or the blue value or the y value, the u-value or the v-value. Of course, it is also possible to evaluate all pixel values associated with a pixel and to add the distance measurements thus obtained in order to obtain an overall distance measure.
Bei dem erfindungsgemäßen Verfahren ist insbesondere vorgesehen, einen Unterschied zwischen den Belichtungen der einzelnen Bilder einer Bildsequenz derart abhängig von dem Bewegungswert einzustellen, dass diese Unterschiede umso geringer ist, je mehr bewegte Inhalte die zuvor erzeugten Bilder ent- halten. Dem liegt die Überlegung zugrunde, dass bei bewegten Inhalten eine hohe Tiefenschärfe bzw. eine hohe Dynamik der dargestellten Bilder vom Betrachter ohnehin kaum wahrgenommen werden. Bei Erzeugung der zu überlagernden Bilder aus einer Bildfolge, die nur durch eine einzige Aufnahmevorrichtung er- zeugt wurde, wie z.B. die Bildfolge S' gemäß Figur 3, und bei der die Erzeugung der zu überlagernden Bilder eine Bewegungsschätzung umfasst, (vgl. die Ausführungen zu Figur 4) besteht außerdem die Gefahr, dass bei einer fehlerhaften Bewegungsschätzung die Überlagerung von Bildern mit unterschiedlichen Belichtungszeiten den Bildeindruck stark verfälscht.In the method according to the invention, it is provided in particular to set a difference between the exposures of the individual pictures of a picture sequence depending on the movement value such that the more moving contents the previously generated pictures contain, the lower this difference. This is based on the consideration that with moving content a high depth of field or high dynamics of the displayed images are hardly perceived by the viewer anyway. When generating the images to be superimposed from an image sequence which was generated by a single recording device, for example the image sequence S 'according to FIG. 3, and in which the generation of the images to be superimposed comprises a motion estimation (cf. Figure 4) In addition, there is the danger that the overlaying of images with different exposure times greatly falsifies the image impression in the case of an erroneous motion estimation.
Allgemein besteht die Möglichkeit, die Streuung der Belichtungen, die auf die Bilder einer Bildsequenz angewendet werden, abhängig von der detektierten Bewegung zu variieren. Die Streuung ist bestimmt durch den Unterschied zwischen der höchsten und der geringsten Belichtung, also beispielsweise einer längsten und einer kürzesten Belichtungszeit oder einer größten und kleinsten Blendenöffnung. Sind beispielsweise Bi, B2, ..., Bn, Bi < B2 < ... < Bn, die Belichtungen, mit denen die Bilder einer Bildsequenz aufgenommen werden und ist D= Bi - Bn der Variationsbereich der Belichtung, so gilt, dass D mit zunehmender Bewegung kleiner wird.Generally, it is possible to vary the dispersion of the exposures applied to the images of an image sequence, depending on the detected motion. The scattering is determined by the difference between the highest and the lowest exposure, for example a longest and a shortest exposure time or a largest and smallest aperture. For example, Bi, B 2, ..., B n, Bi 2 <... <Bn <B, the exposures with which the images of an image sequence are received and is D = Bi - B n, the variation range of the exposure, so that D gets smaller with increasing movement.
Bei einem weiteren Beispiel ist vorgesehen, die Anzahl der verwendeten unterschiedlichen Belichtungen mit zunehmender Bewegung zu reduzieren. Im Extremfalls, wenn ein hohes Maß an Bewegung in den zuvor aufgenommenen Bildern vorhanden ist, kann hierbei für alle Bilder der Bildsequenz dieselbe Belichtung verwendet werden.In another example, it is intended to reduce the number of different exposures used with increasing movement. In extreme cases, if a high degree of motion is present in the previously recorded images, the same exposure can be used for all images of the image sequence.
Alternativ oder zusätzlich zu einer Variation der Belichtung abhängig von der detektierten Bewegung ist bei einem weiteren Beispiel vorgesehen, die Anzahl der Bilder einer Bildsequenz abhängig von der detektierten Bewegung zu variieren. So ist beispielsweise vorgesehen, die Anzahl der Bilder einer Bildsequenz zu vergrößern, wenn ein hohes Maß an Bewegung vor- liegt. Die Belichtungen dieser einzelnen Bilder können sich unterscheiden, wobei die Variation der Belichtung durch Variation eines der zuvor genannten Parameter erreicht werden kann. Werden die einzelne Bilder einer Sequenz zeitlich aufeinanderfolgend aufgenommen und wird die Belichtung durch Va- riation der Belichtungszeiten für die einzelnen Bilder variiert, so reduziert sich mit zunehmender Anzahl von Bildern pro Bildsequenz die maximal zulässige Belichtungszeit pro Bild, wenn für die Aufnahme der Bilder einer Sequenz eine vorgegebene Zeit zur Verfügung steht. Um auch bei zunehmender Anzahl von Bildern dennoch eine hohe Streuung der Belichtung einstellen zu können, ist bei einem Beispiel vorgesehen, die Belichtung über die Blendenöffnung einzustellen.As an alternative or in addition to a variation of the exposure as a function of the detected movement, it is provided in another example to vary the number of images of an image sequence as a function of the detected movement. For example, it is intended to increase the number of images of a sequence of images when there is a high degree of movement. The exposures of these individual images may differ, and the variation of the exposure may be achieved by varying one of the aforementioned parameters. If the individual images of a sequence are recorded chronologically in succession and the exposure is varied by varying the exposure times for the individual images, then the maximum permissible exposure time pro reduces as the number of images per image sequence increases Image, if a given time is available for taking pictures of a sequence. In order to be able to set a high scattering of the exposure even with an increasing number of images, it is provided in one example to set the exposure over the aperture.
Bei einem weiteren Beispiel ist in diesem Fall vorgesehen, während einer Zeiteinheit nur ein einziges Bild zu erzeugen und nicht mehrere zu überlagernde Bilder mit gleicher Belich- tungszeit.In a further example, it is provided in this case to generate only a single image during a time unit and not several images to be superimposed with the same exposure time.
Ein Beispiel einer Vorrichtung zur Erzeugung mehrerer Videobildfolgen mit gleicher Bewegungsphase und bewegungsabhängiger Belichtungszeit ist in Figur 6 dargestellt. Diese Vor- richtung umfasst drei Aufnahmevorrichtungen bzw. Kameras 31, 32, 33, die sich an einer gemeinsamen Kameraposition befinden. Jede dieser Aufnahmevorrichtungen besitzt eine einstellbare Belichtungszeit, die abhängig ist von einem der Aufnahmevorrichtung 31, 32, 33 zugeführten Belichtungssignal El, E2, E3. Diese Belichtungszeit kann Bild für Bild eingestellt werden. Jede der Aufnahmevorrichtungen 31, 32, 33 weist einen Ausgang auf, an dem die durch die jeweilige Aufnahmevorrichtung erzeugte Bildfolge zur Verfügung steht. Diese Bildfolgen können eine Überlagerungseinheit 1 (gestrichelt dargestellt) zugeführt werden, die aus diesen Bildfolgen Sl, S2, S3 eine HDR-Bildfolge erzeugt.An example of a device for generating a plurality of video image sequences with the same motion phase and motion-dependent exposure time is shown in FIG. This device comprises three recording devices or cameras 31, 32, 33, which are located at a common camera position. Each of these recording devices has an adjustable exposure time that is dependent on one of the recording device 31, 32, 33 supplied exposure signal El, E2, E3. This exposure time can be adjusted frame by frame. Each of the recording devices 31, 32, 33 has an output at which the image sequence generated by the respective recording device is available. These image sequences can be supplied to an overlay unit 1 (shown in dashed lines), which generates an HDR image sequence from these image sequences S1, S2, S3.
Wenigstens eine der durch die Aufnahmevorrichtungen 31, 32, 33 erzeugten Bildfolgen Sl, S2, S3 ist eine Bewegungsermitt- lungseinheit zugeführt, die dazu ausgebildet ist, Bewegung in den bereits aufgenommenen Bildern der Bildfolge zu ermitteln, beispielsweise durch Vergleich zweier zeitlich aufeinanderfolgender wenigstens einer der Bildfolgen. Am Ausgang dieser Bewegungsermittlungseinheit 41 steht der Bewegungswert S41 zur Verfügung. Dieser Bewegungswert S41 ist einer Belichtungseinstelleinheit 43 zugeführt, die abhängig von diesem Bewegungswert Belichtungssignale El, E2, E3 bereitstellt, die Belichtungszeiten der einzelnen Aufnahmevorrichtungen 31, 32, 33 erzeugt.At least one of the image sequences S1, S2, S3 generated by the recording devices 31, 32, 33 is supplied with a motion detection unit which is designed to detect motion in the already recorded images of the image sequence, for example by comparing two temporally successive at least one of the images image sequences. The movement value S41 is available at the output of this movement determination unit 41. This movement value S41 is supplied to an exposure setting unit 43 which, depending on this movement value, provides exposure signals E1, E2, E3 which Exposure times of the individual recording devices 31, 32, 33 generates.
Die Belichtungseinstelleinheit 43 ist beispielsweise dazu ausgebildet, fest vorgegebene unterschiedliche Belichtungswerte einzustellen, wenn der Bewegungswert S41 unterhalb eines vorgegebenen Schwellenwertes S41o liegt, und gleiche Belichtungswerte einzustellen, wenn der Bewegungswert S41 oberhalb eines vorgegebenen Schwellenwertes liegt. Ein solches Vorgehen ist schematisch in Figur 7 dargestellt, in der die Belichtungswerte El, E2, E3 abhängig von dem Bewegungswert S41 dargestellt sind. Zu Zwecken der Erläuterung sei dabei angenommen, dass der Bewegungswert S41 umso größer ist, je mehr Bewegungsanteile die zur Ermittlung des Bewegungswertes S41 miteinander verglichenen Bilder aufweisen.For example, the exposure setting unit 43 is configured to set fixed predetermined different exposure values when the motion value S41 is below a predetermined threshold value S41o and to set equal exposure values when the motion value S41 is above a predetermined threshold value. Such a procedure is shown schematically in FIG. 7, in which the exposure values E1, E2, E3 are shown as a function of the movement value S41. For purposes of explanation, it is assumed here that the greater the motion components S41, the larger the motion components S41 have compared to each other for determining the motion value S41.
Bei einem weiteren Beispiel ist vorgesehen, die Belichtungswerte El, E2, E3 so einzustellen, dass diese sich mit zunehmendem Bewegungswert S41 aneinander annähern. Ein solches Vorgehen ist in Figur 8 dargestellt. S440 bezeichnet hierbei einen Schwellenwert, ab dem gleiche Belichtungswerte für alle Anzeigevorrichtungen 31, 32, 33 vorgesehen sind.In another example, it is provided to set the exposure values E1, E2, E3 so that they approach each other with increasing movement value S41. Such a procedure is shown in FIG. S44 0 here denotes a threshold value above which the same exposure values are provided for all display devices 31, 32, 33.
Figur 9 zeigt ein Beispiel einer Vorrichtung zur Erzeugung einer Bildfolge mit zeitlich aufeinanderfolgenden Bildern mit unterschiedlicher Belichtungszeit. Diese Vorrichtung umfasst eine Aufnahmevorrichtung 34, die eine durch ein Belichtungssignal E einstellbare Belichtungszeit besitzt. An einem Ausgang dieser Vorrichtung steht das Bildsignal S' zur Verfü- gung. Dieses Bildsignal S' ist einer Bewegungsermittlungsein- heit 44 zugeführt, die dazu ausgebildet ist, Bewegung in der bisher aufgenommenen Bildfolge zu ermitteln und unter Berücksichtigung dieser Bewegung einen Bewegungswert S44 zu erzeugen. Dieser Bewegungswert S44 ist einer Belichtungseinstell- einheit 42 zugeführt. Diese Belichtungseinstelleinheit 42 ist dazu ausgebildet, das Belichtungssignal E zu erzeugen. Anders als bei der anhand von Figur 6 erläuterten Vorrichtung er- zeugt die Bewegungseinstelleinheit 42 gemäß Figur 9 zeitlich aufeinanderfolgend jeweils unterschiedliche Belichtungswerte E und zwar je einen Belichtungswert für jedes durch die Aufnahmevorrichtung 34 zu erzeugende Bild einer Bildsequenz. Die zeitliche Abfolge der durch diese Belichtungseinstelleinheit 42 erzeugten Belichtungswerte ist schematisch in Figur 10 dargestellt. T bezeichnet in Figur 10 den zeitlichen Abstand zwischen zwei Bildern der späteren HDR-Bildfolge . Die mehreren Bilder mit unterschiedlichen Belichtungszeiten werden in- nerhalb dieser Zeitdauer T erzeugt. El bezeichnet in Figur 10 einen ersten Belichtungswert, E2 einen zweiten Belichtungswert und E3 einen dritten Belichtungswert, die jeweils für ein Bild einer Bildsequenz angewendet werden, wobei die einzelnen Bilder dieser Bildsequenz anschließend zur einem HDR- Bild überlagert werden. In dem dargestellten Beispiel wird das Bild mit der größten Belichtungszeit El zuerst, dann das Bild mit der nächstkleineren Belichtungszeit E2 und danach das Bild mit der kleinsten Belichtungszeit E3 aufgenommen. Diese Reihenfolge ist jedoch grundsätzlich beliebig.FIG. 9 shows an example of a device for generating a sequence of images with temporally successive images with different exposure time. This device comprises a recording device 34 which has an exposure time which can be set by an exposure signal E. The image signal S 'is available at an output of this device. This image signal S 'is fed to a motion detection unit 44, which is designed to detect motion in the previously recorded image sequence and to generate a motion value S44 taking into account this movement. This movement value S44 is supplied to an exposure setting unit 42. This exposure setting unit 42 is configured to generate the exposure signal E. Unlike the device explained with reference to FIG. 9, the movement setting unit 42 according to FIG. 9 generates time-sequentially different exposure values E, and in each case one exposure value for each image of a picture sequence to be generated by the recording device 34. The timing of the exposure values generated by this exposure setting unit 42 is schematically shown in FIG. T in FIG. 10 designates the time interval between two images of the later HDR image sequence. The multiple images with different exposure times are generated within this period of time T. El in Fig. 10 denotes a first exposure value, E2 a second exposure value, and E3 a third exposure value each applied to an image of an image sequence, the individual images of that image sequence then being superposed on an HDR image. In the illustrated example, the image with the highest exposure time El is taken first, then the image with the next lower exposure time E2 and then the image with the lowest exposure time E3. However, this order is basically arbitrary.
Die einzelnen Belichtungswerte El, E2, E3 sind von dem Bewegungswert S44 abhängig. Die Abhängigkeit der Belichtungswerte El, E2, E3 von dem Bewegungswert S44 entspricht beispielsweise der zuvor anhand der Figuren 7 und 8 erläuterten Abhängig- keiten der Belichtungswerte El, E2, E3 von dem Bewegungswert S41. The individual exposure values E1, E2, E3 depend on the movement value S44. The dependence of the exposure values E1, E2, E3 on the movement value S44 corresponds, for example, to the dependencies of the exposure values E1, E2, E3 of the movement value S41 explained above with reference to FIGS.

Claims

Patentansprüche claims
1. Verfahren zur Erzeugung einer Videobildfolge mit hohem Dynamikbereich, das umfasst:A method of generating a high dynamic range video image sequence comprising:
Erzeugen von mehreren Bildsequenzen, die jeweils mindestens ein Bild aufweisen; undGenerating a plurality of image sequences each having at least one image; and
Erzeugen jeweils wenigstens eines Bildes aus den einzelnen Bildern einer Bildsequenz;Generating in each case at least one image from the individual images of an image sequence;
wobei vor Erzeugen der Bilder einer ersten Bildsequenz Bewegung in wenigstens einer zeitlich vorangehenden zweiten Bildsequenz ausgewertet und ein Bewegungswert ermittelt wird,wherein, before generating the images of a first image sequence, motion is evaluated in at least one temporally preceding second image sequence and a motion value is determined,
und wobei die Belichtungen der einzelnen Bilder der ersten Bildsequenz und/oder die Anzahl der Bilder der ersten Bildsequenz abhängig von dem Bewegungswert eingestellt werden.and wherein the exposures of the individual images of the first image sequence and / or the number of images of the first image sequence are adjusted depending on the motion value.
2. Verfahren nach Anspruch 1, bei dem abhängig von dem Beweg- gungswert eine Streuung der Belichtung für die einzelnen Bilder der ersten Bildsequenz variiert wird.2. Method according to claim 1, in which, depending on the movement value, a scattering of the exposure for the individual images of the first image sequence is varied.
3. Verfahren nach Anspruch 2, bei dem die Streuung mit zuneh- mender durch den Bewegungswert angezeigter Bewegung abnimmt.3. The method of claim 2, wherein the scattering decreases with increasing movement indicated by the movement value.
4. Verfahren nach Anspruch 1, bei dem die Anzahl der für die Bilder der ersten Bildfolge verwendeten unterschiedlichen Belichtungen von dem Bewegungswert abhängig ist.4. The method of claim 1, wherein the number of different exposures used for the images of the first image sequence is dependent on the motion value.
5. Verfahren nach Anspruch 4, bei dem die Anzahl der verwendeten unterschiedlichen Belichtungen mit zunehmender durch den Bewegungswert angezeigter Bewegung abnimmt.A method according to claim 4, wherein the number of different exposures used decreases as the movement indicated by the motion value increases.
6. Verfahren nach einem der vorangehenden Ansprüche, bei dem die Anzahl der Bilder der ersten Bildsequenz mit zunehmender durch den Bewegungswert angezeigter Bewegung zunimmt. A method according to any one of the preceding claims, wherein the number of images of the first image sequence increases with increasing movement indicated by the motion value.
7. Verfahren nach einem der vorangehenden Ansprüche, bei dem die Bewegung innerhalb einer zeitlich vorangehenden zweiten Bildsequenz ausgewertet wird.7. The method according to any one of the preceding claims, wherein the movement is evaluated within a temporally preceding second image sequence.
8. Verfahren nach einem der Ansprüche 1 bis 6, bei dem die Bewegung zwischen wenigstens zwei zeitlich vorangehenden zweiten Bildsequenzen ausgewertet wird.8. The method according to any one of claims 1 to 6, wherein the movement between at least two temporally preceding second image sequences is evaluated.
9. Verfahren nach einem der vorangehenden Ansprüche, bei dem die Belichtung von wenigstens einem der folgenden Parameter abhängig ist: Dauer der Belichtungszeit, Größe der Blendenöffnung, Helligkeit einer Zusatzbeleuchtung. 9. The method of claim 1, wherein the exposure depends on at least one of the following parameters: duration of the exposure time, size of the aperture, brightness of an additional illumination.
PCT/EP2010/053200 2009-03-12 2010-03-12 Method for generating an hdr video image sequence WO2010103109A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009001521A DE102009001521B4 (en) 2009-03-12 2009-03-12 Method for generating an HDR video image sequence
DE102009001521.3 2009-03-12

Publications (1)

Publication Number Publication Date
WO2010103109A1 true WO2010103109A1 (en) 2010-09-16

Family

ID=42470617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/053200 WO2010103109A1 (en) 2009-03-12 2010-03-12 Method for generating an hdr video image sequence

Country Status (2)

Country Link
DE (1) DE102009001521B4 (en)
WO (1) WO2010103109A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015116026A1 (en) 2015-09-22 2017-03-23 JENETRIC GmbH Device and method for direct optical image acquisition of documents and / or living skin areas without imaging optical elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0977432A2 (en) * 1998-07-28 2000-02-02 Olympus Optical Co., Ltd. Image pickup apparatus
US6993200B2 (en) 2001-11-20 2006-01-31 Sony Corporation System and method for effectively rendering high dynamic range images
EP1909492A1 (en) * 2006-10-02 2008-04-09 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Digital motion picture camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630905B2 (en) * 1997-02-28 2005-03-23 キヤノン株式会社 Imaging method and imaging apparatus
US20090040364A1 (en) * 2005-08-08 2009-02-12 Joseph Rubner Adaptive Exposure Control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0977432A2 (en) * 1998-07-28 2000-02-02 Olympus Optical Co., Ltd. Image pickup apparatus
US6993200B2 (en) 2001-11-20 2006-01-31 Sony Corporation System and method for effectively rendering high dynamic range images
EP1909492A1 (en) * 2006-10-02 2008-04-09 Arnold & Richter Cine Technik GmbH & Co. Betriebs KG Digital motion picture camera

Also Published As

Publication number Publication date
DE102009001521A1 (en) 2010-09-23
DE102009001521B4 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
DE60127866T2 (en) REDUCING AURA-LIKE EFFECTS IN MOTION-COMPENSATED INTERPOLATION
DE102016220757A1 (en) Method and device for material web observation and material web inspection
WO2012156462A2 (en) Method for generating and evaluating an image
EP3253045B1 (en) Method for detecting and correcting image errors and image processing unit and computer programme for same
DE112012004352T5 (en) Stereo imaging device
EP2017784A2 (en) Method for editing a sequence of pictures with subsequent video images for improving spatial resolution
EP3634003A1 (en) Method and device for time synchronization of the optical transmission of data in the free space
DE102009026983A1 (en) Image processing method with a motion estimation and image processing arrangement
EP2487649A1 (en) Testing a motion vector
DE102009001521B4 (en) Method for generating an HDR video image sequence
EP1650978A1 (en) Method for displaying an image by means of a sequential display of colours
DE102010014733A1 (en) Chroma keying method for recording and processing of camera images, involves altering background color of monochrome image, and synchronizing background color with image pick-up frequency between two complementary colors
DE102009001518B4 (en) Method for generating an HDR video image sequence
DE102011117654B4 (en) Method for operating an image processing device and corresponding image processing device
DE102008036279B4 (en) Method for determining a motion vector for an image block of an intermediate image
DE4327733C1 (en) Video signal picture movement detector - generates movement bits for each full image from signals produced due to difference between pixels of luminance half images
DE102009057724B4 (en) Image capture device and method for reducing motion blur
DE202016008887U1 (en) Image processing unit and computer program for the detection and correction of image errors
DE102022002637B3 (en) Camera system and method for its operation
DE19649651C1 (en) Video sequence conversion method
EP4002835A1 (en) Indirect viewing system and method for adjusting a frame rate
DE10140695C2 (en) Method and device for detecting movement in an image
DE102011016094A1 (en) Method for dynamic adaptation of images captured using charge coupled device camera, involves transforming rank values of each image based on common ranking table calculated according to image values matching with original image values
DE102014218627A1 (en) Method and control device for operating an image sensor
DE10302003A1 (en) Video signal noise component determination method, involves calculating maximum of absolute values of difference between video signals in each processing channel for respective search window

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10713801

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10713801

Country of ref document: EP

Kind code of ref document: A1