WO2020119997A1 - Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge - Google Patents

Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge Download PDF

Info

Publication number
WO2020119997A1
WO2020119997A1 PCT/EP2019/079550 EP2019079550W WO2020119997A1 WO 2020119997 A1 WO2020119997 A1 WO 2020119997A1 EP 2019079550 W EP2019079550 W EP 2019079550W WO 2020119997 A1 WO2020119997 A1 WO 2020119997A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
partial
flow field
flow
flow fields
Prior art date
Application number
PCT/EP2019/079550
Other languages
English (en)
French (fr)
Inventor
Philip Lenz
Alexander Lengsfeld
Joern Jachalsky
Marcel Brueckner
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to KR1020217021389A priority Critical patent/KR20210102343A/ko
Priority to US17/278,006 priority patent/US11989889B2/en
Priority to CN201980082459.1A priority patent/CN113168703A/zh
Priority to JP2021533439A priority patent/JP7337165B2/ja
Priority to EP19797642.6A priority patent/EP3895123A1/de
Publication of WO2020119997A1 publication Critical patent/WO2020119997A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Definitions

  • the invention relates to a method for determining a relative movement of a device to at least one object by means of a digital image sequence.
  • Driver assistance systems record scenarios with the help of electronic systems that, for. B. by means of radar, lidar, ultrasound or camera systems to record and process data to characterizing parameters
  • the processing of the data can, depending on the
  • a three-dimensional model is available for analysis.
  • the apparent movement of the object in an image sequence can be analyzed using two-dimensional image coordinates.
  • a relative movement of a device to at least one object can e.g. B. based on scaling change of object detections or based on a scale change estimate of an optical flow from the image sequences.
  • the estimate of the relative movement is subject to the
  • Scaling changes in object detections of a number of inaccuracies such as B. the often erroneous assumption of known and fixed object widths or there are inaccuracies due to the variation in the extent of the object in successive camera images.
  • the optical flow belonging to the target object must be selected from the flow fields, which can be done via a movement segmentation.
  • Movement segmentation of the optical flow is a non-trivial and computation-intensive problem.
  • the resulting results are typically very noisy, so subsequent calculations must treat a large number of outliers.
  • a collision time TTC time-to-collision or time-to-contact
  • the optical flow estimate is calculated with a fixed time interval over the entire image.
  • DE10 2011 006 629 A1 describes a method for determining the collision time of a vehicle equipped with a video system on the basis of an evaluation of video images of the vehicle surroundings, whereby a
  • Collision parameter TTC for determining the collision time of the vehicle with any part of the vehicle environment is calculated.
  • the collision parameter TTC is calculated by integrating the expansion rate of the optical flow field of the entire vehicle environment recorded by the video system in the video image.
  • the invention further relates to a
  • Vehicle guidance system for performing the method according to the invention.
  • the object of the invention is a method for determining a
  • Computer program product and a computer-readable storage medium for determining a relative movement of a device to at least one Object based on a digital one captured by the location of the facility
  • the invention is based on the knowledge that objects farther away from the device appear in an image of a sequence of images, e.g. B. was captured in perspective with a camera, images smaller than nearby objects. Therefore, according to the invention, optical flow fields are calculated from pairs of images of such an image sequence with different time intervals from one another and with different sizes, the partial area on the images in which the object is depicted being taken into account. This partial area in which the object is depicted can also be referred to as a "bounding box" or as a "region of interest ROI". Suitable flow fields are then selected from a multiplicity of flow fields for determining relative movements on the basis of criteria which improve the reliability and accuracy of this estimate.
  • the device for at least one object, based on a digital image sequence of the object detected by the location of the device.
  • the device can be a motor vehicle that itself has a movement relative to a surface.
  • the device can also be stationary, relative to which an object such.
  • the optical flow describes the displacement of the image points of an object recorded at a time i in an image of an image sequence, in relation to the image points recorded at time j, using flow vectors which are assigned to the current image points and thus define the optical flow field. Furthermore, in the method according to the invention, the at least one object, whose relative movement is to be determined, is located in the most current image in a partial image area of the digital image sequence and this
  • Drawing area is assigned to the object.
  • a region is thus identified for each image in the image sequence in which the object was detected, and it is sufficient for the further calculations to consider this partial image region ROI (region of interest) which characterizes the object.
  • ROI region of interest
  • a rectangular area is assigned to the object, which largely
  • the partial image area can also be derived from a so-called “semantic segmentation”.
  • the at least one object can be located only for selected images of the sequence of images. If several objects are located in the most current image in each case, the objects can be tracked through the entire method by means of the assigned partial image regions by assigning one partial image area to one object.
  • a multiplicity of optical partial flow fields is formed from the multiplicity of optical flow fields, a respective partial flow field resulting as an intersection of one of the flow fields of the multiplicity of flow fields with the partial image area of the most current image of the image sequence.
  • the calculation of the flow field is based on the most current image of the image sequence and the flow field is calculated on the other image of the image pair that has the corresponding time interval to the current image.
  • the object was located in the partial image area in the current image and the intersection of this partial image area of the image with the flow field, which was calculated on the basis of this most recent image, determines the partial flow field that the
  • At least one partial flow field is selected according to at least one criterion in order to promote the estimation of a change in the scale of the object.
  • the change in scale for the at least one object is estimated based on the at least one selected partial flow field.
  • pairs of flow vectors are formed, by means of which the change in scaling is calculated. It is therefore beneficial for the scale estimation if a suitable partial flow field is selected, because the scale estimate is based on this partial flow field.
  • a suitable partial flow field is selected for each object based on the criteria. For this purpose, a unique identification is made for each object or for each associated drawing area.
  • the partial flow field that is the most suitable can be selected according to predefined criteria.
  • the quality of the scaling calculation is therefore improved by selecting the most suitable optical partial flow field from different time intervals. Because if z. B. an object is located at a greater distance from the facility, z. B. a flow field with a larger time interval between the images of a corresponding pair of images, a longer flow vector can be used for the estimation. To estimate the change in scale, a different time interval for calculating the optical flow can be used at a time i than at time j.
  • Criterion for selecting a partial flow field takes into account the degree of coverage of the partial image area with the calculated flow field. This ensures that the object is located in an image area within the calculated flow field and that a sufficient proportion of the object represented by the partial image area can be taken into account. This is especially important if e.g. B. the flow field is not calculated for the entire area of the images of the image sequence to reduce the computational effort. This is explained in more detail below. Additionally or alternatively, the criterion can be an absolute size of the intersection of the
  • the criterion for the selection of a partial flow field be a quantity of a signal-noise Ratio of flow vectors of the partial flow field and additionally or alternatively a quality measure from the calculation of the flow vectors is taken into account. Reliability in the quality of the partial flow field is given either by a determined signal-to-noise ratio of the flow vectors or also by a quality value that was determined when the flow vectors were calculated. Furthermore, the criterion for selecting a partial flow field can additionally or alternatively take into account the number of the flow vectors in the partial flow field and / or the length of the flow vectors of the partial flow field.
  • the criterion for selecting a partial flow field takes into account a detection quality of the location of the object in the partial image area of the image of the image sequence. If the location of an object in a partial area of an image is certain, the correct flow vectors are also selected in the partial flow field, which improves the estimate.
  • the criterion can also take into account the characteristics of the image areas in the intersection of the partial image area and the calculated flow field.
  • the properties of an image in the sequence of images are also included in the selection of the partial flow fields, which have an obvious influence on the quality, for example.
  • B. have the flow vectors. These can be contrasts, homogeneity, gray value distribution, gradients or more complex features such as a jHistogram of oriented gradients HOG, in which the distribution of local intensities or the arrangement of edges are evaluated, and similar variables that characterize the meaningfulness of the image.
  • FV> alpha * (SZ / SZMAX) * FVMAX assumes and also takes into account the size of the time interval with which the partial flow field was calculated. This criterion primarily evaluates the number of flow vectors in the partial flow field in comparison to the number in the other partial flow fields. This formula is derived later in this description. The size of the time interval is in the way
  • the multiplicity of optical flow fields be calculated from an image section of the images of the image pairs, the image section representing a partial area of the respective images.
  • the object z. B. is a vehicle that is moving on a surface in front of the device relative to the device, shown at a greater distance from the device in a different image detail of an image of a sequence of images than an object that is in a close range in front of the device .
  • the calculation of the plurality of optical flow fields is carried out for at least two distinguishable image sections of the images of the image pairs and with different time intervals in each case.
  • the at least two distinguishable image sections are arranged with respect to their arrangement and size on the images of the image pairs in accordance with perspective aspects for the location of objects at different distances from the device.
  • the partial image area of an image in which distant objects are imaged in front of the device is significantly smaller than in the case of objects in the near area in front of the device, provided that the objects move on an essentially flat surface in front of the device.
  • Ratios can e.g. For example, an image section for distant objects can be placed smaller and farther in the direction of the upper edge of the images in the sequence of images than an image section for objects in the vicinity of the device.
  • the at least two image sections can be distinguished by their areal extent, the smaller image section is arranged entirely within the larger image section, and the respectively assigned one
  • the time interval for calculating the flow fields is larger, the smaller the
  • Image section is.
  • Calculation of a large number of optical flow fields can be calculated from image sections of the image pairs, the image sections and / or the
  • Assignment of the image sections to time intervals of the image pairs can be determined after the acquisition of the respective image sequence.
  • Information from the location of objects used to calculate the flow fields used parameters such as B. the location, the size and the assigned time interval can be adjusted.
  • a computer program product which comprises instructions which, when the program is executed by a computer, cause the computer to carry out the method described above.
  • a computer-readable storage medium which comprises commands which, when the program is executed by a computer, cause the computer to carry out the method described above.
  • the invention also provides a system for determining a relative movement of the system to at least one object.
  • This system has one
  • Such a device for capturing digital image sequences can, for. B. a digital camera, a digital video camera. Furthermore, the system has an evaluation unit which is coupled to the device in such a way that the image sequences are transferred to the evaluation unit.
  • This can e.g. B. with a bus system, which couples the device for recording digital image sequences with the evaluation unit.
  • the evaluation unit is set up, the method according to the invention described above
  • FIGS. 1 and 2 Exemplary embodiments of the invention are shown in FIGS. 1 and 2 and are explained in more detail below. It shows:
  • FIG. 1 shows a flow chart of a method for determining a
  • Figure 2 System for determining a relative movement of a device to at least one object.
  • FIG. 1 the method steps for determining a relative movement of a device to at least one object are shown in flow diagram 10.
  • For the procedure are a sequence of digital images for both
  • a multiplicity of optical flow fields ⁇ U (x, y, x) ⁇ are calculated.
  • Each flow field ⁇ U (x, y, x) ⁇ is formed from a set of flow vectors U, which are each assigned to the coordinates x and y of an image.
  • the flow vectors U are calculated from image pairs of the sequence of digital images with a time interval x.
  • the individual flow fields ⁇ U (x, y, x ⁇ are calculated with a large number of different time intervals t: i. .H from a current image and images of the sequence of images.
  • Step S7 is an optional embodiment of the exemplary embodiment.
  • Step S7 precedes step S2, the calculation of a large number of flow fields.
  • the calculation of the diversity of the optical flow field in S2 is based only on an image section of the images of the pairs of images, the image section thus representing a partial area of the respective images.
  • step S7 the definition of a smaller image section is thus provided for the large number of flow field calculations, as outlined in FIG. 1 in step S7.
  • an area such. B. a sky can be hidden from an image that is not relevant for the estimation of the change in scale, thereby reducing the computational effort.
  • step S7 for the calculation of the plurality of optical flow fields in step S2, it is specified that image sections of the images of the images that can be distinguished
  • Image pairs can each be given different time intervals.
  • This calculation of the diversity of flow fields S2 can be carried out with any number of image sections and associated time intervals. As already shown, this enables objects with their partial image area, which are shown in the distance to be smaller due to perspective reasons, to be completely captured during the flow field calculation using a smaller image section. Thus, the computing effort for the calculation of the
  • the estimate from one image section can also be compared with the estimate from another image section.
  • Image sections of different sizes should be centered and nested, and the longest time interval assigned to the smallest image section, the largest time interval to the largest and the middle image section assigned a time interval that lies between the other two time intervals.
  • the method according to the invention thus enables a robust and precise estimate of the change in scale, which can also be adapted to other circumstances, for objects in the near and far range.
  • step S3 at least one object is located in a partial image area of an image of the sequence of images and the respective object is assigned to a partial area.
  • the result of the location S3 is a partial image area of an image of the sequence of images in which the object was located and to which it was assigned.
  • a partial flow field in each case results from an intersection of a calculated flow field ⁇ U (x, y, x) ⁇ with the at least one partial image area, which results in a plurality of partial flow fields with the plurality of calculated flow fields ⁇ U (x, y, x) ⁇ be formed.
  • Each partial flow field has the time interval used to determine this flow field ⁇ U (x, y, x) ⁇
  • step S5 a partial flow field is selected from this large number of partial flow fields according to a criterion, the selection of a suitable criterion promoting the estimation of a change in the scale of the object.
  • the criteria for this selection of at least one suitable partial flow field from the large number of partial flow fields are based on the one hand on necessary ones
  • the partial image area has a sufficient number of flow vectors for estimating the change in scale, by means of which the change in scale is estimated.
  • quality criteria such as the signal-to-noise ratio or
  • the quality criteria for the selection of a partial flow field can refer to the flow vectors of the partial flow fields, to features of the object detection in the
  • the quality size of the flow vectors can be provided via an optional data exchange VI between the calculation of the diversity of the flow fields in step S2 and the selection in step S5. Furthermore, quality criteria can relate to features of the drawing area that result from the location of the at least one object.
  • an optional data exchange V2 can take place between the object detection in step S3 and the selection of partial flow fields in step S5.
  • more complex methods such as automated or learned classifiers, e.g. B. from “machine learning” (e.g. decision trees) or “deep learning” e.g. B. can be determined “offline", used to select the most suitable partial flow field.
  • machine learning e.g. decision trees
  • deep learning e.g. B.
  • Coverage area SZ ie the intersection of the partial image area and the calculated flow field, is above a certain minimum size, is taken into account for the selection process. For the partial flow fields selected in this way, the number of
  • Coverage area SZMAX and the maximum number of flow vectors FVMAX in a respective coverage area SZ of one of the selected partial flow fields are determined.
  • alpha is a weighting factor to be selected, e.g. can be determined empirically.
  • the most suitable flow field is selected separately for each cover area.
  • step S6 after the selection of the most suitable partial flow range, the change in scale is estimated.
  • scale changes S6 pairs of flow vectors are formed from the overlap area in order to move objects along the optical axis of the
  • Image acquisition system to be able to quantify relative movements.
  • one pixel in one image is mapped to several pixels in another image and vice versa.
  • a collision time TTC time-to-collision or time-to-contact
  • the method shown can be implemented by means of a computer program product which comprises the commands which, when the program is executed by a computer, cause the computer to carry out this method with all of its optional features.
  • Computer program product can also be read on a computer
  • Storage medium can be saved.
  • FIG. 2 shows a system 20 for determining a relative movement of this system 20 with at least one object.
  • This system has a device for capturing digital image sequences 1 from e.g. B. objects.
  • Such a device for capturing digital image sequences can, for. B. be a digital camera or a digital video camera.
  • the system 20 has an evaluation unit 2 which is coupled to the device 1 in such a way that the image sequences are transferred to the evaluation unit 2.
  • This can e.g. B. with a bus system la, which couples the device for recording digital image sequences 1 with the evaluation unit 2.
  • a bus system la which couples the device for recording digital image sequences 1 with the evaluation unit 2.
  • Evaluation unit 2 set up to carry out the inventive method described above and to provide the result of the method at an output 3 of the evaluation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur Bestimmung einer Relativbewegung einer Einrichtung (10) zu zumindest einem Objekt, basierend auf einer, vom Ort der Einrichtung erfassten, digitalen Bilderfolge des Objektes, wobei das Verfahren die folgenden Schritte umfasst: -Berechnung einer Vielzahl von optischen Flussfeldern (S2) aus Bilderpaaren der digitalen Bilderfolge (S1), wobei die Bilderpaare aus einem aktuellsten Bild und Bildern der Bilderfolge mit unterschiedlichen Zeitintervallen zu diesem aktuellsten Bild gebildet werden; -Orten mindestens eines Objektes (S3) in einem Teilbildbereich im jeweils aktuellsten Bild und Zuordnen dieses Teilbildbereiches zu dem Objekt; -Bilden einer Vielzahl von optischen Teilflussfeldern aus der Vielzahl der optischen Flussfelder (S4), wobei ein jeweiliges Teilflussfeld aus einer Schnittmenge eines der Flussfelder der Vielzahl von Flussfeldern mit dem Teilbildbereich des aktuellsten Bildes der Bilderfolge resultiert; -Auswahl mindestens eines der Teilflussfelder (S5) aus der Vielzahl der Teilflussfelder entsprechend mindestens einem Kriterium, um die Schätzung einer Skalenänderung des Objektes zu fördern; und -Schätzung der Skalenänderung für das mindestens eine Objekt (S6) mittels des zugeordneten Teilbildbereiches basierend auf dem mindestens einen ausgewählten Teilflussfeld.

Description

Beschreibung
Titel:
Verfahren zur Bestimmung einer Relativbewegung mittels einer digitalen Bilderfolge
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Relativbewegung einer Einrichtung zu zumindest einem Objekt mittels einer digitalen Bilderfolge.
Fahrerassistenzsysteme erfassen Szenarien mit Hilfe von elektronischen Systemen, die z. B. mittels Radar, Lidar, Ultraschall oder Kamerasystemen Daten aufnehmen und verarbeiten, um kennzeichnende Parameter über
Relativbewegungen solcher Einrichtungen gegenüber anderen Objekten zu berechnen. Die Verarbeitung der Daten kann, auch abhängig von dem
verwendeten elektronischen System, auf der Grundlage von dreidimensionalen oder zweidimensionalen Modellen erfolgen. Bei einem Radarsystem, das systembedingt Entfernungen erfasst, bietet sich ein dreidimensionales Modell zur Analyse an.
Stand der Technik
Bei monokularen digitalen Kamerasystemen kann die scheinbare Bewegung des Objekts in einer Bilderfolge anhand zweidimensionaler Bildkoordinaten analysiert werden. Eine Relativbewegung einer Einrichtung zu zumindest einem Objekt kann z. B. anhand von Skalierungsänderung von Objektdetektionen erfolgen oder auf einer Skalenänderungsschätzung eines optischen Flusses aus den Bildsequenzen basieren.
Dabei unterliegt die Schätzung der Relativbewegung über die
Skalierungsänderung von Objektdetektionen einer Reihe von Ungenauigkeiten, wie z. B. der oft fehlerbehafteten Annahme bekannter und fester Objektbreiten oder es entstehen Ungenauigkeiten aufgrund der Variation der Ausdehnung des Objektes in aufeinanderfolgenden Kamerabildern. Bei der Skalenänderungsschätzung mittels des optischen Flusses, muss der zum Zielobjekt gehörende optische Fluss aus den Flussfeldern selektiert werden, was über eine Bewegungssegmentierung erfolgen kann. Die
Bewegungssegmentierung des optischen Flusses ist ein nicht triviales und rechenintensives Problem. Insbesondere für eingebettete Systeme im
Automobilbereich ist die notwendige Rechenkapazität oftmals nicht verfügbar.
Die resultierenden Ergebnisse sind typischerweise stark rauschbehaftet, so dass anschließende Berechnungen eine großen Menge von Ausreißern behandeln müssen.
Aus solchen Skalierungsänderungen kann, als ein kennzeichnender Parameter, dann z. B. eine Kollisionszeit TTC (Time-to-collision oder time-to-contact) vor allem zwischen Fahrzeugen abgeleitet werden.
Dabei wird typischerweise die optische Flussschätzung mit festem Zeitintervall über das gesamte Bild berechnet.
Die DE10 2011 006 629 Al beschreibt ein Verfahren zur Bestimmung der Kollisionszeit eines mit einem Videosystem ausgerüsteten Fahrzeuges anhand einer Auswertung von Videobildern der Fahrzeugumgebung, wobei ein
Kollisionsparameter TTC zur Bestimmung der Kollisionszeit des Fahrzeuges mit irgendeinem Teil der Fahrzeugumgebung berechnet wird. Die Berechnung des Kollisionsparameters TTC erfolgt mittels der Integration der Expansionsrate des optischen Flussfeldes der gesamten, vom Videosystem aufgenommenen Fahrzeugumgebung im Videobild. Ferner betrifft die Erfindung ein
Fahrzeugführungssystem zur Durchführung des erfindungsgemäßen Verfahrens.
Aufgabe der Erfindung ist es, ein Verfahren zur Bestimmung einer
Relativbewegung einer Einrichtung zu zumindest einem Objekt mittels einer digitalen Bilderfolge anzugeben, mit dem mit wenig Rechenleistung eine hohe Genauigkeit bei der Schätzung der Relativbewegung erreichbar ist und das es weiterhin ermöglicht, aus einem Maß für die geschätzten Relativbewegung andere kennzeichnende Parameter der Relativbewegungen zu berechnen
Offenbarung der Erfindung
Erfindungsgemäß wird ein Verfahren, ein System sowie ein
Computerprogrammprodukt und ein computerlesbares Speichermedium zur Bestimmung einer Relativbewegung einer Einrichtung zu zumindest einem Objekt, basierend auf einer, vom Ort der Einrichtung erfassten, digitalen
Bilderfolge des Objektes gemäß den Merkmalen der unabhängigen Ansprüche angegeben, welches zumindest zum Teil die genannten Wirkungen aufweist. Vorteilhafte Ausgestaltungen sind Gegenstand der abhängigen Ansprüche sowie der nachfolgenden Beschreibung.
Die Erfindung beruht auf der Erkenntnis, dass von der Einrichtung weiter entfernte Objekte sich in einem Bild einer Bilderfolge, das z. B. mit einer Kamera perspektivisch erfasst wurde, kleiner abbildet als nahe Objekte. Daher werden erfindungsgemäß optische Flussfelder aus Bilderpaaren einer solchen Bilderfolge mit unterschiedlichen zeitlichen Intervallen zueinander und mit unterschiedlicher Größe berechnet, wobei die Teilfläche auf den Bildern, in der sich das Objekt abbildet, berücksichtigt wird. Diese Teilfläche, in der sich das Objekt abbildet, kann auch auch als„bounding box“ oder als„region of interest ROI“ bezeichnet werden. Anschließend werden aus einer Vielzahl von Flussfeldern geeignete Flussfelder, zur Bestimmung von Relativbewegungen, anhand von Kriterien ausgewählt, die die Zuverlässigkeit und Genauigkeit dieser Schätzung verbessern.
Bei dem erfindungsgemäße Verfahren wird eine Relativbewegung einer
Einrichtung zu zumindest einem Objekt, basierend auf einer, vom Ort der Einrichtung erfassten, digitalen Bilderfolge des Objektes bestimmt. Bei der Einrichtung kann es sich als ein Beispiel um ein Kraftfahrzeug handeln, das selbst eine Bewegung relativ zu einem Untergrund aufweist. Die Einrichtung kann aber auch stationär sein, relativ zu der sich ein Objekt wie z. B. ein
Kraftfahrzeug bewegt.
Für diese Bestimmung wird eine Vielzahl von optischen Flussfeldern, aus Bilderpaaren der digitalen Bilderfolge berechnet, wobei die Bilderpaare aus einem aktuellsten Bild und Bildern der Bilderfolge mit unterschiedlichen
Zeitintervallen zu diesem aktuellsten Bild gebildet werden. Dabei beschreibt der optische Fluss die Verschiebung der zu einem Zeitpunkt i aufgenommenen Bildpunkte eines Objektes in einem Bild einer Bildfolge, in Bezug zu den zum Zeitpunkt j aufgenommenen Bildpunkten, anhand von Flussvektoren, die den aktuellen Bildpunkten zugeordnet werden und so das optische Flussfeld definieren. Weiterhin wird bei dem erfindungsgemäßen Verfahren das mindestens eine Objekt, dessen Relativbewegung bestimmt werden soll, im jeweils aktuellsten Bild in einem Teilbildbereich der digitalen Bilderfolge geortet und dieser
Teilbildbereich wird dem Objekt zugeordnet. Somit wird eine Region für jedes Bild in der Bilderfolge identifiziert, in der das Objekt detektiert wurde, und für die weiteren Berechnungen reicht es, diesen Teilbildbereich ROI (englisch: region of interest), der das Objekt charakterisiert, zu betrachten. Typischerweise wird dem Objekt dafür ein rechteckiger Bereich zugeordnet, der weitgehend
deckungsgleich mit dem Objekt ist. Alternativ kann der Teilbildbereich auch aus einer sogenannten„semantischen Segmentierung“ abgeleitet werden. In einer weiteren Ausgestaltung der Erfindung kann die Ortung des mindestens einen Objektes nur für ausgewählte Bilder der Bilderfolge erfolgen. Wenn mehre Objekte im jeweils aktuellsten Bild geortet werden, können, über die Zuordnung von einem Teilbildbereich zu einem Objekt, die Objekte durch das gesamte Verfahren hindurch, mittels der zugeordneten Teilbildbereiche, verfolgt werden,
Aus der Vielzahl der optischen Flussfeldern wird eine Vielzahl von optischen Teilflussfeldern gebildet, wobei ein jeweiliges Teilflussfeld als Schnittmenge eines der Flussfelder der Vielzahl von Flussfeldern mit dem Teilbildbereich des aktuellsten Bildes der Bilderfolge resultiert.
Dabei basiert die Berechnung des Flussfeldes auf dem aktuellsten Bild der Bildfolge und das Flussfeld wird mit dem anderen Bild des Bildpaares berechnet, das das entsprechende Zeitintervall zu dem aktuellen Bild aufweist. Das Objekt wurde in dem Teilbildbereich im aktuellen Bild geortet und die Schnittmenge dieses Teilbildbereiches des Bildes mit dem Flussfeld, das auf Basis dieses aktuellsten Bildes berechnet wurde, bestimmt das Teilflussfeld, das dem
Flussfeld zugeordnet wird.
Aus dieser Vielfalt der Teilflussfelder wird mindestens ein Teilflussfeld entsprechend mindestens einem Kriterium ausgewählt, um die Schätzung einer Skalenänderung des Objektes zu fördern.
Die Schätzung der Skalenänderung für das mindestens eine Objekt wird, basierend auf dem mindestens einen ausgewählten Teilflussfeld, durchgeführt. Für die Schätzung der Skalenänderung werden Paare von Flussvektoren gebildet, mittels derer die Skalierungsänderung berechnet wird. Somit ist es förderlich für die Skalenschätzung, wenn ein geeignetes Teilflussfeld ausgesucht wird, denn auf diesem Teilflussfeld basiert die Skalenschätzung. Wenn in der Bilderfolge mehrere Objekte geortet werden, wird das Verfahren für jedes Objekt durchgeführt. D. h. für jedes Objekt wird anhand der Kriterien ein geeignetes Teilflussfeld ausgewählt. Dazu erfolgt für jedes Objekt bzw. für jeden zugehörigen Teilbildbereich über die Zuordnung eine eindeutige Kennzeichnung.
Mit diesem Verfahren wird erreicht, dass für die Schätzung der Skalenänderung von Objekten, die sich in unterschiedlicher Entfernung von der Einrichtung befinden und sich somit unterschiedlich in den Bildern der Bilderfolge abbilden, das Teilflussfeld entsprechend vordefinierter Kriterien herausgesucht werden kann, das das geeignetste ist.
Die Güte der Skalierungsberechnung wird also durch die Auswahl des geeignetsten optischen Teilflussfeldes, aus unterschiedlichen Zeitintervallen verbessert. Denn wenn sich z. B. ein Objekt in größerer Entfernung von der Einrichtung befindet, kann über die Auswahl z. B. eines Flussfeldes mit einem größeren Zeitintervall zwischen den Bildern eines entsprechenden Bilderpaars ein längerer Flussvektor zur Schätzung benutzt werden. Für die Schätzung der Skalenänderung kann also zu einem Zeitpunkt i ein anderes Zeitintervall für die Berechnung des optischen Flusses verwendet werden als zum Zeitpunkt j.
Gemäß einer Ausgestaltung der Erfindung wird vorgeschlagen, dass das
Kriterium zur Auswahl eines Teilflussfeldes der Grad der Überdeckung des Teilbildbereiches mit dem berechneten Flussfeld berücksichtigt. Damit wird sichergestellt, dass das Objekt sich in einem Bildbereich, innerhalb des berechneten Flussfeldes befindet und ein ausreichender Anteil des Objektes, das durch den Teilbildbereich repräsentiert wird, berücksichtigt werden kann. Dies ist vor Allem dann wichtig, wenn z. B. für die Verringerung des Rechenaufwandes das Flussfeld nicht für die gesamte Fläche der Bilder der Bilderfolge berechnet wird. Dies wird im Folgenden noch näher ausgeführt. Zusätzlich oder auch alternativ kann das Kriterium eine absolute Größe der Schnittmenge des
Teilbildbereiches mit dem berechneten Flussfeld berücksichtigten, da ggf. diese Überdeckungsfläche, die aus dieser Schnittfläche gebildet wird so groß, dass die Flussvektoren, die sich innerhalb dieser Überdeckung befinden für eine
Schätzung der Skalenänderung ausreichen.
Gemäß einer weiteren Ausgestaltung der Erfindung wird vorgeschlagen, dass das Kriterium zur Auswahl eines Teilflussfeldes eine Größe eines Signal-Rausch- Verhältnis von Flussvektoren des Teilflussfeldes und zusätzlich oder alternativ ein Qualitätsmaß aus der Berechnung der Flussvektoren berücksichtigt. Dabei wird eine Verlässlichkeit in die Qualität des Teilflussfeldes entweder durch ein ermitteltes Signal- Rausch- Verhältnis der Flussvektoren oder auch durch einen Qualitätswert gegeben, der bei der Berechnung der Flussvektoren ermittelt wurde. Weiterhin kann das Kriterium zur Auswahl eines Teilflussfeldes zusätzlich oder alternativ die Anzahl der der Flussvektoren im Teilflussfeld und/oder die Länge der Flussvektoren des Teilflussfeldes berücksichtigen. Dabei bestimmt sich die Gültigkeit von Flussvektoren selbst im Wesentlichen am Signal- Rausch- Verhältnis sofern kein anderes Qualitätsmaß verfügbar ist. Je höher die Anzahl solcher Flussvektoren ist, um so sicherer und robuster ist die Schätzung der Skalenänderung. Entsprechend kann die Länge der Flussvektoren die Schätzung der Skalenänderung in gewissem Maße verbessern.
Gemäß einer weiteren Ausgestaltung der Erfindung wird vorgeschlagen, dass das Kriterium zur Auswahl eines Teilflussfeldes eine Detektionsgüte der Ortung des Objektes im Teilbildbereich des Bildes der Bilderfolge berücksichtigt. Sofern die Ortung eines Objektes in einem Teilbereich eines Bildes sicher vorliegt, werden im Teilflussfeld auch die richtigen Flussvektoren ausgewählt, was die Schätzung verbessert.
Zusätzlich oder als Alternative kann das Kriterium auch Charakteristika der Bildbereiche in der Schnittmenge von Teilbildbereich und dem berechneten Flussfeld liegt, berücksichtigen. Damit gehen auch die Eigenschaften eines Bildes der Folge von Bildern in die Auswahl der Teilflussfelder ein, die einen offensichtlichen Einfluss auf die Qualität z. B. der Flussvektoren haben. Dabei kann es sich um Kontraste, die Homogenität, die Grauwertverteilung, Gradienten oder auch komplexere Merkmale wie ein jHistogramm of oriented gradients HOG, bei dem die Verteilung lokaler Intensitäten oder die Anordnung von Kanten bewertet werden, und ähnliche die Aussagekraft des Bildes charakterisierende Größen handeln.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens wird vorgeschlagen, dass
das Kriterium zur Auswahl eines Teilflussfeldes die Erfüllung der Ungleichung:
FV > alpha * (SZ / SZMAX) * FVMAX voraussetzt und zusätzlich die Größe des Zeitintervalls, mit dem das Teilflussfeld berechnet wurde, berücksichtigt. Dieses Kriterium bewertet vornehmlich die Anzahl der Flussvektoren im Teilflussfeld im Vergleich zu der Anzahl in den anderen Teilflussfeldern ab. Die Ableitung dieser Formel erfolgt weiter unten in dieser Beschreibung. Die Größe des Zeitintervalls wird in der Weise
berücksichtigt, dass das Teilflussfeld, das mit dem größeren Zeitintervall berechnet wurde, aus der Vielfalt der Teilflussfelder bevorzugt wird.
Gemäß einer Ausgestaltung der Erfindung wird vorgeschlagen, dass die Berechnung der Vielzahl von optischen Flussfeldern aus einem Bildausschnitt der Bilder der Bilderpaare erfolgt, wobei der Bildausschnitt eine Teilfläche der jeweiligen Bilder darstellt.
So wird bei einer Anwendung des Verfahrens bei dem das Objekt z. B. ein Fahrzeug ist, das sich auf einem Untergrund vor der Einrichtung relativ zu der Einrichtung bewegt, in einer größeren Entfernung von der Einrichtung in einem anderen Bildausschnitt eines Bildes einer Bilderfolge dargestellt, als ein Objekt, welches sich in einem Nahbereich vor der Einrichtung befindet.
Dadurch wird ermöglicht, schon bei der Berechnung der optischen Flussfelder die zu beobachtende Szene auszuwählen und damit Berechnungsaufwand zu sparen, da die Berechnung des Flussfeld auf einer eingeschränkten Bildfläche erfolgt. Damit kann z. B. eine Abbildung des Himmels auf der Bilderfolge ausgeblendet werden oder wenn das zu schätzende Objekt im Nah- oder Fernbereich der Einrichtung erwartet wird kann der Bildausschnitt entsprechend gewählt werden.
Gemäß einer die Erfindung verbessernden Ausgestaltung wird vorgeschlagen, dass
die Berechnung der Vielzahl von optischen Flussfeldern für mindestens zwei unterscheidbare Bildausschnitte der Bilder der Bilderpaare und mit jeweils unterschiedlichen Zeitintervallen durchgeführt wird.
Diese Zuordnung von dem jeweiligen Bildausschnitt zu einem Zeitintervall für die Berechnung der Flussfelder ermöglicht für die entsprechenden Bildbereiche, in denen Objekte aus unterschiedlichen Entfernungen vor der Einrichtung abgebildet werden, die für diesen Bereich relevanten Zeitintervallen
heranzuziehen und damit den Berechnungsaufwand ohne Qualitätseinbußen zu verringern. Denn die kleineren Teilbildbereiche von entfernten Objekten erfordern längere Zeitintervalle für eine robuste Schätzung und im Nahbereich sind kurze Zeitintervalle für die entsprechende rechtzeitige Reaktion erforderlich. Somit wird also sowohl Rechenaufwand eingespart als auch angepasste Berechnungen durchgeführt.
Gemäß einer weiteren Ausgestaltung der Erfindung wird vorgeschlagen, dass die mindestens zwei unterscheidbaren Bildausschnitte in Bezug auf ihre Anordnung und Größe auf den Bildern der Bildpaare entsprechend perspektivischer Aspekte, für die Ortung von Objekten in unterschiedlicher Entfernung von der Einrichtung, angeordnet sind.
Der Teilbildbereich eines Bildes in dem entfernte Objekte vor der Einrichtung abgebildet werden ist deutlich kleiner als bei Objekten im Nahbereich vor der Einrichtung, sofern sich die Objekte auf einer im wesentlichen Ebenen Fläche vor der Einrichtung bewegen. Berücksichtigt man diese perspektivischen
Verhältnisse kann z. B. ein Bildausschnitt für entferntere Objekte kleiner und weiter in Richtung auf die obere Kante der Bilder der Bilderfolge gelegt werden, als ein Bildausschnitt für Objekte im Nahbereich der Einrichtung.
Gemäß einer Ausgestaltung der Erfindung wird vorgeschlagen, dass die mindestens zwei Bildausschnitte durch ihre flächenmäßige Ausdehnung unterscheidbar sind, der kleinere Bildausschnitt vollständig innerhalb des größeren Bildausschnittes angeordnet ist und das jeweils zugeordnete
Zeitintervall zur Berechnung der Flussfelder größer ist, je kleiner der
Bildausschnitt ist.
Mit dieser Ausgestaltung der Erfindung wird sowohl der Vorteil aus der perspektivischen Betrachtung als auch das für die Schätzung der
Skalenänderung günstige längere Zeitintervall kombiniert.
Gemäß einer Ausgestaltung der Erfindung wird vorgeschlagen, dass die
Berechnung einer Vielzahl von optischen Flussfeldern aus Bildausschnitten der Bilderpaare berechnet werden, wobei die Bildausschnitte und/oder die
Zuordnung der Bildausschnitte zu Zeitintervallen der Bilderpaare jeweils nach der Erfassung der jeweiligen Bilderfolge festgelegt werden.
Damit wird ermöglicht, dass im laufenden Verfahren z. B. aufgrund von
Informationen vom der Ortung von Objekten die zur Berechnung der Flussfelder herangezogenen Parameter wie z. B. die Lage, die Größe und das zugeordnete Zeitintervall angepasst werden kann.
Erfindungsgemäß wird außerdem ein Computerprogrammprodukt angegeben, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das oben beschriebene Verfahren auszuführen.
Erfindungsgemäß wird weiterhin ein Computerlesbares Speichermedium angegeben, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das oben beschriebene Verfahren auszuführen.
Die Erfindung gibt außerdem ein System zur Bestimmung einer Relativbewegung des Systems zu zumindest einem Objekt an. Dieses System weist eine
Vorrichtung zur Erfassung von digitalen Bilderfolgen von Objekten auf. Eine solche Vorrichtung zur Erfassung von digitalen Bilderfolgen kann z. B. eine digitale Kamera, eine digitale Videokamera sein. Weiterhin weist das System eine Auswerteeinheit auf, die so mit der Vorrichtung gekoppelt ist, dass die Bilderfolgen an die Auswerteeinheit übergeben werden. Dies kann z. B. mit einem Bussystem erfolgen, welches die Vorrichtung zur Erfassung von digitalen Bilderfolgen mit der Auswerteeinheit koppelt. Dabei ist die Auswerteeinheit eingerichtet, das oben beschriebene erfindungsgemäße Verfahren
durchzuführen und das Ergebnis des Verfahrens an einem Ausgang der Auswerteeinheit bereitzustellen.
Ausführungsbeispiele der Erfindung sind in den Figuren 1 und 2 dargestellt und werden im Folgenden näher erläutert. Es zeigt:
Figur 1 ein Flussdiagramm eines Verfahren zur Bestimmung einer
Relativbewegung einer Einrichtung zu zumindest einem Objekt;
Figur 2 System zur Bestimmung einer Relativbewegung einer Einrichtung zu zumindest einem Objekt.
In der Figur 1 werden in dem Flussdiagramm 10 die Verfahrensschritte zur Bestimmung einer Relativbewegung einer Einrichtung zu zumindest einem Objekt dargestellt. Für das Verfahren sind eine Folge von digitalen Bildern sowohl für die
Berechnung eines Flussfeldes {U(x,y,x)} S2 als auch für die Ortung eines Objektes S3 bereit gestellt Sl.
Im Schritt S2 des Ausführungsbeispiels des erfindungsgemäßen Verfahrens wird eine Vielzahl von optischen Flussfeldern {U(x,y,x)} berechnet. Dabei wird jedes Flussfeld {U(x,y,x)}, aus einer Menge von Flussvektoren U gebildet, die jeweils den Koordinaten x und y eines Bildes zugeordnet sind. Die Flussvektoren U werden aus Bilderpaaren der Folge von digitalen Bildern mit einem Zeitintervall x berechnet. Dabei werden die einzelnen Flussfelder {U(x,y,x} mit einer Vielzahl unterschiedlicher Zeitintervalle t: i. .h aus einem aktuellsten Bild und Bildern der Bilderfolge berechnet.
Der Schritt S7 ist eine optionale Ausgestaltung des Ausführungsbeispiels. Der Schritt S7 wird dem Schritt S2, der Berechnung einer Vielzahl von Flussfeldern, vorgelagert. Dabei wird der Berechnung der Vielfalt des optischen Flussfeldes in S2 nur ein Bildausschnitt der Bilder der Bilderpaare zugrunde gelegt, wobei der Bildausschnitt also eine Teilfläche der jeweiligen Bilder darstellt. In dem Schritt S7 wird also für die Vielzahl von Flussfeldberechnungen die Festlegung von einem kleinerer Bildausschnitt bereitgestellt, wie in Figur 1 im Schritt S7 skizziert ist.
Wie schon vorher dargestellt, kann damit ein Bereich, wie z. B. ein Himmel, aus einem Bild ausgeblendet werden, der für die Schätzung der Skalenänderung nicht relevant ist, wodurch der Rechenaufwand vermindert wird.
In einer weiteren alternativen Ausgestaltung der Erfindung wird im Schritt S7 für die Berechnung der Vielzahl von optischen Flussfeldern im Schritt S2 vorgegeben, dass zu unterscheidbaren Bildausschnitten der Bilder der
Bilderpaare jeweils unterschiedliche Zeitintervallen vorgegeben werden.
Diese Berechnung der Vielfalt von Flussfeldern S2 kann mit einer beliebigen Anzahl von Bildausschnitten und zugehörigen Zeitintervallen erfolgen. Wie schon vorher dargestellt wird damit ermöglicht, dass Objekte mit ihrem Teilbildbereich, die aus perspektivischen Gründen in der Ferne kleiner dargestellt werden, über einen kleineren Bildausschnitt schon bei der Flussfeldberechnung vollständig erfasst werden. Somit wird der Rechenaufwand für die Berechnung der
Flussfelder verringert und, durch die mögliche Zuordnung von längeren Zeitintervallen für fernere Objekte, die Genauigkeit der Schätzung der
Skalenänderung verbessert. Im Nahbereich, in dem ein Teilbildbereich des Objektes größer dargestellt wird, kann dann für die Verbesserung der
Reaktionszeit das Zeitintervall kleiner gewählt werden.
Sofern die Bildausschnitte so angeordnet sind, dass der Teilbildbereich, der mit dem georteten Objekt verbunden ist, mehrere Bildausschnitte überdeckt, kann auch die Schätzung aus einem Bildausschnitt mit der Schätzung aus einem anderen Bildausschnitt verglichen werden.
In einer typischen Anwendung in einem Kraftfahrzeug können z. B. drei
Bildausschnitte unterschiedlicher Größe zentriert und ineinander geschachtelt angeordnet sein und dabei dem kleinsten Bildausschnitt das längste Zeitintervall zugeordnet werden, dem größten das kleinste Zeitintervall und dem mittleren Bildausschnitt ein Zeitintervall zugeordnet werden, dass zwischen den beiden anderen Zeitintervallen liegt.
So ermöglicht das erfindungsgemäße Verfahren sowohl für Objekte im Nah- als auch im Fernbereich eine robuste und genaue Schätzung der Skalenänderung, die auch anderen Gegebenheiten angepasst werden kann.
Im Schritt S3 wird zumindest ein Objekt in einem Teilbildbereich eines Bildes der Folge von Bildern geortet und das jeweilige Objekt wird einem Teilbereich zugeordnet. Das Ergebnis der Ortung S3 ist ein Teilbildbereich eines Bildes der Folge von Bildern, in dem das Objekt geortet wurde und dem es zugeordnet wurde.
Im Schritt S4 resultiert jeweils ein Teilflussfeld aus einer Schnittmenge eines berechneten Flussfeldes {U(x,y,x)} mit dem mindestens einen Teilbildbereich, woraus mit der Vielzahl der berechneten Flussfelder {U(x,y,x)} eine Vielzahl von Teilflussfeldern gebildet werden. Dabei ist jedes Teilflussfeld mit dem für die Bestimmung dieses Flussfeldes {U(x,y,x)} verwendeten Zeitintervall
charakterisiert.
Im Schritt S5 wird aus dieser Vielzahl von Teilflussfeldern ein Teilflussfeld entsprechend einem Kriterium ausgewählt, wobei durch die Auswahl nach einem geeigneten Kriterium die Schätzung einer Skalenänderung des Objektes gefördert wird. Die Kriterien für diese Selektion mindestens eines geeignetes Teilflussfeldes aus der Vielzahl von Teilflussfeldern basieren zum einen aus notwendigen
Bedingungen, um aus einem Teilflussfeld eine Skalenänderung zu schätzen, zum anderen aus Qualitätsbetrachtungen für die Möglichkeit einer robusten und genauen Schätzung der Skalenänderung.
Eine notwendige Bedingung für eine Skalenschätzung mittels eines
Teilflussfeldes ist eine Mindestgröße der Schnittmenge zwischen dem
berechneten Flussfeld {U(x,y,x)} und dem Teilbildbereich in dem das Objekt, wie z. B. ein Kraftfahrzeug, geortet wurde. D. h. die Schnittmenge zwischen dem Teilbildbereich und dem Bildausschnitt muss eine, z. B. empirisch bestimmte, Mindestgröße für eine robuste Schätzung der Skalenänderung aufweisen. Bei dieser empirischen Bestimmung kann auch ein Kompromiss zwischen Robustheit der Schätzung und der aufzuwendenden Rechenzeit Berücksichtigung finden.
Außerdem ist für die Schätzung einer Skalenänderung notwendig, dass diese Schnittmenge zwischen dem berechneten Flussfeld {U(x,y,x} und dem
Teilbildbereich eine für die Schätzung der Skalenänderung ausreichende Anzahl von Flussvektoren aufweist, mittels derer die Schätzung der Skalenänderung erfolgt. Bei der Bestimmung einer ausreichenden Anzahl an Flussvektoren können auch Qualitätskriterien, wie das Signal- Rausch- Verhältnis oder
Qualitätsfaktoren aus der Flussvektorberechnung, herangezogen werden.
Die Qualitätskriterien für die Auswahl eines Teilflussfeldes können sich auf die Flussvektoren der Teilflussfelder, auf Merkmale der Objektdetektion im
Teilbildbereich und auf Merkmale im Bildausschnitt beziehen.
Das Qualitätsmaß zur Auswahl eines Teilflussfeldes bezieht sich insbesondere auf die
Anzahl der Flussvektoren im betrachteten Teilflussfeld, bzw. wie dicht das Teilflussfeld mit Flussvektoren besetzt ist, und die Qualitätsgröße der
Flussvektoren, sofern es vom der Berechnungsalgorithmus der Flussvektoren ermittelt und zur Verfügung gestellt wird. Die Bereitstellung der Qualitätsgröße der Flussvektoren kann über einen optionale Datenaustausch VI zwischen der Berechnung der Vielfalt der Flussfelder im Schritt S2 und der Auswahl im Schritt S5 erfolgen. Weiterhin können sich Qualitätskriterien auf Merkmale des Teilbildbereiches beziehen, die aus der Ortung des mindestens einen Objektes resultieren.
Darunter fallen die Detektionsgüte oder Sicherheit bzw. Wahrscheinlichkeit der Ortung.
Für die Berücksichtigung von Qualitätskriterien aus der Objektdetektion, bei der Auswahl im Schritt S5, kann ein optionaler Datenaustausch V2 zwischen der Objektdetektion im Schritt S3 und der Auswahl von Teilflussfeldern im Schritt S5 erfolgen.
Merkmale aus dem Bereich der Überdeckung zwischen dem Teilbildbereich und dem berechneten Flussfeld, wie z.B. Kontrast, Grauwertverteilung, Gradienten, die Anwesenheit von spezifischen Merkmalen oder auch Eigenschaften, die aus einem jHistogramm of oriented gradients HOG resultieren, d. h. einer Betrachtung der Verteilung lokaler Intensitäten oder der Anordnung von Kanten, können optional in die Qualitätsbetrachtung mit einbezogen werden.
Darüber hinaus können neben dieser einfachen Heuristik auch komplexere Verfahren wie automatisierte oder gelernte Klassifikatoren, die z. B. aus dem „machine learning“ (z.B. decision trees) oder„deep learning“ z. B.„offline“ ermittelt werden, zur Auswahl des geeignetsten Teilflussfeldes herangezogen werden.
Abhängig von der Anwendung des erfindungsgemäßen Verfahrens und dem zur Verfügung stehenden Rechenbudget, können einzelne dieser Kriterien oder auch alle Kriterien zur Auswahl des geeignetsten Teilflussfeldes angewendet werden.
Im Folgenden ist ein Beispiel für eine Auswahl mindestens eines Teilflussfeldes, zur Schätzung einer Skalenänderung des Objektes aus der Vielfalt der
Teilflussfelder und die verwendeten Kriterien dargestellt.
Jedes Teilflussfeld, für das das Verhältnis der Überdeckungsfläche SZ der Schnittmenge aus Teilbildbereich und Bildausschnitt zur Gesamtfläche des Teilbildbereiches über einem gewissen Schwellwert von z.B. 0,75 beträgt oder für das die
Überdeckungsfläche SZ, d. h. der Schnittmenge aus Teilbildbereich und dem berechneten Flussfeld, über einer gewissen Mindestgröße liegt, wird für den Auswahlprozess berücksichtigt. Für die so ausgewählten Teilflussfelder wird dann die Anzahl der
Flussvektoren FV aus der Überdeckungsfläche SZ bestimmt. Darüber hinaus wird auch über alle berücksichtigten Teilflussfelder noch die maximale
Überdeckungsfläche SZMAX und die maximale Anzahl der Flussvektoren FVMAX in einer jeweiligen Überdeckungsfläche SZ eines der ausgewählten Teilflussfelder bestimmt.
Dann wird das Teilflussfeld mit dem größten Zeitintervall zwischen den, der Berechnung zu Grunde gelegten, Bilderpaaren gewählt, das die folgende Bedingung erfüllt:
FV > alpha * (SZ / SZMAX) * FVMAX wobei alpha ein zu wählender Gewichtungsfaktor ist, der z.B. empirisch bestimmt werden kann.
Es wird also verglichen, ob die Anzahl der in dem betrachteten Teilflussfeld enthaltenen Flussvektoren größer ist als das Produkt aus dem Verhältnis von Überdeckungsfläche SZ zur maximaler Überdeckungsfläche SZMAX und der Maximalanzahl von Flussvektoren in einer der Teilflussfelder multipliziert mit alpha.
Sind mehrere Objekte identifiziert worden, wird für jede Überdeckungsfläche separat das geeignetste Flussfeld ausgewählt.
Im Schritt S6 erfolgt nach der Auswahl des geeignetsten Teilflussbereichs die Schätzung der Skalenänderung. Zur Schätzung von Skalenänderungen S6 werden Paare von Flussvektoren aus der Überdeckungsfläche gebildet, um bei Bewegung von Objekten entlang der optischen Achse des
Bilderfassungssystems, Relativbewegungen quantifizieren zu können.
Typischerweise wird bei einer Skalenänderung ein Pixel in einem Bild auf mehrere Pixel in einem anderen Bild abgebildet und umgekehrt.
Aus solchen Skalierungsänderungen kann, als ein kennzeichnender Parameter für die Relativbewegung, dann in einem weiteren Schritt z. B. eine Kollisionszeit TTC (Time-to-collision oder time-to-contact) vor allem zwischen Fahrzeugen abgeleitet werden. Das dargestellte Verfahren kann mittels eines Computerprogrammprodukt realisiert werden, welches die Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, dieses Verfahren mit all seinen optionalen Ausprägungen auszuführen. Dieses
Computerprogrammprodukt kann auch auf einem computerlesbaren
Speichermedium gespeichert werden.
Die Figur 2 zeigt ein System 20 zur Bestimmung einer Relativbewegung dieses Systems 20 zu zumindest einem Objekt. Dieses System weist eine Vorrichtung zur Erfassung von digitalen Bilderfolgen 1 von z. B. Objekten auf.
Eine solche Vorrichtung zur Erfassung von digitalen Bilderfolgen kann z. B. eine digitale Kamera oder eine digitale Videokamera sein. Weiterhin weist das System 20 eine Auswerteeinheit 2 auf, die so mit der Vorrichtung 1 gekoppelt ist, dass die Bilderfolgen an die Auswerteeinheit 2 übergeben werden. Dies kann z. B. mit einem Bussystem la erfolgen, welches die Vorrichtung zur Erfassung von digitalen Bilderfolgen 1 mit der Auswerteeinheit 2 koppelt. Dabei ist die
Auswerteeinheit 2 eingerichtet, das oben beschriebene erfindungsgemäße Verfahren durchzuführen und das Ergebnis des Verfahrens an einem Ausgang 3 der Auswerteeinheit bereitzustellen.

Claims

Ansprüche
1. Verfahren zur Bestimmung einer Relativbewegung einer Einrichtung (10) zu zumindest einem Objekt, basierend auf einer, vom Ort der Einrichtung erfassten, digitalen Bilderfolge des Objektes, wobei das Verfahren die folgenden Schritte umfasst:
- Berechnung einer Vielzahl von optischen Flussfeldern (S2) aus
Bilderpaaren der digitalen Bilderfolge (Sl), wobei die Bilderpaare aus einem aktuellsten Bild und Bildern der Bilderfolge mit unterschiedlichen Zeitintervallen zu diesem aktuellsten Bild gebildet werden;
- Orten mindestens eines Objektes (S3) in einem Teilbildbereich im jeweils aktuellsten Bild und Zuordnen dieses Teilbildbereiches zu dem Objekt;
- Bilden einer Vielzahl von optischen Teilflussfeldern aus der Vielzahl der optischen Flussfelder (S4), wobei ein jeweiliges Teilflussfeld aus einer
Schnittmenge eines der Flussfelder der Vielzahl von Flussfeldern mit dem Teilbildbereich des aktuellsten Bildes der Bilderfolge resultiert;
- Auswahl mindestens eines der Teilflussfelder (S5) aus der Vielzahl der Teilflussfelder entsprechend mindestens einem Kriterium, um die Schätzung einer Skalenänderung des Objektes zu fördern; und
- Schätzung der Skalenänderung für das mindestens eine Objekt (S6) mittels des zugeordneten Teilbildbereiches basierend auf dem mindestens einen ausgewählten Teilflussfeld.
2. Verfahren (10) nach Anspruch 1, dadurch gekennzeichnet, dass das Kriterium zur Auswahl eines Teilflussfeldes (S5) der Grad der Überdeckung des Teilbildbereiches mit dem berechneten Flussfeld und/oder eine absolute Größe der Schnittmenge des Teilbildbereiches mit dem berechneten Flussfeld berücksichtigt.
3. Verfahren (10) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Kriterium zur Auswahl eines Teilflussfeldes (S5) eine Größe eines Signal-Rausch-Verhältnis von Flussvektoren des Teilflussfeldes und/oder ein Qualitätsmaß aus der Berechnung der Flussvektoren und/oder die Anzahl der Flussvektoren im Teilflussfeld und/oder die Länge der Flussvektoren des Teilflussfeldes berücksichtigt.
4. Verfahren (10) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Kriterium zur Auswahl eines Teilflussfeldes (S5) eine Detektionsgüte der Ortung des Objektes im Teilbildbereich des Bildes der Bilderfolge (S3) und/oder Charakteristika der Bildbereiche in der Schnittmenge von Teilbildbereich und dem berechneten Flussfeld, berücksichtigt.
5. Verfahren (10) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Kriterium zur Auswahl eines Teilflussfeldes (S5) die Erfüllung der Ungleichung:
FV > alpha * (SZ / SZMAX) * FVMAX voraussetzt und zusätzlich die Größe des Zeitintervalls, mit dem das Teilflussfeld berechnet wurde, berücksichtigt.
6. Verfahren (10) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Berechnung der Vielzahl von optischen Flussfeldern (S2) aus einem Bildausschnitt der Bilder der Bilderpaare erfolgt, wobei der Bildausschnitt eine Teilfläche der jeweiligen Bilder darstellt.
7. Verfahren (10) nach einem der Ansprüche 1 bis 5, dadurch
gekennzeichnet, dass die Berechnung der Vielzahl von optischen Flussfeldern (S2), für mindestens zwei unterscheidbare Bildausschnitte der Bilder der
Bilderpaare und mit jeweils unterschiedlichen Zeitintervallen durchgeführt wird.
8. Verfahren (10) nach Anspruch 7, dadurch gekennzeichnet, dass die mindestens zwei unterscheidbaren Bildausschnitte in Bezug auf ihre Anordnung und Größe auf den Bildern der Bildpaare entsprechend perspektivischer Aspekte, für die Ortung von Objekten in unterschiedlicher Entfernung von der Einrichtung, angeordnet sind.
9. Verfahren (10) nach Anspruch 7, dadurch gekennzeichnet, dass die mindestens zwei Bildausschnitte durch ihre flächenmäßige Ausdehnung unterscheidbar sind, der kleinere Bildausschnitt vollständig innerhalb des größeren Bildausschnites angeordnet ist und das jeweils zugeordnete
Zeitintervall zur Berechnung der Flussfelder größer ist, je kleiner der
Bildausschnit ist.
10. Verfahren (10) nach Anspruch 7 bis 9, dadurch gekennzeichnet, dass die Berechnung einer Vielzahl von optischen Flussfeldern (S2) aus
Bildausschniten der Bilderpaare berechnet werden, wobei die Bildausschnite und/oder die Zuordnung der Bildausschnite zu Zeitintervallen der Bilderpaare jeweils nach der Erfassung der jeweiligen Bilderfolge festgelegt werden.
11. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren (10) nach einem der Ansprüche 1 bis 10 auszuführen.
12. Computerlesbares Speichermedium, umfassend Befehle, die bei der
Ausführung durch einen Computer diesen veranlassen, das Verfahren (10) nach einem der Ansprüche 1 bis 10 auszuführen.
13. System (20) zur Bestimmung einer Relativbewegung des Systems zu zumindest einem Objekt, dadurch gekennzeichnet, dass das System eine
Vorrichtung zur Erfassung von digitalen Bilderfolgen (1) des zumindest einen Objektes und eine Auswerteeinheit (2) aufweist, die so mit der Vorrichtung (1) gekoppelt ist, dass die Bilderfolgen an die Auswerteeinheit (2) übergeben werden, und die Auswerteeinheit (2) eingerichtet ist das Verfahren (10) gemäß Anspruch 1 bis 10 durchzuführen und das Ergebnis des Verfahrens an einem
Ausgang der Auswerteeinheit (3) bereitzustellen.
PCT/EP2019/079550 2018-12-13 2019-10-29 Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge WO2020119997A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217021389A KR20210102343A (ko) 2018-12-13 2019-10-29 디지털 이미지 시퀀스를 이용하여 상대 운동을 결정하기 위한 방법
US17/278,006 US11989889B2 (en) 2018-12-13 2019-10-29 Method for determining a relative movement using a digital image sequence
CN201980082459.1A CN113168703A (zh) 2018-12-13 2019-10-29 用于借助数字图像序列来确定相对运动的方法
JP2021533439A JP7337165B2 (ja) 2018-12-13 2019-10-29 デジタル画像シーケンスを用いた相対運動の決定方法
EP19797642.6A EP3895123A1 (de) 2018-12-13 2019-10-29 Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018221617.7 2018-12-13
DE102018221617.7A DE102018221617A1 (de) 2018-12-13 2018-12-13 Verfahren zur Bestimmung einer Relativbewegung mittels einer digitalen Bilderfolge

Publications (1)

Publication Number Publication Date
WO2020119997A1 true WO2020119997A1 (de) 2020-06-18

Family

ID=68426443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/079550 WO2020119997A1 (de) 2018-12-13 2019-10-29 Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge

Country Status (7)

Country Link
US (1) US11989889B2 (de)
EP (1) EP3895123A1 (de)
JP (1) JP7337165B2 (de)
KR (1) KR20210102343A (de)
CN (1) CN113168703A (de)
DE (1) DE102018221617A1 (de)
WO (1) WO2020119997A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019655A1 (en) * 2009-04-15 2012-01-26 Toyota Jidosha Kabushiki Kaisha Object detection device
DE102011006629A1 (de) 2011-04-01 2012-10-04 Robert Bosch Gmbh Verfahren zur Bestimmung der Kollisionszeit eines mit einem Videosystem ausgerüsteten Fahrzeuges und Fahrzeugführungssystem
US20120314071A1 (en) * 2011-04-27 2012-12-13 Mobileye Technologies Ltd. Pedestrian collision warning system
US20170203744A1 (en) * 2014-05-22 2017-07-20 Mobileye Vision Technologies Ltd. Systems and methods for braking a vehicle based on a detected object

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4269781B2 (ja) * 2003-05-27 2009-05-27 日本電気株式会社 オプティカルフロー検出システム、検出方法および検出プログラム
JP4919036B2 (ja) * 2007-01-30 2012-04-18 アイシン精機株式会社 移動物体認識装置
JP5012718B2 (ja) * 2008-08-01 2012-08-29 トヨタ自動車株式会社 画像処理装置
JP5338566B2 (ja) * 2009-08-25 2013-11-13 富士通株式会社 車両検出装置、車両検出プログラム、および車両検出方法
US9008363B1 (en) * 2013-01-02 2015-04-14 Google Inc. System and method for computing optical flow

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019655A1 (en) * 2009-04-15 2012-01-26 Toyota Jidosha Kabushiki Kaisha Object detection device
DE102011006629A1 (de) 2011-04-01 2012-10-04 Robert Bosch Gmbh Verfahren zur Bestimmung der Kollisionszeit eines mit einem Videosystem ausgerüsteten Fahrzeuges und Fahrzeugführungssystem
US20120314071A1 (en) * 2011-04-27 2012-12-13 Mobileye Technologies Ltd. Pedestrian collision warning system
US20170203744A1 (en) * 2014-05-22 2017-07-20 Mobileye Vision Technologies Ltd. Systems and methods for braking a vehicle based on a detected object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEI CHEN ET AL: "Real-Time Optical Flow Estimation Using Multiple Frame-Straddling Intervals", JOURNAL OF ROBOTICS AND MECHATRONICS, vol. 24, no. 4, 20 August 2012 (2012-08-20), JP, pages 686 - 698, XP055648203, ISSN: 0915-3942, DOI: 10.20965/jrm.2012.p0686 *

Also Published As

Publication number Publication date
JP7337165B2 (ja) 2023-09-01
EP3895123A1 (de) 2021-10-20
JP2022515046A (ja) 2022-02-17
US20210350548A1 (en) 2021-11-11
CN113168703A (zh) 2021-07-23
KR20210102343A (ko) 2021-08-19
US11989889B2 (en) 2024-05-21
DE102018221617A1 (de) 2020-06-18

Similar Documents

Publication Publication Date Title
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE112009001727B4 (de) Bildverarbeitungsvorrichtung zum Berechnen eines optischen Flusses
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE102006057552A1 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE102014206704A1 (de) Aktualisierung der kalibrierung einer verkehrskamera unter verwendung einer szenenanalyse
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
WO2013178407A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3931798B1 (de) Schätzung der bewegung einer bildposition
DE102022102934A1 (de) Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung
WO2018054521A1 (de) Verfahren zur selbstlokalisierung eines fahrzeugs
DE112021004200T5 (de) Objekterkennungsvorrichtung
DE102013214496A1 (de) Vorrichtung zum bestimmen eines zur verfügung stehenden parkraumes und verfahren derselben
EP2037407B1 (de) Verfahren zur Objekterfassung
WO2020119997A1 (de) Verfahren zur bestimmung einer relativbewegung mittels einer digitalen bilderfolge
DE102007027958A1 (de) Verfahren zur Optimierung eines stereoskopischen Bildes
DE102018127738B4 (de) Kamerablockadeerfassung für autonome Fahrsysteme
DE102015118941B4 (de) Probabilistisches Verfolgungsverfahren für Partikel in einem Fluid
DE102010044112B4 (de) Fluchtpunktbestimmungsvorrichtung und Fluchtpunktbestimmungsprogramm
DE102020208080A1 (de) Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße
DE102019126431A1 (de) Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs
DE102018207411A1 (de) Verfahren zur Ermittlung von Messinformationen in einem optischen Koordinatenmessgerät

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19797642

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021533439

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20217021389

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2019797642

Country of ref document: EP

Effective date: 20210713