WO2021239323A1 - Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung - Google Patents

Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung Download PDF

Info

Publication number
WO2021239323A1
WO2021239323A1 PCT/EP2021/059799 EP2021059799W WO2021239323A1 WO 2021239323 A1 WO2021239323 A1 WO 2021239323A1 EP 2021059799 W EP2021059799 W EP 2021059799W WO 2021239323 A1 WO2021239323 A1 WO 2021239323A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical sensor
image
movement
lighting device
motion field
Prior art date
Application number
PCT/EP2021/059799
Other languages
English (en)
French (fr)
Inventor
Fridtjof Stein
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Priority to US17/928,237 priority Critical patent/US20230222640A1/en
Priority to CN202180038741.7A priority patent/CN115803773A/zh
Publication of WO2021239323A1 publication Critical patent/WO2021239323A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the invention relates to a method for recognizing image artifacts, a control device for carrying out such a method, a recognition device with such a control device and a motor vehicle with such a recognition device.
  • the invention is therefore based on the object of creating a method for recognizing image artifacts, a control device for carrying out such a method, a recognition device with such a control device and a motor vehicle with such a recognition device, the disadvantages mentioned being at least partially eliminated, preferably avoided .
  • the object is achieved in particular by creating a method for recognizing image artifacts in a chronological sequence of recordings, recorded by means of an illumination device and an optical sensor.
  • the lighting device and the optical sensor are moved with their own movement.
  • the lighting device and the optical sensor are temporal controlled in a coordinated manner, and at least two successive recordings are recorded with the optical sensor by means of the timed activation.
  • a motion field with motion field vectors is calculated from the at least two successive recordings. All motion field vectors that are to be expected due to the proper movement of the lighting device and the optical sensor are then removed from the motion field, whereby a differential motion field is obtained.
  • the movement field vectors are combined to form objects on the image side according to at least one grouping criterion.
  • the objects on the image side are subjected to a movement plausibility test. On the basis of the movement plausibility check, the objects on the image side are classified as plausible or implausible. Finally, an image-side object classified as implausible is recognized as an image artifact.
  • the method can be used particularly advantageously in automatically driving vehicles, in particular automatically driving trucks.
  • the method enables image information to be recognized that is not images of real objects but, for example, reflections. In this way, in particular, an unnecessary reaction of the vehicle can be prevented.
  • the method for generating recordings by means of a time-coordinated control of the lighting device and optical sensor is in particular a method known as the gated imaging method;
  • the optical sensor is a camera that is only switched to be sensitive in a specific, restricted time range, which is referred to as “gated control”, ie the camera is a gated camera.
  • the lighting device is also only actuated in a specific, selected time interval in order to illuminate a scene on the object side.
  • the lighting device emits a predefined number of light pulses, preferably with a duration between 5 ns and 20 ns.
  • the beginning and the end of the exposure of the optical sensor are determined by the number and Duration of the emitted light pulses coupled.
  • a certain visible distance range can be detected by the optical sensor through the temporal control of the lighting device on the one hand and the optical sensor on the other hand with a correspondingly defined local position, i.e. in particular a certain distance between the start of the distance range from the optical sensor and a certain distance range width .
  • the visible distance range is that - object-side - area in three-dimensional space, which is determined by the number and duration of the light pulses of the lighting device in connection with the start and end of the exposure of the optical sensor by means of the optical sensor in a two-dimensional image on an image plane of the optical Sensor is mapped.
  • the observation area is in particular the - object-side - area in three-dimensional space which, with sufficient lighting and exposure of the optical sensor by means of the optical sensor, could be mapped as a whole - in particular maximally - in a two-dimensional image.
  • the observation area corresponds to the entire exposable image area of the optical sensor that could theoretically be illuminated.
  • the visible distance range is thus a subset of the observation range in real space.
  • object-side an area in real space, that is to say on the side of the object to be observed, is addressed.
  • image-side an area on the image plane of the optical sensor is addressed. The observation area and the visible distance area are given on the object side. Due to the imaging laws and the timing of the lighting device and the optical sensor, associated image-side areas on the image plane correspond to them.
  • the method it is therefore possible, in particular, to define the position and spatial width of the visible distance range by a suitable selection of the timing of the lighting device on the one hand and the optical sensor on the other.
  • the visible distance range can be specified, the timing of the lighting device on the one hand and the optical sensor on the other hand being determined from this and being specified accordingly.
  • the lighting device is a laser.
  • the optical sensor is a camera.
  • a movement field of a sequence of at least two recordings represents the image-side movement of individual image points of the recordings as vectors.
  • the movement field of a sequence of recordings is an easy-to-implement method for visualizing movements in a sequence of recordings.
  • the proper movement of the lighting device and the optical sensor is represented by means of expected movement field vectors.
  • the first motion field vector and the respectively associated second motion field vector are checked for similarity.
  • two vectors are similar if the angle enclosed by the two vectors is below a predefined first threshold value.
  • the difference movement field then contains all first movement field vectors which are not similar to the respective associated second movement field vector.
  • the individual movement field vectors from the difference movement field are combined to form objects on the image side.
  • the movement plausibility test preferably analyzes the physical properties, such as size, change in size, speed,
  • an object has a contradicting combination of at least two of these properties, the object is classified as implausible. For example, the combination of moving the image-side up and getting bigger is contradicting itself, and an image-side object which behaves in this way is classified as implausible.
  • the at least one grouping criterion is selected from a group consisting of a spatial neighborhood and a vector similarity.
  • the grouping of the motion field vectors takes place by means of the spatial proximity and the vector similarity as grouping criteria.
  • the spatial proximity ensures that only motion field vectors are combined to form objects on the image side that are at most a certain predefined distance from one another.
  • the vector similarity ensures that only motion field vectors are combined which include at most a small angle, in particular less than a second threshold value, or whose direction has only a small variation, in particular less than a third threshold value.
  • the corresponding threshold values for the distance between the motion field vectors and for the angle between the motion field vectors are predefined and can vary as a function of the sequence of the recordings.
  • the movement plausibility check is carried out by means of a neural network.
  • the recognized image artifacts are verified by means of a LIDAR system.
  • the distance and speed measurement of a LIDAR system is advantageously used to detect objects in the observation area of the optical sensor. This enables simple verification of whether an image artifact can be seen in the recordings.
  • the recognized image artifacts are verified by means of a radar system.
  • the distance and speed measurement of a radar system is advantageously used to detect objects in the observation area of the optical sensor. This enables simple verification of whether an image artifact can be seen in the recordings.
  • the recognized image artifacts are verified by means of an additional optical sensor.
  • the optical sensor and the second optical sensor advantageously differ with regard to the wavelength range of the light of the exposure. This enables simple verification of whether an image artifact can be seen in the recordings.
  • control device which is set up to carry out a method according to the invention or a method according to one of the embodiments described above.
  • the control device is preferably designed as a computing device, particularly preferably as a computer, or as a control device, in particular as a control device of a vehicle.
  • a computing device particularly preferably as a computer
  • control device in particular as a control device of a vehicle.
  • the control device is preferably operatively connected, on the one hand, to the lighting device and, on the other hand, to the optical sensor, and is set up to control them.
  • the object is also achieved by creating a detection device which has a lighting device, an optical sensor, and a control device according to the invention or a control device according to one of the exemplary embodiments described above.
  • a detection device which has a lighting device, an optical sensor, and a control device according to the invention or a control device according to one of the exemplary embodiments described above.
  • the object is finally also achieved by creating a motor vehicle with a detection device according to the invention or a detection device according to one of the exemplary embodiments described above.
  • a detection device according to the invention or a detection device according to one of the exemplary embodiments described above.
  • the motor vehicle is designed as a truck.
  • the motor vehicle it is also possible for the motor vehicle to be a passenger car, a utility vehicle, or another motor vehicle.
  • Fig. 1 is a schematic representation of an embodiment of a
  • Fig. 2 is a schematic representation of a recording in the context of a
  • Embodiment of the method is included with an optical sensor.
  • FIG. 1 shows a schematic representation of an exemplary embodiment of a motor vehicle 1, with an exemplary embodiment of a detection device 3.
  • the detection device 3 has an illumination device 5 and an optical sensor 7.
  • the detection device 3 has a control device 9, which is only shown schematically here and is operatively connected in a manner not explicitly shown to the lighting device 5 and the optical sensor 7 for their respective control.
  • FIG. 1 shows a lighting frustum 11 of the lighting device 5 and an observation area 13 of the optical sensor 7.
  • a visible distance area 15, which results as a subset of the observation area 13 of the optical sensor 7, is also shown hatched.
  • An object 17 is arranged in the visible distance area 15.
  • a beginning 19 and an end 21 of the visible spacing region 15 are also shown in FIG.
  • the control device 9 is set up in particular to carry out an embodiment of a method for recognizing image artifacts, which is described in more detail below.
  • the lighting device 5 and the optical sensor 7 are controlled in a timed manner, with a visible distance area 15 in the observation area 13 from the timing of the control of the lighting device 5 and the optical sensor 7.
  • a chronological sequence of recordings of the visible distance region 15 is recorded with the optical sensor 7 using the coordinated control.
  • FIG. 2 shows a schematic representation of a recording 23 of such a time sequence of recordings in an image plane of the optical sensor 7. In FIG Arrows shown. For the sake of clarity, only one arrow is provided with a reference number.
  • the movement field vectors 25 of the road 26 correspond to an expected movement field which is produced by the proper movement of the lighting device 5 and the optical sensor 7.
  • the first image-side object 17 ′ is the image of the object-side object 17.
  • the second image-side object 27 is shown as a reflection of the object-side object 17.
  • the movement field vectors 25 of the first image-side object 17 ' are similar - in terms of direction and length - to the movement field vectors 25 of the road 26.
  • the movement field vectors 25 of the first image-side object 17' thus correspond to the expected movement field.
  • the movement field vectors 25 of the second object 27 on the image side differ significantly in direction and length from the movement field vectors 25 of the road 26 and thus also from the expected movement field.
  • a difference movement field consists of the movement field vectors 25 of the second image-side object 27.
  • the movement field vectors 25 in the difference movement field are preferably combined with the second image-side object 27 and its movement by means of spatial proximity and vector similarity to the second image-side object 27.
  • the movement field vectors 25 of the second object 27 on the image side represent an upward movement and an object enlargement, which is not shown in FIG. 2.
  • a movement plausibility test classifies this behavior - upward movement and enlargement - as implausible.
  • the second object 27 on the image side is then recognized as an image artifact.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein zur Erkennung von Bildartefakten bei einer zeitlichen Abfolge von Aufnahmen (23) aufgenommen mittels einer Beleuchtungseinrichtung (5) und einem optischen Sensor (7), wobei - die Beleuchtungseinrichtung (5) und der optische Sensor (7) mit einer Eigenbewegung verlagert werden, wobei - eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei - mindestens zwei aufeinanderfolgende Aufnahmen (23) mit dem optischen Sensor (7) mittels der zeitlich abgestimmten Ansteuerung aufgenommen werden, wobei - ein Bewegungsfeld mit Bewegungsfeld-Vektoren (25) der mindestens zwei aufeinander folgenden Aufnahmen (23) berechnet wird, wobei - aus dem Bewegungsfeld alle aufgrund der Eigenbewegung erwartbaren Bewegungsfeld-Vektoren (25) entfernt werden, wodurch ein Differenz-Bewegungsfeld erhalten wird, wobei - die Bewegungsfeld-Vektoren (25) in dem Differenz-Bewegungsfeld nach mindestens einem Gruppierungskriterium zu bildseitigen Objekten (27) zusammengefasst werden, wobei - die bildseitigen Objekte (27) einer Bewegungsplausibilitäts-Prüfung unterzogen werden, anhand der die bildseitigen Objekte (27) als plausibel oder als nicht plausibel klassifiziert werden, und wobei ein als nicht plausibel klassifiziertes bildseitiges Objekt (27) als Bildartefakt erkannt wird.

Description

Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
Die Erfindung betrifft ein Verfahren zur Erkennung von Bildartefakten, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Erkennungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Erkennungsvorrichtung.
Aus der internationalen Patentanmeldung mit der Veröffentlichungsnummer WO 2017/009848 A1 geht ein Verfahren hervor, bei dem eine Beleuchtungseinrichtung und ein optischer Sensor zeitlich aufeinander abgestimmt angesteuert werden, um einen bestimmten sichtbaren Abstandsbereich in einem Beobachtungsbereich des optischen Sensors aufzunehmen. Das Vorkommen von Bildartefakten und/ oder die Erkennung von Artefakten in den Aufnahmen des optischen Sensors werden darin allerdings nicht diskutiert.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Erkennung von Bildartefakten, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Erkennungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Erkennungsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zur Erkennung von Bildartefakten bei einer zeitlichen Abfolge von Aufnahmen, aufgenommen mittels einer Beleuchtungseinrichtung und einem optischen Sensor, geschaffen wird. Die Beleuchtungseinrichtung und der optische Sensor werden mit einer Eigenbewegung verlagert. Dabei werden die Beleuchtungseinrichtung und der optische Sensor zeitlich aufeinander abgestimmt angesteuert, und mindestens zwei aufeinanderfolgende Aufnahmen werden mit dem optischen Sensor mittels der zeitlich abgestimmten Ansteuerung aufgenommen. Von den mindestens zwei aufeinanderfolgenden Aufnahmen wird ein Bewegungsfeld mit Bewegungsfeld-Vektoren berechnet. Aus dem Bewegungsfeld werden dann alle Bewegungsfeld-Vektoren, die aufgrund der Eigenbewegung der Beleuchtungseinrichtung und des optischen Sensors zu erwarten sind, entfernt, wodurch ein Differenz-Bewegungsfeld erhalten wird. In dem Differenz- Bewegungsfeld werden die Bewegungsfeld-Vektoren nach mindestens einem Gruppierungskriterium zu bildseitigen Objekten zusammengefasst. Die bildseitigen Objekte werden einer Bewegungsplausibilitäts-Prüfung unterzogen. Anhand der Bewegungsplausibilitäts-Prüfung werden die bildseitigen Objekte als plausibel oder als nicht plausibel klassifiziert. Abschließend wir ein als nicht plausibel klassifiziertes bildseitiges Objekt als Bildartefakt erkannt.
Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, Bildartefakte zu erkennen, insbesondere Spiegelungen von retroreflektiven und/ oder photolumineszierenden Objekten an der Linse des optischen Sensors. Die Erkennung verhindert Fehleinschätzungen und Fehlinterpretationen dieser Bildartefakte.
Das Verfahren kann besonders vorteilhaft in automatisiert fahrenden Fahrzeugen, insbesondere automatisch fahrenden Lastkraftwagen, angewendet werden. Das Verfahren ermöglicht eine Erkennung von Bildinformationen, die keine Abbildungen von realen Objekten, sondern beispielsweise Spiegelungen sind. Damit kann insbesondere eine nicht notwendige Reaktion des Fahrzeugs verhindert werden.
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung von Beleuchtungseinrichtung und optischem Sensor ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtliche Lage, das heißt insbesondere bestimmtem Abstand des Beginns des Abstandsbereichs von dem optischen Sensor und bestimmter Abstandsbereichs-Breite, durch den optischen Sensor erfasst werden.
Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereichs im realen Raum.
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum, das heißt auf Seiten des zu beobachtenden Objekts, angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitige Bereiche auf der Bildebene.
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und räumliche Breite des sichtbaren Abstandsbereichs zu definieren.
In einer alternativen Ausgestaltung des Verfahrens kann der sichtbare Abstandsbereich vorgegeben sein, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
Die Beleuchtungseinrichtung ist in bevorzugter Ausgestaltung ein Laser. Der optische Sensor ist in bevorzugter Ausgestaltung eine Kamera.
Ein Bewegungsfeld einer Abfolge von mindestens zwei Aufnahmen stellt die bildseitige Bewegung von einzelnen Bildpunkten der Aufnahmen als Vektoren dar. Das Bewegungsfeld einer Abfolge von Aufnahmen ist eine einfach zu implementierende Methode zur Visualisierung von Bewegungen in einer Abfolge von Aufnahmen.
In bevorzugter Ausgestaltung wird die Eigenbewegung der Beleuchtungseinrichtung und des optischen Sensors mittels erwarteten Bewegungsfeld-Vektoren dargestellt. Damit existiert zu jedem Punkt auf dem optischen Sensor ein erster Bewegungsfeld-Vektor der zeitlichen Abfolge der Aufnahmen und ein zweiter, erwarteter Bewegungsfeld-Vektor der Eigenbewegung der Beleuchtungseinrichtung und des optischen Sensors. An jedem Punkt des optischen Sensors werden der erste Bewegungsfeld-Vektor und der jeweils zugehörige zweite Bewegungsfeld-Vektor auf Ähnlichkeit überprüft. Vorzugsweise sind zwei Vektoren ähnlich, wenn der Winkel, der von den beiden Vektoren eingeschlossen ist, unter einem vordefinierten ersten Schwellenwert liegt. Das Differenz-Bewegungsfeld enthält dann alle ersten Bewegungsfeld-Vektoren, welche nicht ähnlich zu dem jeweiligen zugehörigen zweiten Bewegungsfeld-Vektor sind.
Mittels des mindestens einen Gruppierungskriteriums werden die einzelnen Bewegungsfeld-Vektoren aus dem Differenz-Bewegungsfeld zu bildseitigen Objekten zusammengefügt. Vorzugsweise analysiert die Bewegungsplausibilitäts-Prüfung die physischen Eigenschaften, wie Größe, Größenänderung, Geschwindigkeit,
Geschwindigkeitsänderung und Bewegungsrichtung der bildseitigen Objekte. Weist ein Objekt eine widersprüchliche Kombination von wenigstens zwei dieser Eigenschaften auf, wird das Objekt als nicht plausibel klassifiziert. Beispielsweise ist die Kombination aus Bildseitig-nach-oben-bewegen und Größer-werden widersprüchlich, und ein bildseitiges Objekt, welches sich so verhält, wird als nicht plausibel klassifiziert.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass das mindestens eine Gruppierungskriterium ausgewählt ist aus einer Gruppe, bestehend aus einer räumlichen Nachbarschaft und einer Vektorähnlichkeit. In einer bevorzugten Ausgestaltung erfolgt die Gruppierung der Bewegungsfeld-Vektoren mittels der räumlichen Nachbarschaft und der Vektorähnlichkeit als Gruppierungskriterien. Die räumliche Nachbarschaft stellt sicher, dass nur Bewegungsfeld-Vektoren zu bildseitigen Objekten zusammengefasst werden, die höchstens einen gewissen vordefinierten Abstand zu einander haben. Die Vektorähnlichkeit stellt sicher, dass nur Bewegungsfeld-Vektoren zusammengefasst werden, die höchstens einen kleinen Winkel, insbesondere kleiner als ein zweiter Schwellenwert, einschließen bzw. deren Richtung nur eine kleine Variation aufweist, insbesondere kleiner als ein dritter Schwellenwert. Die entsprechenden Schwellenwerte für den Abstand der Bewegungsfeld-Vektoren und für den Winkel zwischen den Bewegungsfeld-Vektoren sind vordefiniert und können in Abhängigkeit der Abfolge der Aufnahmen variieren.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Bewegungsplausibilitäts-Prüfung mittels eines neuronalen Netzes durchgeführt wird.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erkannten Bildartefakte mittels eines LIDAR-Systems verifiziert werden. Vorteilhafterweise wird die Abstands- und Geschwindigkeitsmessung eines LIDAR-Systems genutzt, um Objekte im Beobachtungsbereich des optischen Sensors zu erkennen. Damit ist eine einfache Verifikation möglich, ob ein Bildartefakt in den Aufnahmen zu sehen ist.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erkannten Bildartefakte mittels eines Radar-Systems verifiziert werden. Vorteilhafterweise wird die Abstands- und Geschwindigkeitsmessung eines Radar-Systems genutzt, um Objekte im Beobachtungsbereich des optischen Sensors zu erkennen. Damit ist eine einfache Verifikation möglich, ob ein Bildartefakt in den Aufnahmen zu sehen ist. Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erkannten Bildartefakte mittels eines zusätzlichen optischen Sensors verifiziert werden. Vorteilhafterweise unterscheiden sich der optische Sensor und der zweite optische Sensor bezüglich des Wellenlängenbereichs des Lichtes der Belichtung. Damit ist eine einfache Verifikation möglich, ob ein Bildartefakt in den Aufnahmen zu sehen ist.
Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Fahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
Die Steuereinrichtung ist bevorzugt einerseits mit der Beleuchtungseinrichtung und andererseits mit dem optischen Sensor wirkverbunden und eingerichtet zu deren Ansteuerung.
Die Aufgabe wird auch gelöst, indem eine Erkennungsvorrichtung geschaffen wird, die eine Beleuchtungseinrichtung, einen optischen Sensor, und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele aufweist. In Zusammenhang mit der Erkennungsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Erkennungsvorrichtung oder einer Erkennungsvorrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Erkennungsvorrichtung erläutert wurden.
In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ist.
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Dabei zeigen: Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels eines
Kraftfahrzeugs mit einem Ausführungsbeispiel einer Erkennungsvorrichtung, und
Fig. 2 eine schematische Darstellung einer Aufnahme die im Rahmen einer
Ausführungsform des Verfahrens mit einem optischen Sensor aufgenommen ist.
Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1, mit einem Ausführungsbeispiel einer Erkennungsvorrichtung 3. Die Erkennungsvorrichtung 3 weist eine Beleuchtungseinrichtung 5 und einen optischen Sensor 7 auf. Außerdem weist die Erkennungsvorrichtung 3 eine Steuereinrichtung 9 auf, die hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Beleuchtungseinrichtung 5 und dem optischen Sensor 7 zu deren jeweiliger Ansteuerung wirkverbunden ist. Dargestellt in Figur 1 ist insbesondere ein Beleuchtungs-Frustum 11 der Beleuchtungseinrichtung 5 und ein Beobachtungsbereich 13 des optischen Sensors 7. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 15, der sich als Teilmenge des Beobachtungsbereichs 13 des optischen Sensors 7 ergibt.
In dem sichtbaren Abstandsbereich 15 ist ein Objekt 17 angeordnet.
In Figur 1 ist auch ein Beginn 19 und ein Ende 21 des sichtbaren Abstandsbereichs 15 eingezeichnet.
Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung einer im Folgenden näher beschriebenen Ausführungsform eines Verfahrens zur Erkennung von Bildartefakten.
Dabei werden die Beleuchtungseinrichtung 5 und der optische Sensor 7 zeitlich aufeinander abgestimmt angesteuert, wobei ein sichtbarer Abstandsbereichs 15 in dem Beobachtungsbereich 13 aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 gegeben ist. Es wird eine zeitliche Abfolge von Aufnahmen des sichtbaren Abstandsbereichs 15 mit dem optischen Sensor 7 unter Anwendung der abgestimmten Ansteuerung aufgenommen. Figur 2 zeigt eine schematische Darstellung einer Aufnahme 23 einer solchen zeitlichen Abfolge von Aufnahmen in einer Bildebene des optischen Sensors 7. Dabei sind in Figur 2 schematisch Bewegungsfeld-Vektoren 25 einer Straße 26, eines ersten bildseitigen Objekts 17‘ und eines zweiten bildseitigen Objekts 27 als Pfeile dargestellt. Zur übersichtlichen Darstellung ist nur ein Pfeil mit einem Bezugszeichen versehen. Die Bewegungsfeld-Vektoren 25 der Straße 26 entsprechen einem erwarteten Bewegungsfeld, welches durch die Eigenbewegung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 entsteht. Des Weiteren ist das erste bildseitige Objekt 17‘ das Bild des objektseitigen Objekts 17. Das zweite bildseitige Objekt 27 ist als Spiegelung des objektseitigen Objektes 17 dargestellt. Die Bewegungsfeld-Vektoren 25 des ersten bildseitigen Objekts 17‘ sind ähnlich - in Richtung und Länge - zu den Bewegungsfeld- Vektoren 25 der Straße 26. Damit entsprechen die Bewegungsfeld-Vektoren 25 des ersten bildseitigen Objekts 17‘ dem erwarteten Bewegungsfeld. Die Bewegungsfeld- Vektoren 25 des zweiten bildseitigen Objekts 27 unterscheiden sich in Richtung und Länge deutlich von den Bewegungsfeld-Vektoren 25 der Straße 26 und damit auch von dem erwarteten Bewegungsfeld. Somit besteht ein Differenz-Bewegungsfeld aus den Bewegungsfeld-Vektoren 25 des zweiten bildseitigen Objekts 27. Die Bewegungsfeld- Vektoren 25 im Differenz-Bewegungsfeld werden bevorzugt mittels bildseitiger räumlicher Nachbarschaft und Vektorähnlichkeit zu dem zweiten bildseitigen Objekt 27 und dessen Bewegung zusammengefasst. Die Bewegungsfeld-Vektoren 25 des zweiten bildseitigen Objekts 27 stellen eine Aufwärtsbewegung und eine Objektvergrößerung, welche nicht in Figur 2 abgebildet ist, dar. Eine Bewegungsplausibilitäts-Prüfung klassifiziert dieses Verhalten - Aufwärtsbewegung und Vergrößerung - als nicht plausibel. Daraufhin wird das zweite bildseitige Objekt 27 als Bildartefakt erkannt.

Claims

Patentansprüche
1. Verfahren zur Erkennung von Bildartefakten bei einer zeitlichen Abfolge von Aufnahmen (23) aufgenommen mittels einer Beleuchtungseinrichtung (5) und einem optischen Sensor (7), wobei
- die Beleuchtungseinrichtung (5) und der optische Sensor (7) mit einer Eigenbewegung verlagert werden, wobei
- eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei
- mindestens zwei aufeinanderfolgende Aufnahmen (23) mit dem optischen Sensor (7) mittels der zeitlich abgestimmten Ansteuerung aufgenommen werden, wobei
- ein Bewegungsfeld mit Bewegungsfeld-Vektoren (25) der mindestens zwei aufeinander folgenden Aufnahmen (23) berechnet wird, wobei
- aus dem Bewegungsfeld alle aufgrund der Eigenbewegung erwartbaren Bewegungsfeld-Vektoren (25) entfernt werden, wodurch ein Differenz- Bewegungsfeld erhalten wird, wobei
- die Bewegungsfeld-Vektoren (25) in dem Differenz-Bewegungsfeld nach mindestens einem Gruppierungskriterium zu bildseitigen Objekten (27) zusammengefasst werden, wobei
- die bildseitigen Objekte (27) einer Bewegungsplausibilitäts-Prüfung unterzogen werden, anhand der die bildseitigen Objekte (27) als plausibel oder als nicht plausibel klassifiziert werden, und wobei
- ein als nicht plausibel klassifiziertes bildseitiges Objekt (27) als Bildartefakt erkannt wird.
2. Verfahren nach Anspruch 1 , wobei das mindestens eine Gruppierungskriterium ausgewählt ist aus einer Gruppe, bestehend aus einer räumlichen Nachbarschaft und einer Vektorähnlichkeit.
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bewegungsplausibilitäts-Prüfung mittels eines neuronalen Netzes durchgeführt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die erkannten Bildartefakte mittels eines LIDAR-Systems verifiziert werden.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die erkannten Bildartefakte mittels eines Radar-Systems verifiziert werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die erkannten Bildartefakte mittels eines zusätzlichen optischen Sensors verifiziert werden.
7. Steuereinrichtung (9) eingerichtet zur Durchführung eines Verfahrens zur Erkennung von Bildartefakten nach einem der vorhergehenden Ansprüche.
8. Erkennungsvorrichtung (3) mit einer Beleuchtungseinrichtung (5), einem optischen Sensor (7), und einer Steuereinrichtung (9) nach Anspruch 7.
9. Kraftfahrzeug (1) mit einer Erkennungsvorrichtung (3) nach Anspruch 8.
PCT/EP2021/059799 2020-05-28 2021-04-15 Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung WO2021239323A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/928,237 US20230222640A1 (en) 2020-05-28 2021-04-15 Method for Recognizing Image Artifacts, Control Device for Carrying Out a Method of this Kind, Recognition Device Having a Control Device of this Kind and Motor Vehicle Having a Recognition Device of this Kind
CN202180038741.7A CN115803773A (zh) 2020-05-28 2021-04-15 用于识别图像伪影的方法、用于执行这种方法的控制装置、具有这种控制装置的识别装置和具有这种识别装置的机动车

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020003199.4 2020-05-28
DE102020003199.4A DE102020003199A1 (de) 2020-05-28 2020-05-28 Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Publications (1)

Publication Number Publication Date
WO2021239323A1 true WO2021239323A1 (de) 2021-12-02

Family

ID=71615332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/059799 WO2021239323A1 (de) 2020-05-28 2021-04-15 Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung

Country Status (4)

Country Link
US (1) US20230222640A1 (de)
CN (1) CN115803773A (de)
DE (1) DE102020003199A1 (de)
WO (1) WO2021239323A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020007061B4 (de) 2020-11-19 2022-08-11 Daimler Truck AG Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102020007064B4 (de) 2020-11-19 2022-08-11 Daimler Truck AG Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102021000508A1 (de) * 2021-02-02 2022-08-04 Daimler Truck AG Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinnchtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100315505A1 (en) * 2009-05-29 2010-12-16 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3d warping techniques and a proper object motion detection
WO2017009848A1 (en) 2015-07-14 2017-01-19 Brightway Vision Ltd. Gated structured imaging
EP3296923A1 (de) * 2016-09-20 2018-03-21 STMicroelectronics Srl Verfahren zur detektion eines überholenden fahrzeugs, zugehöriges verarbeitungssystem, system zur detektion eines überholenden fahrzeugs und fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100315505A1 (en) * 2009-05-29 2010-12-16 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3d warping techniques and a proper object motion detection
WO2017009848A1 (en) 2015-07-14 2017-01-19 Brightway Vision Ltd. Gated structured imaging
EP3296923A1 (de) * 2016-09-20 2018-03-21 STMicroelectronics Srl Verfahren zur detektion eines überholenden fahrzeugs, zugehöriges verarbeitungssystem, system zur detektion eines überholenden fahrzeugs und fahrzeug

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QI MIN ET AL: "Motion detection using binocular image flow in dynamic scenes", EURASIP JOURNAL ON ADVANCES IN SIGNAL PROCESSING, vol. 2016, no. 1, 19 April 2016 (2016-04-19), XP055458692, DOI: 10.1186/s13634-016-0349-8 *

Also Published As

Publication number Publication date
DE102020003199A1 (de) 2020-08-06
US20230222640A1 (en) 2023-07-13
CN115803773A (zh) 2023-03-14

Similar Documents

Publication Publication Date Title
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
DE102007025147B4 (de) System zur Spurverlassenswarnung und/oder Spurhaltefunktion
WO2019238319A1 (de) Verfahren und vorrichtung zum erfassen einer umgebung, sowie fahrzeug mit einer solchen vorrichtung
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
WO2022096215A1 (de) Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
DE102007041333B4 (de) Berührungslos arbeitendes Zählsystem
WO2022167343A1 (de) Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung
WO2022106115A1 (de) Verfahren zum betreiben einer ersten beleuchtungseinrichtung, einer zweiten beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung
DE102017221797A1 (de) Lidar-System zur Umfelderfassung und Verfahren zum Betreiben eines Lidar-Systems
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
WO2022042902A1 (de) Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
EP4356163A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung
DE102023002181B3 (de) Adaptive Filterkette zum Anzeigen eines Umfeldmodells in einem Fahrzeug
WO2022184738A1 (de) Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
EP4352547A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung
DE102020005762B4 (de) Verfahren zum Kalibrieren einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung sowie Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102020007064B4 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
WO2021239322A1 (de) Verfahren zur detektion von verlorenen bildinformationen, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE102022116317A1 (de) Verfahren zur Detektion einer Verschmutzung auf einer Kamera eines Fahrzeugs, Kamera und Fahrerassistenzsystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21718882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21718882

Country of ref document: EP

Kind code of ref document: A1