DE10148062A1 - Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes - Google Patents

Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes

Info

Publication number
DE10148062A1
DE10148062A1 DE10148062A DE10148062A DE10148062A1 DE 10148062 A1 DE10148062 A1 DE 10148062A1 DE 10148062 A DE10148062 A DE 10148062A DE 10148062 A DE10148062 A DE 10148062A DE 10148062 A1 DE10148062 A1 DE 10148062A1
Authority
DE
Germany
Prior art keywords
raw data
data elements
segment
sensor
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10148062A
Other languages
English (en)
Inventor
Ulrich Lages
Kay Fuerstenberg
Volker Willhoeft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ibeo Automobile Sensor GmbH
Original Assignee
Ibeo Automobile Sensor GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ibeo Automobile Sensor GmbH filed Critical Ibeo Automobile Sensor GmbH
Priority to DE10148062A priority Critical patent/DE10148062A1/de
Priority to DE50212663T priority patent/DE50212663D1/de
Priority to EP02743204A priority patent/EP1395852A1/de
Priority to EP02751031A priority patent/EP1405100B1/de
Priority to US10/480,507 priority patent/US7570793B2/en
Priority to AT02751031T priority patent/ATE409320T1/de
Priority to DE50212810T priority patent/DE50212810D1/de
Priority to EP02013171A priority patent/EP1267177A1/de
Priority to JP2003505649A priority patent/JP2004530144A/ja
Priority to AT02013172T priority patent/ATE405853T1/de
Priority to EP02013172A priority patent/EP1267178B1/de
Priority to PCT/EP2002/006599 priority patent/WO2002103385A1/de
Priority to PCT/EP2002/006594 priority patent/WO2003001241A1/de
Priority to JP2003507583A priority patent/JP4669661B2/ja
Publication of DE10148062A1 publication Critical patent/DE10148062A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Bei einem Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes eines Überwachungsbereichs, das von einem Sensor für elektromagnetische Strahlung, insbesondere einem Laserscanner, bei einer Abtastung seines Sichtbereichs erfaßt wurde und Rohdatenelemente umfaßt, die Punkten auf Gegenständen in dem Überwachungsbereich entsprechen und die Koordinaten der Positionen der Gegenstandspunkte enthalten, werden Beziehungen zwischen den Rohdatenelementen ermittelt und die Rohdatenelemente auf der Basis der Beziehungen nach wenigstens einem vorgegebenem Kriterium zu einem oder mehreren Segmenten zusammengefaßt, wobei die Beziehungen und/oder das Kriterium von wenigstens einem Segmentierungsparameter abhängen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Verarbeitung eines bevorzugt tiefenaufgelösten Bildes eines Überwachungsbereichs, das von einem Sensor für elektromagnetische Strahlung, insbesondere einem Laserscanner, bei einer Abtastung seines Sichtbereichs erfaßt wurde und Rohdatenelemente umfaßt, die Punkten auf Gegenständen in dem Überwachungsbereich entsprechen und die Koordinaten der Positionen und/oder Geschwindigkeiten und/oder Reflektivitäten der Gegenstandspunkte enthalten.
  • Verfahren der oben genannten Art sind grundsätzlich bekannt. Bei dem gattungsgemäßen Verfahren kann es sich insbesondere um Verfahren zur Objekterkennung und -verfolgung handeln, mit dem Gegenstände im Sichtbereich des Sensors, bei dem es sich beispielsweise um einen Ultraschall- oder Radarsensor oder einen optoelektronischen Sensor handeln kann, erkannt und verfolgt werden sollen. Dazu werden aus den Rohdatenelementen Objekte erzeugt, die den erfaßten Gegenständen entsprechen sollen. Es ist also notwendig, Bildpunkte bzw. Rohdatenelemente, die Gegenstandspunkten eines Gegenstands entsprechen, einem Objekt zuzuordnen, das dem Gegenstand entspricht. Insbesondere bei nahe beieinander liegenden Gegenständen kann es sich jedoch als schwierig erweisen, die Bildpunkte bzw. Rohdatenelemente den Objekten zuzuordnen.
  • Es ist Aufgabe der vorliegenden Erfindung, ein gattungsgemäßes Verfahren bereitzustellen, das die Zuordnung von Rohdatenelementen zu Objekten, die Gegenständen entsprechen, erleichtert.
  • Die Aufgabe wird gelöst durch ein gattungsgemäßes Verfahren mit den Merkmalen des kennzeichnenden Teils des Anspruchs 1.
  • Bei den Sensoren kann es sich beispielsweise um Ultraschall- oder Radarsensoren handeln. Bevorzugt werden jedoch optoelektronische Sensoren.
  • Unter einem tiefenaufgelösten Bild eines Sensors wird dabei eine Menge von bei einer Abtastung des Sichtbereichs des Sensors erfaßten Bildpunkten verstanden, denen Punkte bzw. je nach Auflösung des Sensors auch Bereiche eines von dem Sensor erfaßten Gegenstands entsprechen, wobei den Bildpunkten der Lage der zugehörigen Gegenstandspunkte entsprechende Koordinaten in wenigstens zwei Dimensionen zugeordnet sind, die sich nicht beide senkrecht zur Blickrichtung des Sensors erstrecken. Tiefenaufgelöste Bilder enthalten daher unmittelbar auch eine Information über die Entfernung der den Bildpunkten entsprechenden Gegenstandspunkte von dem Sensor. Den Bildpunkten können auch alternativ oder zusätzlich Daten über optische Eigenschaften der Gegenstandspunkte, beispielsweise Reflektivitäten und/oder Farben, zugeordnet sein.
  • Sensoren für elektromagnetische Strahlung zur Erfassung solcher tiefenaufgelöster Bilder sind grundsätzlich bekannt. Bei diesen kann es sich bevorzugt um optoelektronische Sensoren handeln, die eine gute Ortsauflösung bieten und daher für das erfindungsgemäße Verfahren bevorzugt sind. So können beispielsweise Systeme mit Stereo-Videokameras verwendet werden, die eine Einrichtung zur Umsetzung der von den Kameras aufgenommenen Rohdaten in tiefenaufgelöste Bilder aufweisen.
  • Vorzugsweise werden jedoch Laserscanner verwendet, die bei einer Abtastung einen Sichtbereich mit mindestens einem gepulsten Strahlungsbündel abtasten, das einen vorgegebenen Winkelbereich überstreicht und von einem Punkt bzw. Bereich eines Gegenstands, meist diffus, reflektierte Strahlungspulse des Strahlungsbündels detektieren. Dabei wird zur Entfernungsmessung die Laufzeit der ausgesandten, reflektierten und detektierten Strahlungspulse erfaßt. Die so erfaßten Rohdaten für einen Bildpunkt können dann als Koordinaten den Winkel, bei dem der Reflex erfaßt wurde, und die aus der Laufzeit der Strahlungspulse bestimmte Entfernung des Gegenstandspunkts enthalten. Bei der Strahlung kann es sich insbesondere um sichtbares oder infrarotes Licht handeln.
  • Unter dem Sichtbereich wird im folgenden der tatsächlich von dem Sensor abgetastete Bereich verstanden, der kleiner sein kann als der maximal abtastbare Bereich.
  • Erfindungsgemäß werden zwischen den Rohdatenelementen des Bildes Beziehungen ermittelt und die Rohdatenelemente auf der Basis der Beziehungen nach wenigstens einem vorgegebenen Kriterium zu einem oder mehreren Segmenten zusammengefaßt, wobei die Beziehungen und/oder das Kriterium von wenigstens einem Segmentierungsparameter abhängen.
  • Bei einer solchen Beziehung zwischen den Rohdatenelementen kann es sich insbesondere um Abstände der Positionen der Rohdatenelemente, die die Positionen der Gegenstandspunkte, die den Rohdatenelementen entsprechen, wiedergeben, oder um Abweichungen anderer Eigenschaften der Gegenstandspunkte voneinander handeln, deren Werte in den Rohdatenelementen enthalten sind. Hierbei ist insbesondere an optische Eigenschaften eines Gegenstandspunkts zu denken, wie zum Beispiel deren Reflektivität. Die Eigenschaft eines Gegenstandspunktes kann aber beispielsweise auch eine Relativgeschwindigkeit zu einem Radarsensor umfassen, wobei dann als Segmentierungskriterium Differenzen von Relativgeschwindigkeiten zu einem Radarsensor verwendet werden.
  • Durch eine Bewertung der Beziehung nach wenigstens einem vorgegebenen Kriterium können die Rohdatenelemente dann zu einem oder mehreren Segmenten zusammengefaßt werden. Insbesondere kann dabei ein Segment auch nur ein Rohdatenelement umfassen.
  • Die Beziehungen und/oder das Kriterium hängen dabei von wenigstens einem Segmentierungsparameter ab, bei dem es sich beispielsweise bei einem Vergleich von Eigenschaften um einen Wert für den für eine Segmentzugehörigkeit noch zulässigen Unterschied handeln kann.
  • Betreffen die Beziehungen der Rohdatenelemente eine Ähnlichkeit der Gegenstandspunkte in einer bestimmten Eigenschaft, die in den Rohdatenelementen erfaßt ist, kann als Kriterium insbesondere gefordert werden, daß die Rohdatenelemente in bezug auf die bestimmte Eigenschaft eine maximale Abweichung voneinander aufweisen. Hierbei kann es sich insbesondere um die Lage, die Relativgeschwindigkeit zu dem Sensor oder, wie oben genannt, um optische Eigenschaften handeln. Durch diese Zusammenfassung zu Segmenten wird eine erste Reduktion der Datenmenge erreicht, die eine Weiterverarbeitung wesentlich erleichtert, da für viele Anwendungen nur noch eine Behandlung der ganzen Segmente relevant ist. Insbesondere im Zusammenhang mit Objekterkennungs- und -verfolgungsverfahren kann einfacher überprüft werden, ob die gefundenen Segmente einzeln oder in Gruppen bestimmten Objekten entsprechen.
  • Weiterbildungen und bevorzugte Ausführungsformen der Erfindung sind in der Beschreibung, den Ansprüchen und den Zeichnungen beschrieben.
  • Es ist bevorzugt, daß die Beziehungen zwischen Rohdatenelementen räumliche Element-Element-Abstände der Positionen je zweier Rohdatenelemente umfassen und eine Segmentzugehörigkeit eines Rohdatenelements nur festgestellt wird, wenn zumindest der Element-Element- Abstand der Position des Rohdatenelements von der Position wenigstens eines anderen, dem Segment zuzuordnenden Rohdatenelements dem Wert eines entsprechenden Segmentierungsparameters, der auch als Trennparameter bezeichnet wird, unterschreitet. Das in dieser Weiterbildung verwendete Abstandskriterium bildet im allgemeinen nur eine notwendige Bedingung für eine Segmentzugehörigkeit, die nur hinreichend ist, wenn keine andere Beziehung zur Bestimmung einer Segmentzugehörigkeit verwendet wird. Diese räumliche bzw. flächenmäßige Beziehung zwischen Rohdatenelementen berücksichtigt, daß Gegenstände für die meisten Anwendungen durch ihren räumlichen Zusammenhang definiert sind. Insbesondere im Zusammenhang mit einem Verfahren zur Objekterkennung und -verfolgung stellt der Element-Element-Abstand eine sehr aussagekräftige Beziehung zwischen den Rohdatenelementen dar.
  • Als Element-Element-Abstand der Positionen zweier Rohdatenelemente kann hierbei insbesondere eine nichtnegative Funktion der Koordinaten der Positionen der beiden Rohdatenelemente verwendet werden, deren Werte grundsätzlich positiv sind und die den Wert Null nur dann annimmt, wenn die Positionen, das heißt die Koordinaten, identisch sind.
  • Besonders bevorzugt werden zur Ermittlung des Element-Element- Abstands zweier Rohdatenelemente eine Abstandsfunktion der Differenzen von Koordinaten der Rohdatenelemente und als weiterer Segmentierungsparameter ein Gewichtungsparameter verwendet, wobei die Differenzen in verschiedenen Koordinatenrichtungen über den Gewichtungsparameter relativ zueinander gewichtet werden. Hierbei kann es sich insbesondere um einen euklidischen Abstand handeln, bei dem die quadrierten Differenzen in verschiedenen Koordinatenrichtungen durch einen Gewichtungsparameter gegeneinander gewichtet sind, wodurch eine Anisotropie bei der Bewertung der Abstände erreicht wird. Diese Gewichtung bedeutet im Ergebnis, daß Rohdatenelemente, deren Positionen in einer niedrig gewichteten Richtung verglichen mit der anderen Richtung weit auseinanderliegen, trotzdem noch zu einem Segment gehören können.
  • Alternativ können die Beziehungen zwischen Rohdatenelementen zwei Element-Element-Abstände der Positionen umfassen, die sich jeweils auf eine der Koordinaten der Rohdatenelemente beziehen und denen jeweils ein weiterer Segmentierungsparameter zugeordnet wird, der jeweils auch als Trennparameter bezeichnet wird. Dabei wird eine Segmentzugehörigkeit eines Rohdatenelements nur festgestellt, wenn beide Element- Element-Abstände zwischen den Positionen des Rohdatenelements und der Position wenigstens eines anderen, dem Segment zuzuordnenden Rohdatenelements die Werte der entsprechenden Segmentierungsparameter unterschreiten. Wie zuvor stellen die Beziehungen bzw. die zugehörigen Kriterien nur eine notwendige Bedingung für die Segmentzugehörigkeit dar, die nur dann hinreichend ist, wenn keine weiteren Beziehungen benutzt werden. Diese sich ebenfalls auf den räumlichen Zusammenhang von Gegenständen stützende Bedingung für Segmentzugehörigkeit kann insbesondere für Segmente, die auf eckige Gegenstände zurückgehen, trennschärfere Ergebnisse liefern. Weiterhin können die Trennparameter für die verschiedenen Koordinaten unterschiedlich gewählt werden, so daß auch die Abstände in verschiedenen Raumrichtungen unterschiedlich stark bewertet werden können. Bei den Element-Element-Abständen kann es sich insbesondere um den Betrag der Differenzen der jeweiligen Koordinaten handeln.
  • Bei den Koordinaten kann es sich grundsätzlich um beliebige, zur Bestimmung einer Position geeignete Koordinaten handeln. Abhängig von der Art der von dem Sensor ausgegebenen Koordinaten der Rohdatenelemente kann es bevorzugt sein, zur Bestimmung des Element-Element-Abstands bei der ersten oder der zweiten Alternative vor der eigentlichen Ermittlung des Element-Element-Abstands die Koordinaten in den Rohdatenelementen einer Koordinatentransformation zu unterwerfen, die durch im Zusammenhang mit den verwendeten Element-Element-Abständen günstigere Koordinaten eine trennschärfere Segmentierung erlaubt.
  • Bevorzugt hängt wenigstens ein Segmentierungsparameter von dem Abstand der Position wenigstens eines der beiden bei der Ermittlung der Beziehung zwischen zwei Rohdatenelementen verwendeten Rohdatenelemente zu dem Sensor und/oder der Richtung der Position relativ zu einer vorgegebenen Achse durch den Sensor ab. Hiermit kann insbesondere der Tatsache Rechnung getragen werden, daß das Auflösungsvermögen von Sensoren sich mit dem Abstand der Gegenstände und der Winkellage im Sichtbereich des Sensors ändern kann. Insbesondere bei Verwendung eines Laserscanners sinkt das Auflösungsvermögen mit zunehmendem Abstand deutlich ab, so daß vorteilhafterweise wenigstens einer der Gewichtungsparameter oder der Trennparameter eine entsprechende Abstandsabhängigkeit aufweist. Besonders bevorzugt hängt der Segmentierungsparameter von dem größeren der beiden Sensorabstände ab.
  • Weiterhin ist es bevorzugt, daß dem Sensor eine Achse zugeordnet ist und durch Wahl wenigstens eines entsprechenden Segmentierungsparameters Positionsdifferenzen in Richtung der Achse weniger stark berücksichtigt werden als in einer Richtung senkrecht zu der Achse. Insbesondere kann der Gewichtungsparameter bzw. der Trennparameter in Richtung der Achse kleiner gewählt werden. Ist ein Sensor und insbesondere ein Laserscanner an einem Fahrzeug angeordnet, um einen in Fahrtrichtung vor dem Fahrzeug liegenden Bereich zu überwachen, kann die Achse bevorzugt durch die Fahrtrichtung des Fahrzeugs bzw. die Fahrzeuglängsachse gegeben sein. Hierdurch läßt sich zum einen das durch die Fahrzeugbewegung bedingte geringere Auflösungsvermögen in Richtung der Achse besser berücksichtigen. Zum anderen ist es möglich, auch Segmente zu erkennen, die sich im wesentlichen in Fahrtrichtung erstrecken und denen bedingt durch die Blickrichtung nur wenige weit auseinander liegende Positionen von Rohdatenelementen zugeordnet sind.
  • Die obigen Ausführungen für Element-Element-Abstände gelten analog für Relativgeschwindigkeiten in Bildpunkten, die beispielsweise von einem Radarsensor erfaßt wurden.
  • Bei einer anderen Weiterbildung ist es bevorzugt, daß die Rohdatenelemente die Position eines Gegenstandspunkts und/oder dessen Reflektivität umfassen und zur Segmentierung die Beziehungen zwischen Rohdatenelementen Unterschiede in den Reflektivitäten von je zwei Gegenstandspunkten umfassen. Hierdurch können auch Segmente voneinander getrennt werden, die sich aufgrund einer begrenzten räumlichen Auflösung allein nicht mehr trennen lassen. Weiterhin ist es möglich eine Segmentierung allein aufgrund der Reflektivitäten vorzunehmen.
  • Bei alleiniger Verwendung von Reflektivitäten ist es bevorzugt, daß eines der Rohdatenelemente einem Segment nur zugeordnet wird, wenn sich die Reflektivitäten des Rohdatenelements und eines weiteren Rohdatenelements des Segments um weniger als die maximale Reflektivitätsdifferenz unterscheiden.
  • Besonders bevorzugt ist es, daß als weiterer Segmentierungsparameter eine maximale Reflektivitätsdifferenz verwendet wird und eines der Rohdatenelemente einem Segment nur zugeordnet wird, wenn es wenigstens einem Kriterium für einen Element-Element-Abstand oder den Kriterien für zwei Element-Element-Abstände zu mindestens einem weiteren, dem Segment zuzuordnenden Rohdatenelement genügt und wenn sich die Reflektivitäten des Rohdatenelements und des weiteren Rohdatenelements um weniger als die maximale Reflektivitätsdifferenz unterscheiden. Dies erlaubt es zum Beispiel, einfach nahe beieinanderliegende Gegenstände, beispielsweise eine Person vor einer Wand, auf vergleichsweise einfache Weise voneinander zu trennen.
  • Bei einer sehr dynamischen Umgebung kann der Fall eintreten, daß wenigstens ein Segmentierungsparameter für die gerade bestehenden Verhältnisse ungünstig gewählt ist. Daher ist es bevorzugt, daß wenigstens einer der Segmentierungsparameter situationsadaptiv angepaßt wird.
  • Insbesondere bei Verwendung des erfindungsgemäßen Verfahrens in Zusammenhang mit einem an einem Fahrzeug angebrachten, vorzugsweise optoelektronischen Sensor zur Objekterkennung und -verfolgung wird damit die Möglichkeit geschaffen, die Segmentierung entsprechend eines augenblicklichen Zustands des Sensors und/oder der Situation in der Umgebung anzupassen. Als Merkmale der Situation können insbesondere Geschwindigkeit des Sensors, Bewegungsrichtung des Sensors und Hauptbeobachtungsbereich (region of interest) berücksichtigt werden. Hierdurch kann erreicht werden, daß auch bei wechselnden Fahrbedin-. gungen eine sehr gute Segmentierung erreicht wird. Bei Verwendung des Verfahrens in Zusammenhang mit einem an einem Fahrzeug angebrachten Laserscanner zur Überwachung des Verkehrs vor bzw. auch neben dem Fahrzeug kann beispielsweise bei einer Änderung der Fahrtrichtung des Fahrzeugs, die zu anderen Sichtwinkeln gegenüber dem fließenden Verkehr führt, durch Änderung eines Gewichtungsparameters bzw. eines Trennparameters den veränderten Bedingungen Rechnung getragen werden. Auch kann die Größe einer maximalen Reflektivitätsdifferenz beispielsweise von den Lichtbedingungen abhängig gemacht werden.
  • Besonders bevorzugt wird eine tatsächliche oder eine daran angenäherte Bewegung des Sensors ermittelt und wenigstens einer der Segmentierungsparameter unter Verwendung der Geschwindigkeit des Sensors adaptiert. Hierdurch ist es beispielsweise möglich, dem dann in Fahrtrichtung veränderten Auflösungsvermögen des Sensors, insbesondere eines Laserscanners, Rechnung zu tragen und eine verbesserte Segmentierung zu erreichen. Insbesondere kann auch gegebenenfalls bei höherer Geschwindigkeit durch Vergrößerung der Trennparameter eine etwas grobere Segmentierung durchgeführt werden. So kommt es bei einer Objekterkennung und -verfolgung bei hohen Geschwindigkeiten nicht auf eine sehr gute Auflösung verschiedener Segmente an, da es in solchen Fahrsituationen typischerweise nicht auf Details ankommt, die bei niedrigen Geschwindigkeiten, wie zum Beispiel beim Einparken, eine größere Bedeutung haben können.
  • Beruht die Segmentierung auf einem Element-Element-Abstand oder einem anderen räumlichen Abstandskriterium, so hängt das Ergebnis der Segmentierung stark von der Güte der erfaßten Positionen der verwendeten Rohdatenelemente ab. Wird für das erfindungsgemäße Verfahren ein Bild verwendet, das dadurch erhalten wurde, daß bei einer Abtastung des Sichtbereichs des Sensors die Rohdatenelemente nacheinander erfaßt wurden, wie es beispielsweise bei einem Laserscanner der oben genannten Art der Fall ist, können bei einer hohen Eigengeschwindigkeit des Sensors die Positionen von Rohdatenelementen, die gegen Ende der Abtastung hin erfaßt wurden, aufgrund der Eigenbewegung des Sensors gegenüber den Positionen der Rohdatenelemente, die zu Beginn einer Abtastung erfaßt wurden, verschoben sein. Es kann daher passieren, daß einem Gegenstand entsprechende Rohdatenelemente aufgrund der Verschiebung als nicht zu einem Segment zugehörig erkannt werden, was die nachfolgende Verarbeitung wesentlich erschweren kann. In diesem Fall ist es daher bevorzugt, daß vor der Segmentbildung die Position der Rohdatenelemente jeweils entsprechend der tatsächlichen oder einer daran angenäherten Bewegung des Sensors und der Differenz zwischen den Erfassungszeitpunkten der jeweiligen Rohdatenelemente und einem Bezugszeitpunkt korrigiert werden. Die Bewegung des Sensors kann dabei zum Beispiel je nach Güte der Korrektur über dessen Geschwindigkeit oder auch über dessen Geschwindigkeit und Beschleunigung berücksichtigt werden, wobei hierbei vektorielle Größen, das heißt Größen mit Betrag und Richtung, gemeint sind. Die Daten über diese kinematischen Größen können zum Beispiel eingelesen werden. Ist der Sensor an einem Fahrzeug angebracht, so können zum Beispiel über entsprechende Fahrzeugsensoren die Eigengeschwindigkeit des Fahrzeugs und der Lenkwinkel oder die Gierrate verwendet werden, um die Bewegung des Sensors zu spezifizieren. Dabei kann zur Berechnung der Bewegung des Sensors aus den kinematischen Daten eines Fahrzeugs auch dessen Position an dem Fahrzeug berücksichtigt werden. Die Bewegung des Sensors bzw. die kinematischen Daten können jedoch auch aus einer entsprechenden parallelen Objekterkennung und -verfolgung in dem Sensor oder einer nachfolgenden Objekterkennung bestimmt werden. Weiterhin kann ein GPS-Positionserkennungssystem bevorzugt mit digitaler Karte verwendet werden.
  • Vorzugsweise werden kinematische Daten verwendet, die in zeitlicher Nähe zu der Abtastung und besonders bevorzugt während der Abtastung durch den Sensor erfaßt werden.
  • Zur Korrektur können bevorzugt aus den kinematischen Daten der Bewegung und der Zeitdifferenz zwischen dem Erfassungszeitpunkt des jeweiligen Rohdatenelements und einem Bezugszeitpunkt mit geeigneten kinematischen Formeln die durch die Bewegung innerhalb der Zeitdifferenz verursachten Verschiebungen berechnet und die Koordinaten in den Rohdatenelementen entsprechend korrigiert werden. Grundsätzlich können jedoch auch modifizierte kinematische Beziehungen verwendet werden. Zur einfacheren Berechnung der Korrektur kann es vorteilhaft sein, die Rohdatenelemente zunächst einer Transformation, insbesondere in ein kartesisches Koordinatensystem, zu unterwerfen. Abhängig davon, in welcher Form die korrigierten Rohdatenelemente vorliegen sollen, kann eine Rücktransformation nach der Korrektur sinnvoll sein.
  • Ein Fehler in den Positionen der Rohdatenelemente kann auch dadurch hervorgerufen werden, daß sich zwei Objekte, von denen eines zu Beginn der Abtastung und das andere gegen Ende der Abtastung erfaßt wurde, mit hoher Geschwindigkeit gegeneinander bewegen. Dies kann dazu führen, daß bedingt durch die zeitliche Latenz zwischen den Erfassungszeitpunkten die Positionen der Objekte gegeneinander verschoben sind. Bevorzugt wird daher in dem Fall, daß ein Bild verwendet wird, das dadurch erhalten wurde, daß bei einer Abtastung des Sichtbereichs des bevorzugt optoelektronischen Sensors die Rohdatenelemente nacheinander erfaßt wurden, eine Folge von Bildern erfaßt und eine Objekterkennung und/oder -verfolgung auf der Basis der Rohdatenelemente der Bilder durchgeführt, wobei jedem erkannten Objekt Rohdatenelemente und jedem dieser Rohdatenelemente bei der Objektverfolgung berechnete Bewegungsdaten zugeordnet und vor der Segmentbildung die Positionen der Rohdatenelemente unter Verwendung der Ergebnisse der Objekterkennung und/oder -verfolgung korrigiert werden. Bei der Objekterkennung und/oder -verfolgung für jede Abtastung können bekannte Verfahren benutzt werden, wobei grundsätzlich schon vergleichsweise einfache Verfahren ausreichen.
  • Auch durch diese Korrektur wird die Gefahr herabgesetzt, daß einem Gegenstand entsprechende Rohdatenelemente aufgrund der Verschiebung als nicht zu einem Segment zugehörig erkannt werden, was die nachfolgende Verarbeitung wesentlich erschweren würde.
  • Besonders bevorzugt werden bei der Bildung der korrigierten Positionen in den Rohdatenelementen die Koordinaten der Rohdatenelemente entsprechend der ihnen zugeordneten Bewegungsdaten und der Differenz zwischen einer Erfassungszeit der Rohdatenelemente und einem Bezugszeitpunkt korrigiert. Bei den Bewegungsdaten kann es sich wiederum insbesondere um kinematische Daten handeln, wobei die zur Korrektur verwendeten Verschiebungen wie oben aus den vektoriellen Geschwindigkeiten und gegebenenfalls Beschleunigungen der Objekte und der Zeitdifferenz zwischen der Erfassungszeit eines Rohdatenelements und dem Bezugszeitpunkt erfolgt.
  • Selbstverständlich können die genannten Korrekturen alternativ oder kumulativ angewendet werden.
  • Bei diesen Korrekturverfahren können, wenn nicht zu hohe Anforderungen an die Genauigkeit der Korrektur gestellt werden, Näherungen für die Erfassungszeit der Rohdatenelemente verwendet werden. Insbesondere bei Verwendung eines Laserscanners der oben genannten Art kann davon ausgegangen werden, daß aufeinanderfolgende Rohdatenelemente in konstanten zeitlichen Abständen erfaßt wurden. Aus der Zeit für eine Abtastung bzw. der Abtastfrequenz und der Anzahl der dabei aufgenommenen Rohdatenelemente läßt sich damit der zeitliche Abstand aufeinanderfolgender Erfassungen von Rohdatenelementen und mittels dieses zeitlichen Abstandes und der Reihenfolge der Rohdatenelemente eine Erfassungszeit bezogen auf das erste Rohdatenelement bzw., wenn auch negative Zeiten verwendet werden, auf ein beliebiges Rohdatenelement bestimmen. Obwohl der Bezugszeitpunkt grundsätzlich frei gewählt werden kann, ist es bevorzugt, daß er für jede Abtastung zwar getrennt, aber jeweils gleich gewählt wird, da dann auch nach einer Vielzahl von Abtastungen keine Differenzen großer Zahlen auftreten und weiterhin keine Verschiebung der Positionen durch Variation des Bezugszeitpunkts aufeinanderfolgender Abtastungen bei bewegtem Sensor erfolgt, was eine nachfolgende Objekterkennung und -verfolgung erschweren könnte.
  • Besonders bevorzugt ist es dabei, daß der Bezugszeitpunkt zwischen der frühesten als Erfassungszeit definierten Zeit eines Rohdatenelements einer Abtastung und der zeitlich letzten als Erfassungszeit definierten Zeit eines Rohdatenelements der Abtastung liegt. Hierdurch wird gewährleistet, daß Fehler, die durch die Näherung in der kinematischen Beschreibung entstehen, möglichst gering gehalten werden. Besonders vorteilhaft kann als Bezugszeitpunkt ein Erfassungszeitpunkt eines der Rohdatenelemente der Abtastung gewählt werden, so daß dieses als Erfassungszeit innerhalb der Abtastung die Zeit Null erhält.
  • Eine Segmentierung kann weiterhin dadurch behindert werden, daß Objekte sich gegenseitig verdecken. Bedingt durch die Tiefenauflösung der Bilder stellt eine Verdeckung zunächst kein Problem dar. Jedoch kann es passieren, daß bei der Erfassung eines Gegenstandspunktes der Laserstrahl des Laserscanners teilweise von dem hinteren Gegenstand und teilweise von dem vorderen Gegenstand reflektiert wird, das heißt genau eine Kante des vorderen Gegenstands trifft. Bestimmt der Laserscanner die Entfernung durch die Laufzeit von Pulsen, kann es vorkommen, daß die beiden Pulse sich überlagern und als Position des entsprechenden Rohdatenelements eine Position an einer Stelle zwischen der Fläche des hinteren Gegenstands und der Fläche des vorderen Gegenstands entsteht. Dieser Punkt entspricht jedoch nicht einem realen Gegenstandspunkt und kann daher die Segmentierung verfälschen. Dieses Phänomen tritt nur auf, wenn die Gegenstände entlang dieser Richtung weiter voneinander entfernt sind, als die durch die Pulsdauer des Laserpulses bestimmte räumliche Ausdehnung des Laserpulses in Strahlrichtung. Das Auftreten solcher Konstellationen wird auch als das Auftreten von virtuellen Gegenstandspunkten, Geistermessungen oder Abrißkanten bezeichnet.
  • Zur Korrektur solcher Phänomene ist es daher bevorzugt, daß zur Erkennung eines einem virtuellen Gegenstandspunkt entsprechenden Rohdatenelements in einem vorgegebenen Winkelbereich des Sichtbereichs, das durch eine gleichzeitige Erfassung von zwei in dem Bild hintereinanderliegenden Gegenständen erhalten wurde, auf die Rohdatenelemente, die in dem Winkelbereich liegen, ein Gradientenfilter angewendet wird, der jeweils den Rohdatenelementen zugeordnete Elementgradienten verwendet, die Gradienten des radialen Abstands der Position des Rohdatenelements von dem Sensor in bezug auf den Winkel der Position zu einer vorgegebenen Achse durch den Sensor entsprechen.
  • Hierbei wird ausgenutzt, daß auftretende virtuelle Gegenstandspunkte vergleichsweise große Abstände zu benachbarten Gegenstandspunkten aufweisen. Da die Rohdatenelemente und damit die Positionen nur diskret erfaßt werden, sind kontinuierliche Gradienten des Abstands im mathematischen Sinne naturgemäß nicht erfaßbar, so daß näherungsweise diesen Gradienten entsprechende Elementgradienten verwendet werden. Hierbei kann es sich insbesondere um rechtsseitige oder linksseitige Differenzquotienten handeln.
  • Vorzugsweise wird dazu noch überprüft, ob der Abstand der der Geistermessung benachbarten Gegenstands- bzw. Bildpunkte voneinander kleiner ist als die räumliche Länge des Laserpulses. Die räumliche Länge des Laserpulses ist aus der Pulsdauer und der Lichtgeschwindigkeit in Luft berechenbar.
  • Liegen die Koordinaten von Positionen der Rohdatenelemente als Polarkoordinaten vor, so ist die Ermittlung der Elementgradienten besonders einfach. Insbesondere bei von Laserscannern erfaßten tiefenaufgelösten Bildern sind die Winkelabstände aufeinanderfolgender Rohdatenelemente in der Regel im wesentlichen konstant sind. Daher genügt es, nur Differenzen der Abstände zu betrachten, da die Division durch das Winkelinkrement nur eine Normierung darstellt. Es können auch kartesische Koordinaten verwendet werden, aus denen mittels bekannter Formeln entsprechende Elementgradienten gebildet werden können.
  • Besonders bevorzugt ist es daher, daß die Elementgradienten durch Bildung der Differenz zweier Abstandswerte ermittelt werden, die in bezug auf die Winkel aufeinanderfolgen, und daß ein einem virtuellen Gegenstandspunkt entsprechendes Rohdatenelement nur ermittelt wird, wenn der Betrag eines Elementgradienten, der unter Verwendung des Rohdatenelements ermittelt wurde, einen ersten Schwellwert überschreitet und die Änderung der Elementgradienten der Abstandswerte von zu dem Rohdatenelement benachbarten aufeinanderfolgenden Rohdatenelementen oberhalb eines zweiten Schwellwerts liegt oder für dieses Rohdatenelement der Betrag der Änderung des Elementgradienten einen Schwellwert übersteigt.
  • Zu dieser Bedingung können noch weitere Bedingungen, die die Erkennungsgenauigkeit verbessern, kumulativ hinzukommen. Besonders bevorzugt können noch Vorzeichenwechsel aufeinanderfolgender Elementgradienten überwacht werden. Durch die Verwendung von Gradientenfiltern dieser Art ist es insbesondere möglich, einen virtuellen Gegenstandspunkt bzw. eine Abrißkante von einer in dem tiefenaufgelösten Bild sehr schräg stehenden Fläche, wie sie beispielsweise auf einer Fahrbahn durch einen in Fahrtrichtung des Sensors schräg vor diesem fahrenden Bus gegeben sein kann, zu unterscheiden. Der Vorteil dieser Behandlung der Rohdatenelemente besteht darin, daß auf einfache Weise ohne zusätzliche Informationen von dem optoelektronischen Sensor virtuelle Gegenstandspunkte bzw. Abrißkanten erkannt und korrigiert werden können.
  • Die Korrektur kann dabei bevorzugt dadurch erfolgen, daß ein Rohdatenelement, das einem virtuellen Gegenstandspunkt entspricht, aus der Menge der Rohdatenelemente entfernt wird. Vorzugsweise wird dann eine entsprechende Kennzeichnung angebracht, um im weiteren Verlauf des Verfahrens feststellen zu können, daß ein Rohdatenelement entfernt wurde. Dieses Vorgehen empfiehlt sich besonders dann, wenn die benachbarten Gegenstandsflächen sehr unregelmäßig sind.
  • Befinden sich jedoch rechts und links der Abrißkante ebene oder nicht stark gekrümmte oder nicht extrem stark geneigte Flächen, so ist es bevorzugt, daß ein Rohdatenelement, das einem virtuellen Gegenstandspunkt entspricht, durch wenigstens ein Rohdatenelement ersetzt wird, das den gleichen Winkel aufweist, wobei dem Rohdatenelement als Abstand ein aus wenigstens einem in bezug auf den Winkel benachbarten Rohdatenelement mit kleinerem oder größerem Winkel bestimmter Abstand zugeordnet wird. Hiermit wird das ersetzende Rohdatenelement einer der Flächen als Ersatz-Rohdatenelement verwendet, so daß die anschließende Segmentierung genauere Resultate liefert.
  • Vorzugsweise kann das Rohdatenelement auch durch zwei Rohdatenelemente ersetzt werden, die den gleichen Winkel aufweisen, wobei dem ersten dieser Rohdatenelemente als Abstand ein aus wenigstens einem benachbarten Rohdatenelement mit kleinerem Winkel bestimmter Abstand und dem zweiten Rohdatenelement als Abstand ein aus wenigstens einem benachbarten Rohdatenelement mit größerem Winkel bestimmter Abstand zugeordnet wird. Dies bedeutet im Ergebnis, daß die Flächen der beiden sich verdeckenden Gegenstände bis zur Kante ergänzt werden.
  • Hierzu ist es bei beiden Möglichkeiten besonders bevorzugt, daß der zuzuordnende Abstand durch Extrapolation der Abstände der benachbarten Rohdatenelemente bestimmt wird. Hierdurch ergeben sich besonders glatte korrigierte Flächen der sich verdeckenden Gegenstandsbereiche.
  • Die Erkennung von virtuellen Gegenstandspunkten ist in der deutschen Patentanmeldung mit dem amtlichen Aktenzeichen 101 32 335.2, die von der Anmelderin der vorliegenden Anmeldung am 4.7.2001 eingereicht wurde und deren in Inhalt durch Bezugsnahme in die vorliegenden Anmeldung aufgenommen wird, beschrieben.
  • Bevorzugt können die Rohdatenelemente Reflektivitätswerte enthalten, so daß zur Ermittlung eines virtuellen Gegenstandspunkts Gradienten der Reflektivitäten verwendet werden. In bezug auf die Gradienten gilt hier das gleiche wie bei den Abständen, da auch die Reflektivitätswerte in diskreten Winkelabständen erfaßt werden. Die Auswertung der Reflektivitätswerte kann alternativ zu der Auswertung der Abstände erfolgen oder auch in Verbindung mit der Abstandsauswertung.
  • Bevorzugt wird zur Ermittlung eines virtuellen Gegenstandspunkts bzw. einer Geistermessung ein Gradientenfilter verwendet, wie er in bezug auf die Abstände beschrieben wurde.
  • Nach der Bildung der Segmente werden diesen bevorzugt weitere Eigenschaften zugeordnet.
  • Besonders bevorzugt ist es, daß die Rohdatenelemente einen Neigungswinkel enthalten, der einem Winkel zwischen der Achse des von dem Sensor erfaßten, von dem dem Rohdatenelement entsprechenden Gegenstandspunkt ausgehenden Strahlungsbündels und der Normalen auf eine Fläche eines Gegenstands entspricht, die das Strahlungsbündel reflektiert hat, und daß einem Segment als Segmenteigenschaft ein Neigungswinkel zugeordnet wird, der in Abhängigkeit von den Neigungswinkeln der das Segment bildenden Rohdatenelemente ermittelt wird.
  • Ein solcher Neigungswinkel ist insbesondere mit einem Laserscanner der oben genannten Art erfaßbar, wenn die Breiten der empfangenen Pulse mit denen der ausgesandten Pulse verglichen werden. Denn die reflektierten Pulse weisen eine größere Breite auf, die dadurch bedingt ist, daß aufgrund der Neigung näher an dem Sensor gelegene Gegenstandsbereiche Teile des Strahlungspulses früher reflektieren als die aufgrund der Neigung etwas weiter entfernten Bereiche, wodurch die Pulsbreite insgesamt vergrößert wird. Anhand solcher Neigungswinkel können bestimmte Typen von Objekten, insbesondere zum Beispiel Rampen oder Steigungen auf einer Straße, einfach erkannt werden.
  • Durch die Vielzahl der Eigenschaften kann eine spätere Zuordnung zu Objekten erheblich erleichtert werden.
  • Weiterhin ist es bevorzugt, daß für mindestens ein Segment mehrere, besonders bevorzugt mindestens vier, Eigenschaften ausgewählt aus der Gruppe Koordinaten eines Bezugspunkts, insbesondere des Schwerpunkts des Segments, Breite des Segments, Länge des Segments, Reflektivität des Segments, Neigungswinkel des Segments, Anzahl der Rohdatenelemente des Segments und Alter des Segments ermittelt und diesem zugeordnet werden. Vorzugsweise werden 5 oder mehr dieser Eigenschaften ermittelt und dem Segment zugeordnet.
  • Bei dem Bezugspunkt kann es sich um einen beliebigen, aber relativ zu dem Segment fest vorgegebenen Punkt handeln. Bei dem Schwerpunkt des Segments kann es sich um den geometrischen Schwerpunkt des Segments handeln. Weiterhin werden als Breite und Länge des Segments Breite und Länge von Rechtecken verstanden, die das Segment so umschließen, daß auf wenigstens zwei der Seiten des Rechtecks mindestens ein Punkt des Segments liegt. Unter dem Alter des Segments wird eine aus den Erfassungszeiten der dem Segment zugehörigen Rohdatenelemente entsprechende Größe verstanden.
  • Weiterhin können bevorzugt die Rohdatenelemente eine Höheninformation enthalten, wobei die Höheninformation zur Segmentierung verwendet wird. Unter Höhe wird dabei die Höhe einer im wesentlichen senkrecht zur Fläche des Sichtbereichs stehenden Fläche verstanden, die beispielsweise mit einem mehrzeiligen, gleichzeitig eine Abtastung in mehreren übereinander liegenden Abtastebenen durchführenden Laserscanner erfaßt werden kann. Diese weitere Rohdatenelementinformation kann zu einer noch besseren Segmentierung verwendet werden, da Segmente zusätzlich durch die Höhe definierbar sind. Das Vorgehen bei der Segmentierung in bezug auf die Höhe entspricht im wesentlichen dem beim Abstand, wobei beispielsweise ein dreidimensionaler Element-Element-Abstand verwendet werden kann.
  • Für den Fall, daß die Rohdatenelemente eine Höheninformation enthalten, ist es bevorzugt, daß für ein Segment als Eigenschaft in Abhängigkeit von den Höhen der dieses Segment bildenden Rohdatenelemente eine Segmenthöhe ermittelt und diesem zugeordnet wird. Auch diese Segmenteigenschaft kann in einem späteren Verarbeitungsschritt des Bildes beispielsweise für eine Objekterkennung verwendet werden.
  • Das erfindungsgemäße Verfahren wird bevorzugt für ein Verfahren zur Objekterkennung und -verfolgung auf der Basis tiefenaufgelöster Bilder eines Sichtbereichs verwendet, wobei die Bilder von einem optoelektronischen Sensor, insbesondere einem Laserscanner, bei einer Abtastung seines Sichtbereichs erfaßt wurden.
  • Weiterer Gegenstand der Erfindung ist ein Computerprogramm mit Programmcode-Mitteln, um das erfindungsgemäße Verfahren durchzuführen, wenn das Programm auf einem Computer bzw. einer Datenverarbeitungsanlage ausgeführt wird.
  • Gegenstand der Erfindung ist ferner ein Computerprogrammprodukt mit Programmcode-Mitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um das erfindungsgemäße Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer ausgeführt wird.
  • Unter einem Computer wird hierbei eine beliebige Datenverarbeitungsvorrichtung verstanden, mit der das Verfahren ausgeführt werden kann. Insbesondere kann diese einen digitalen Signalprozessor und/oder Mikroprozessor aufweisen, mit dem das Verfahren ganz oder in Teilen ausgeführt wird.
  • Weiterer Gegenstand der Erfindung ist ein Verfahren zur Erkennung und Verfolgung von Gegenständen in einem Sichtbereich eines Sensors, insbesondere eines Laserscanners, bei dem mit dem Sensor zeitlich aufeinanderfolgend tiefenaufgelöste Bilder wenigstens eines Teils seines Sichtbereichs erfaßt werden, und bei dem die erfaßten Bilder mit dem erfindungsgemäßen Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes verarbeitet werden.
  • Außerdem ist Gegenstand der Erfindung eine Vorrichtung zur Erzeugung eines Modells eines Überwachungsbereichs mit mindestens einem Sensor für elektromagnetische Strahlung, vorzugsweise einem optoelektronischen Sensor, insbesondere einem Laserscanner, dessen Sichtbereich den Überwachungsbereich einschließt, und mit einer Datenverarbeitungseinrichtung, die zur Durchführung eines erfindungsgemäßen Verfahrens ausgebildet ist.
  • Bevorzugt weist die Datenverarbeitungseinrichtung dazu einen Prozessor und eine Speichereinrichtung auf, in der ein erfindungsgemäßes Computerprogramm zur Ausführung auf dem Prozessor gespeichert ist. Die Datenverarbeitungseinrichtung kann dabei als Prozessor besonders bevorzugt einen digitalen Signalprozessor aufweisen.
  • Bevorzugte Ausführungsformen der Erfindung werden nun beispielhaft anhand der Zeichnungen beschrieben. Es zeigen:
  • Fig. 1 eine schematische Draufsicht auf eine erfindungsgemäße Vorrichtung zur Erzeugung eines Modells eines Überwachungsbereichs und einen Sichtbereich der Vorrichtung mit zwei Fahrzeugen,
  • Fig. 2 ein schematisches Ablaufdiagramm eines Verfahrens nach einer ersten bevorzugten Ausführungsform der Erfindung,
  • Fig. 3 eine schematische Draufsicht auf eine Szene mit zwei sich verdeckenden Gegenständen und einem Laserscanner,
  • Fig. 4 ein Diagramm zur Erläuterung eines bei dem in Fig. 2 dargestellten Verfahren verwendeten Gradientenfilters, und
  • Fig. 5 ein schematisches Ablaufdiagramm eines Verfahrens nach einer zweiten bevorzugten Ausführungsform der Erfindung.
  • In Fig. 1 ist ein Laserscanner 10 an der Frontseite eines Kraftfahrzeugs 12 gehalten, um Gegenstände vor dem Kraftfahrzeug 12 zu erfassen.
  • Der Laserscanner 10 weist einen in Fig. 1 nur teilweise gezeigten Sichtbereich 14 auf, der aufgrund der Anbaulage symmetrisch zur Längsachse des Kraftfahrzeugs 12 einen Winkel von etwa 180° abdeckt. Dieser Sichtbereich entspricht auch dem Überwachungsbereich des Laserscanners 10. Der Sichtbereich ist in Fig. 1 nur schematisch und zur besseren Darstellung insbesondere in radialer Richtung zu klein dargestellt. In dem Sichtbereich 14 befinden sich beispielhaft zwei Fahrzeuge 16 und 18 als zu erfassende Gegenstände.
  • Der Laserscanner 10 tastet seinen Sichtbereich 14 in grundsätzlich bekannter Weise mit einem mit konstanter Winkelgeschwindigkeit umlaufenden, gepulsten Laserstrahlungsbündel ab, wobei ebenfalls umlaufend in konstanten Zeitabständen Δt zu Zeiten τi in festen Winkelbereichen um einen mittleren Winkel αi detektiert wird, ob das Strahlungsbündel von einem Punkt bzw. Bereich eines Gegenstands reflektiert wird. Der Index i läuft dabei von 1 bis zur Anzahl der Winkelbereiche im Sichtbereich. Von diesen Winkelbereichen sind in Fig. 1 nur einzelne gezeigt, unter anderem die den mittleren Winkeln αi-1, αi und αi+1 zugeordneten Winkelbereiche. Hierbei sind die Winkelbereiche zur deutlicheren Darstellung übertrieben groß gezeigt. Anhand der Laufzeit des Laserstrahlpulses wird der Sensorabstand di des Gegenstandspunktes von dem Laserscanner 10 ermittelt. Der Laserscanner 10 erfaßt daher als Koordinaten in dem Rohdatenelement für den Gegenstandspunkt 19 des Kraftfahrzeugs 16 den Winkel cci und den bei diesem Winkel festgestellten Abstand di, das heißt die Position des Gegenstandspunkts 19 in Polarkoordinaten.
  • Weiterhin erfaßt der Laserscanner 10 auch die Reflektivität Ri des Gegenstandspunktes 19 in dem Rohdatenelement für den Gegenstandspunkt 19. Bei einer Abtastung des Sichtbereichs werden von dem Laserscanner 10 somit Rohdatenelemente mit Koordinaten (αi, di) und Reflektivität Ri bereitgestellt, wobei i eine natürliche Zahl zwischen 1 und der Anzahl der von dem Laserscanner 10 erfaßten Rohdatenelemente ist.
  • Die Menge der bei einer Abtastung erfaßten Rohdatenelemente bildet ein tiefenaufgelöstes Bild im Sinne der vorliegenden Anmeldung.
  • Der Laserscanner 10 tastet seinen Sichtbereich 14 jeweils in aufeinanderfolgenden Abtastungen ab, so daß eine zeitliche Folge von Abtastungen entsteht.
  • Zur Verarbeitung der Rohdatenelemente weist der Laserscanner 10 eine Auswerteelektronik bzw. Datenverarbeitungseinrichtung 20 auf, die im Beispiel in dem Laserscanner 10 angeordnet ist, grundsätzlich aber auch davon abgesetzt angeordnet sein kann. Die Datenverarbeitungseinrichtung 20 weist unter anderem einen zur Ausführung des erfindungsgemäßen Verfahrens programmierten digitalen Signalprozessor und eine mit dem digitalen Signalprozessor verbundene Speichereinrichtung auf.
  • Das Verfahren nach einer bevorzugten Ausführungsform der Erindung ist schematisch in Fig. 2 dargestellt.
  • Im Schritt S10 werden zunächst die Rohdatenelemente eines von dem Laserscanner 10 erfaßten tiefenaufgelösten Bildes eingelesen.
  • In Schritt S12 wird daraufhin das eingelesene Bild auf Geistermessungen bzw. virtuelle Gegenstandspunkte untersucht und bei Auffinden von virtuellen Gegenstandspunkten korrigiert. Das Vorgehen zur Erkennung von virtuellen Gegenstandspunkten ist beispielhaft in Fig. 3 und Fig. 4 dargestellt.
  • In Fig. 3 befinden sich in Fahrtrichtung vor dem Kraftfahrzeug 12 mit dem Laserscanner 10 zwei Gegenstände 22 und 24. Die Gegenstandspunkte 26 auf dem Gegenstand 22 und die Gegenstandspunkte 28 auf dem Gegenstand 24, die Rohdatenelementen in dem von dem Laserscanner 10 erfaßten Bild entsprechen, sind in Fig. 3 durch schwarze Punkte gekennzeichnet. Wie in Fig. 3 leicht zu erkennen, wird durch den Gegenstand 24 der rechte Teil des Gegenstands 22 verdeckt, so daß der Laserscanner 10 in diesem Winkelbereich nur Gegenstandspunkte 28 des Gegenstands 24 erfaßt. Die Gegenstandspunkte bzw. die entsprechenden Rohdatenelemente sind dabei von links nach rechts fortschreitend in konstanten Zeitabständen erfaßt worden. Bei dem Winkel αj hat ein gepulstes Laserstrahlungsbündel 30 des Laserscanners 10 sowohl einen Bereich des Gegenstands 22 als auch einen Bereich des Gegenstands 24 bestrahlt, so daß von beiden Gegenständen zu unterschiedlichen Zeiten reflektierte Laserstrahlungspulse sich überlagernd von dem Laserscanner 10 erfaßt werden, der daraufhin diesem Winkel einen Abstand dj zuordnet, wodurch ein Rohdatenelement mit Koordinaten αj und dj erzeugt wird, das einem nur virtuellen Gegenstandspunkt 32 entspricht. Diese Situation wird auch als Auftreten einer Geistermessung oder Abrißkante bezeichnet.
  • Der Verlauf der erfaßten Abstände di als Funktion der Winkel αi ist in Fig. 4 nochmals schematisch dargestellt. Die den Gegenstandspunkten 26 entsprechenden Abstände di sind zunächst im wesentlichen konstant und fallen dann abrupt bei dem Winkel αj auf den Abstand dj und von dort weiter auf den Abstand dj+1, der dem Gegenstandspunkt 28' an der linken Ecke des Gegenstands 24 entspricht. Aufgrund der Schräglage des Gegenstands 24 relativ zu dem Laserscanner 10 fallen dann für folgende Winkel αi die Abstände di weiter ab.
  • Erfindungsgemäß werden nun Elementgradienten gi gebildet, die proportional zu dem Gradienten des erfaßten Abstands der Gegenstandspunkte in bezug auf den Winkel sind. Hierzu werden Differenzen aufeinanderfolgender Abstände di-1 und di gebildet:

    gi = di - di-1.
  • Der Betrag der Elementgradienten gi ist in Fig. 4 ebenfalls schematisch dargestellt. Im Bereich des Winkels αj, das heißt des virtuellen Gegenstandspunktes 32 bzw. der Abrißkante, ist ein starkes Ansteigen des Gradienten zu erkennen. Zur Erkennung des virtuellen Gegenstandspunktes wird daher überprüft, ob der Betrag des Gradienten gi einen vorgegebenen Schwellwert gs überschreitet. Dies ist im in Fig. 3 und 4 dargestellten Beispiel für die Koordinaten mit den Winkeln αj und αj+1 der Fall. Bedingt durch die Wahl der Darstellung des Elementgradienten gi durch die Differenz der Abstände di und di-1 wird das Rohdatenelement mit dem Winkel aj als Kandidat für einen virtuellen Gegenstandspunkt angesehen. Um den virtuellen Gegenstandspunkt 32 von einem Gegenstandspunkt einer schräg stehenden Fläche unterscheiden zu können, wird weiterhin der Betrag der Änderung des Elementgradienten gi auf das Überschreiten eines zweiten Schwellwerts h8 untersucht. Genauer gesagt: es wird überprüft, ob

    |gi - gi-1|> hs und
    |gj+2 - gj+1|> hs

    ist. Hierbei wird wiederum berücksichtigt, daß zur Bildung der Elementgradienten jeweils der vorhergehende Abstandswert und der aktuelle Abstandswert verwendet wurden. Zusätzlich kann überprüft werden, ob die bei dem Vergleich mit dem Schwellwert hs verwendeten Änderungen des Elementgradienten unterschiedliche Vorzeichen aufweisen. Ist dies der Fall, wird ein virtueller Gegenstandspunkt erkannt.
  • Weiterhin wird überprüft, ob der Abstand der dem virtuellen Gegenstandspunkt benachbarten Bildpunkte geringer ist als die Länge des Laserpulses. Nur in diesem Fall wird von einem tatsächlichen virtuellen Gegenstandspunkt ausgegangen.
  • Da ein virtueller Gegenstandspunkt erkannt wurde, wird das dem Winkel αj entsprechende Rohdatenelement durch zwei Rohdatenelemente mit dem gleichen Winkel ersetzt, wobei dem einen der ersetzten Rohdatenelemente als Abstand ein sich aus den benachbarten Abständen dj-1 und dj-2 ergebender Abstand d = dj-1 + dj-1 - dj-2 und dem zweiten eingefügten Datenpunkt ein Abstand d = dj+1 - (dj+2 - dj+1) zugeordnet wird, der sich jeweils durch Extrapolation aus den benachbarten Punkten ergibt.
  • Nach Abschluß dieser Korrektur von Geistermessungen in Schritt S12 wird im Schritt S14 (vgl. Fig. 2) eine Transformation der Polarkoordinaten in den Rohdatenelementen in kartesische Koordinaten vorgenommen, um dann auf einfachere Weise im Schritt S16 Korrekturen von durch Bewegungen des Laserscanners 10 oder der Gegenstände 16 oder 18 hervorgerufenen Verschiebungen vornehmen zu können. Dabei wird als y-Achse die Fahrzeuglängsachse und als dazu senkrechte x-Achse die zur Fahrzeuglängsachse senkrechte Achse durch den Laserscanner 10 gewählt.
  • In Schritt S16 werden Fehler in den Positionen der Rohdatenelemente, die durch Bewegungen des Laserscanners 10 bzw. der Gegenstände 16 und 18 während einer Abtastung hervorgerufen werden, korrigiert.
  • In diesem Beispiel wird davon ausgegangen, daß der Laserscanner den Sichtbereich in 2.N+1 Schritten abtastet, wobei N eine natürliche Zahl, beispielsweise 180, ist. Als Bezugszeitpunkt für die Korrektur wird der Zeitpunkt der Erfassung des Rohdatenelements im Schritt N+1 gewählt, um Fehler bei der Korrektur zu minimieren, die durch Abweichungen der Bewegungen des Laserscanners 10 und/oder der Gegenstände 16 oder 18 von einer geradlinigen und gleichförmigen Bewegung hervorgerufen werden.
  • Daraufhin wird die vektorielle Geschwindigkeit für den Laserscanner 10 eingelesen. Diese Geschwindigkeit wird dabei von einem entsprechenden, in Fig. 1 nicht gezeigten Geschwindigkeitssensor des Kraftfahrzeugs 12unter Berücksichtigung der Lage des Laserscanners 10 relativ zu dem Kraftfahrzeug 12 bestimmt. Bei einer einfachen Näherung kann die Geschwindigkeit des Laserscanners 10 durch die Fahrzeuggeschwindigkeit ohne die Berücksichtigung der Lage des Laserscanners 10 gegeben sein.
  • Bei dem Verfahren nach diesem Ausführungsbeispiel wird nach der Segmentierung und weiteren Schritten im Schritt S24 eine Objekterkennung und -verfolgung durchgeführt, bei der, beispielsweise mittels eines Kalman-Filters und geeigneter Modelle für die Bewegung erkannter Objekte, Schätzwerte für kinematische Daten der erkannten Objekte bestimmt werden. Zu diesen kinematischen Daten gehören neben den Positionen die Geschwindigkeiten der erkannten Objekte. Weiterhin wird bei dieser Objekterkennung und/oder -verfolgung die Zuordnung der Rohdatenelemente zu dem jeweiligen Objekt gespeichert.
  • In Schritt S10 wird diese Zuordnung verwendet, um den Rohdatenelementen als kinematische Daten die Geschwindigkeit der in der vorhergehenden Iteration erkannten Objekte zuzuordnen. In dem in Fig. 1 gezeigten Beispiel heißt das konkreter, daß dem Rohdatenelement für den Gegenstandspunkt 19 als Geschwindigkeit die Geschwindigkeit des dem Gegenstand 16 entsprechenden Objekts zugeordnet wird.
  • Anschließend wird die Differenz zwischen einer Erfassungszeit ti des Rohdatenelements i und der Bezugszeit tN+1 berechnet. Erfolgt die Erfassung der 2N+1 Rohdatenelemente in einer Zeit T für eine Abtastung, so wird als Erfassungszeit

    ti (N + 1 - i).T/(2.N + 1)

    definiert, so daß sich als Bezugszeit innerhalb einer Abtastung tN+1 gleich 0 ergibt.
  • Daraufhin werden die Koordinaten des Rohdatenelements i um den Vektor verschoben, der sich aus der Multiplikation der zuvor für das Rohdatenelement i bestimmten Zeitdifferenz und der Summe des der Eigenbewegung des Laserscanners 10 entsprechenden Geschwindigkeitsvektors und des dem Rohdatenelement i zugeordneten Geschwindigkeitsvektors ergibt.
  • Diese Operationen werden für jedes der Rohdatenelemente durchgeführt.
  • In dem folgenden Schritt S18 wird die eigentliche Segmentbildung durchgeführt. Die Basis der Segmentbildung sind die bezüglich etwaiger virtueller Gegenstandspunkte und bezüglich der durch Bewegungen während einer Abtastung hervorgerufenen Fehler korrigierten Rohdatenelemente.
  • Hierbei werden als Beziehungen zwischen den Rohdatenelementen Quadrate von Abständen berechnet und auf das Überschreiten oder Unterschreiten eines entsprechend gewählten Trennparameters D überprüft.
  • Hierzu wird für jedes Paar von Rohdatenelementen i und j, das die korrigierten, kartesischen Koordinaten (xi, yi) bzw. (xj, yj) für die entsprechenden Positionen umfaßt, der Abstand


    berechnet, bei dem die Abstände in x- bzw. y-Richtung durch den zwischen 0 und 1 wählbaren Gewichtungsparameter g unterschiedlich gewichtet sind. Im einfachsten Fall ist g = 0,5, d. h. Differenzen in den Koordinaten in x- und y-Richtung sind gleich stark gewichtet.
  • Nach Berechnung dieser Abstände für alle Paare von Rohdatenelementen werden Segmente gebildet. Ein Segment ergibt sich dabei aus einer Menge von Rohdatenelementen, von denen jedes von mindestens einem anderen Rohdatenelement der Menge einen Abstand hat, der kleiner als der Trennparameter D ist. Als Segmentierungsparameter werden in diesem Beispiel also der Trennparameter D und der Gewichtungsparameter g verwendet.
  • In Schritt S20 werden für diese Segmente Segmenteigenschaften berechnet. Hierbei handelt es sich insbesondere um den geometrischen Schwerpunkt der Koordinaten der Rohdatenelemente, die ein Segment bilden, um die Anzahl der das Segment bildenden Rohdatenelemente, um ein mittleres "Alter" der Segmente, das sich aus dem Mittelwert der Erfassungszeiten der das Segment bildenden Rohdatenelemente ergibt, und um eine Breite bzw. Länge des Segments. Die Breite und die Länge des Segments ergeben sich dabei in diesem Ausführungsbeispiel aus dem Rechteck kleinster Breite und kleinster Länge, das alle Rohdatenelemente, bzw. deren Koordinaten, enthält.
  • Im folgenden Schritt S22 werden die so berechneten Segmenteigenschaften gespeichert oder auch gegebenenfalls ausgegeben.
  • Im folgenden Schritt S24 wird auf der Basis dieser Segmente die oben schon erwähnte Objekterkennung und -verfolgung durchgeführt.
  • Bei einem Verfahren nach einer zweiten bevorzugten Ausführungsform der Erfindung werden in Abweichung von dem Verfahren nach der ersten bevorzugten Ausführungsform die Segmentierungsparameter, das heißt der Trennparameter D und/oder der Gewichtungsparameter g, adaptiv an die Fahrsituation angepaßt. Das Verfahren ist in Fig. 5 schematisch dargestellt, wobei für gleiche Schritte die gleichen Bezugszeichen verwendet werden.
  • Vor der Segmentierung in Schritt S18 werden in Schritt S26 Werte von Fahrzeugparametern, z. B. dem Lenkwinkel und der Geschwindigkeit des Fahrzeugs 12, eingelesen und die Segmentierungsparameter D und g unter Verwendung einer Heuristik entsprechend angepaßt.
  • Beispielsweise wird durch Überwachung der Größe der Lenkeinschläge und der Geschwindigkeit des Fahrzeugs 12 zwischen einer Rangiersituation, beispielsweise auf einem Parkplatz, und einer Autobahnfahrt unterschieden. Die Rangiersituation ist dadurch gekennzeichnet, daß bei sehr niedrigen Geschwindigkeiten, beispielsweise unterhalb von 10 km/h, große Lenkwinkel, beispielsweise oberhalb von 15°, auftreten. Die Autobahnfahrt zeichnet sich demgegenüber durch hohe Geschwindigkeiten, beispielsweise über 80 km/h, und geringe Beträge der Lenkwinkel, beispielsweise unter 10°, aus.
  • Bei Erkennung einer Rangiersituation, bei der es darauf ankommt, Objekte möglichst genau aufzulösen, um insbesondere auch Fußgänger erkennen zu können, wird der Trennparameter D auf einen sehr geringen Abstand, beispielsweise 30 cm, eingestellt und der Gewichtungsparameter g auf den Wert 0,5 gesetzt, so daß in allen Richtungen gleichmäßig eine sehr gute Trennung zwischen Segmenten erreicht wird.
  • Bei einer Autobahnfahrt dagegen treten in der Regel geringe Querabstände zwischen nebeneinander auf verschiedenen Fahrstreifen fahrenden Fahrzeugen auf, während in Längsrichtung zumindest bei den als Kriterium für eine Autobahnfahrt geltenden Geschwindigkeiten die auftretenden Abstände zwischen hintereinander herfahrenden Fahrzeugen sehr groß sein können. Um also eine bessere Trennung in Querrichtung zu erreichen und eine zu starke Trennung in Längsrichtung zu vermeiden, wird der Gewichtungsparameter g in diesem Fall auf beispielsweise den Wert 0,8 gesetzt, so daß in der oben angegebenen Formel für den Abstand zwischen zwei Rohdatenelementen i und j, dij(g), die Abstände in y- Richtung, d. h. senkrecht zur Fahrzeuglängsachse und Fahrtrichtung, wesentlich stärker gewichtet werden. Die geringe Gewichtung der Abstände in x-Richtung hat darüber hinaus den Vorteil, daß Rohdatenelemente, die auf einer Längsseite eines Fahrzeugs erfaßt werden und bedingt durch die Perspektive des Laserscanners 10 weit voneinander entfernt sind, noch zu einem Segment zusammengefaßt werden können.
  • Weiterhin wird in diesem Fall der Trennparameter D auf einen größeren Wert gesetzt, um eine zu hohe Auflösung in verschiedene Segmente, wie sie beispielsweise bei Erfassung eines Lastkraftwagens in Höhe der Achse auftreten kann, zu vermeiden. So können beispielsweise Radkästen und Achsen eines Lastkraftwagens ohne weiteres einem Segment zugeordnet werden. Im Ausführungsbeispiel wird dazu der Trennparameter D auf den Wert von 1 m gesetzt.
  • Insgesamt wird hierdurch ein möglicher Objektzerfall durch eine Auflösung in zu viele Segmente verhindert.
  • Bei einem Verfahren nach einer dritten bevorzugten Ausführungsform der Erfindung werden gegenüber dem Verfahren nach der ersten Ausführungsform der Erindung bei der Segmentierung zusätzlich Reflektivitäten von Gegenstandspunkten berücksichtigt. Das Verfahren hierzu entspricht dem für das erste Ausführungsbeispiel geschilderten Verfahren, wobei jedoch Rohdatenelemente verwendet werden, die einen Reflektivitätswert für jeden Gegenstandspunkt enthalten.
  • Bei der Korrektur von Geistermessungen entsprechend Schritt S12 werden den Rohdatenelementen, die das einem virtuellen Gegenstandspunkt entsprechende Rohdatenelement ersetzen, jeweils die Reflektivitäten der Rohdatenelemente zugeordnet, deren Koordinaten auch zur Bestimmung der Koordinaten der Ersatzrohdatenelemente dienen.
  • Bei der Segmentbildung entsprechend Schritt S18 werden als weitere Beziehungen zwischen Rohdatenelementen die Beträge der Differenzen zwischen den Reflektivitäten Ri und Rj von Rohdatenelementen i und j berechnet und mit einem Schwellwert Rs verglichen. Die Segmentierungsparameter umfassen daher den Trennparameter D, den Gewichtungsparameter g und den Schwellwert Rs.
  • Zwei Punkte werden nur dann einem Segment zugeordnet, wenn sowohl das Kriterium für die Abstände, das heißt dij(g) < D, und gleichzeitig das Kriterium für die Reflektivitäten, das heißt |Ri - Rj|< Rs, erfüllt sind. Dies hat insbesondere zur Folge, daß beispielsweise sehr nahe an einer Wand stehende Personen, bei der Segmentierung von der Wand getrennt werden können, da die ihnen zugeordneten Rohdatenelemente eine andere Reflektivität aufweisen als die Rohdatenelemente der dahinter liegenden Wand, während sonst aufgrund der geringen geometrischen Abstände die Rohdatenelemente von Wand und Person zu einem Segment zusammengefaßt würden.
  • Bei der Berechnung der Segmenteigenschaften in Schritt S20' wird zusätzlich zu den bisher schon genannten Eigenschaften für jedes Segment eine mittlere Reflektivität berechnet, die sich als Mittelwert über die Reflektivitäten der Rohdatenelemente ergibt, die das Segment bilden.
  • Weiterhin sind von dem Laserscanner 10 erfaßte Neigungsdaten in den Rohdatenelementen enthalten. Bei den Neigungsdaten handelt es sich, wie einleitend ausgeführt, um die Neigung der Gegenstandsoberfläche im Bereich des einem Rohdatenelement entsprechenden Gegenstands, relativ zur Richtung des abtastenden Strahlungsbündels. Bei der Berechnung der Segmenteigenschaften im Schritt S20' kann dann sowohl eine mittlere Neigung des Segments, berechnet als Mittelwert der Neigungsdaten, als auch eine Schwankung der Neigungsdaten, berechnet als Standardabweichung von dem berechneten Mittelwert, ausgegeben werden. Dies erleichtert es bei bestimmten Segmenten, bestimmte Typen von Objekten, beispielsweise Fahrbahnrampen, zu erkennen.
  • Bei einem Verfahren nach einer vierten bevorzugten Ausführungsform der Erfindung werden im Vergleich zu dem Verfahren nach der ersten Ausführungsform der Erfindung andere Beziehungen zwischen den Rohdatenelementen und andere Segmentierungsparameter verwendet. Anstelle des mit dem Gewichtungsfaktor g gewichteten Abstands dij(g), des Trennparameters D und des Gewichtungsparameters g werden die Abstände der Koordinaten in x- und y-Richtung verwendet. Dazu werden für die Abstände in den beiden Richtungen als Segmentierungsparameter jeweils unterschiedliche Trennparameter Dx und Dy verwendet, so daß die Abstandskriterien zum Beispiel lauten können:

    |xi - xj|< Dx
    |yi - yj|< Dy,

    wobei i und j jeweils unterschiedliche Rohdatenelemente bezeichnen. Eine Segmentzugehörigkeit wird nur dann erkannt, wenn beide Abstandskriterien erfüllt sind.
  • Eine unterschiedliche Gewichtung in den beiden Koordinatenrichtungen läßt sich dadurch erreichen, daß das Verhältnis von Dx zu Dy nicht auf den Wert 1 gesetzt wird, sondern beispielsweise im Fall einer Autobahnfahrt Dy deutlich kleiner gewählt wird als Dx. Bezugszeichenliste 10 Laserscanner
    12 Kraftfahrzeug
    14 Sichtbereich
    16 Kraftfahrzeug
    18 Kraftfahrzeug
    20 Auswerteelektronik
    22 Gegenstand
    24 Gegenstand
    26 Gegenstandspunkte auf Gegenstand 22
    28, 28' Gegenstandspunkte auf Gegenstand 24
    30 Laser-Strahlungsbündel
    32 virtueller Gegenstandspunkt

Claims (27)

1. Verfahren zur Verarbeitung eines bevorzugt tiefenaufgelösten Bildes eines Überwachungsbereichs, das von einem Sensor für elektromagnetische Strahlung, insbesondere einem Laserscanner (10), bei einer Abtastung seines Sichtbereichs (14) erfaßt wurde und Rohdatenelemente umfaßt, die Punkten (19, 26, 28, 28') auf Gegenständen (16, 18, 22, 24) in dem Überwachungsbereich entsprechen und die Koordinaten der Positionen der Gegenstandspunkte (19, 26, 28, 28') enthalten, dadurch gekennzeichnet, daß Beziehungen zwischen den Rohdatenelementen ermittelt und die Rohdatenelemente auf der Basis der Beziehungen nach wenigstens einem vorgegebenen Kriterium zu einem oder mehreren Segmenten zusammengefaßt werden, wobei die Beziehungen und/oder das Kriterium von wenigstens einem Segmentierungsparameter abhängen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß die Beziehungen zwischen Rohdatenelementen räumliche Element-Element-Abstände der Positionen je zweier Rohdatenelemente umfassen,
daß eine Segmentzugehörigkeit eines Rohdatenelements nur festgestellt wird, wenn zumindest der Element-Element-Abstand der Position des Rohdatenelements von der Position wenigstens eines anderen, dem Segment zuzuordnenden Rohdatenelements den Wert eines entsprechenden Segmentierungsparameters unterschreitet.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß zur Ermittlung des Element-Element-Abstands zweier Rohdatenelemente eine Abstandsfunktion der Differenzen von Koordinaten der Rohdatenelemente und als ein weiterer Segmentierungsparameter ein Gewichtungsparameter verwendet werden, wobei die Differenzen über den Gewichtungsparameter relativ zueinander gewichtet werden.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß die Beziehungen zwischen Rohdatenelementen zwei Element- Element-Abstände der Positionen je zweier Rohdatenelemente umfassen, die sich jeweils auf eine der Koordinaten der Rohdatenelemente beziehen und denen jeweils ein weiterer Segmentierungsparameter zugeordnet ist, und
daß eine Segmentzugehörigkeit eines Rohdatenelements nur festgestellt wird, wenn beide Element-Element-Abstände zwischen den Positionen des Rohdatenelements und der Position wenigstens eines anderen, dem Segment zuzuordnenden Rohdatenelements die Werte der entsprechenden Segmentierungsparameter unterschreiten.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß wenigstens ein Segmentierungsparameter von dem Abstand der Position wenigstens eines der beiden bei der Ermittlung der Beziehung zwischen zwei Rohdatenelementen verwendeten Rohdatenelemente zu dem Sensor (10) und/ oder der Richtung der Position relativ zu einer vorgegebenen Achse durch den Sensor abhängt.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet,
daß dem Sensor (10) eine Achse zugeordnet ist, und
daß durch Wahl wenigstens eines entsprechenden Segmentierungsparameters Positionsdifferenzen in Richtung der Achse weniger stark berücksichtigt werden als in einer Richtung senkrecht zu der Achse.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
daß die Rohdatenelemente die Position eines Gegenstandspunkts (19, 26, 28, 28') und dessen Reflektivität umfassen, und
daß zur Segmentierung die Beziehungen zwischen Rohdatenelementen Unterschiede in den Reflektivitäten von je zwei Gegenstandspunkten umfassen.
8. Verfahren nach Anspruch 7, dadurchgekennzeichnet,
daß als weiterer Segmentierungsparameter eine maximale Reflektivitätsdifferenz verwendet wird, und
daß eines der Rohdatenelemente einem Segment nur zugeordnet wird, wenn es wenigstens einem Kriterium für mindestens einen Element-Element-Abstand zu mindestens einem weiteren, dem Segment zuzuordnenden Rohdatenelement genügt und wenn sich die Reflektivitäten des Rohdatenelements und des weiteren Rohdatenelements um weniger als die maximale Reflektivitätsdifferenz unterscheiden.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, daß wenigstens einer der Segmentierungsparameter situationsadaptiv angepaßt wird.
10. Verfahren nach Anspruch 9, dadurchgekennzeichnet, daß eine tatsächliche oder eine daran angenäherte Bewegung des Sensors (10) ermittelt wird, und daß wenigstens einer der Segmentierungsparameter unter Verwendung der Geschwindigkeit des Sensors (10) adaptiert wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet,
daß ein Bild verwendet wird, das dadurch erhalten wurde, daß bei einer Abtastung des Sichtbereichs (14) des Sensors (10) die Rohdatenelemente nacheinander erfaßt wurden,
und daß vor der Segmentbildung die Position der Rohdatenelemente jeweils entsprechend der tatsächlichen oder einer daran angenäherten Bewegung des Sensors und der Differenz zwischen den Erfassungszeitpunkten der jeweiligen Rohdatenelemente und einem Bezugszeitpunkt korrigiert werden.
12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
daß Bilder verwendet werden, die dadurch erhalten wurden, daß bei einer Abtastung des Sichtbereichs (14) des Sensors (10) die Rohdatenelemente nacheinander erfaßt wurden,
daß eine Folge von Bildern erfaßt und eine Objekterkennung und/oder -verfolgung auf der Basis der Rohdatenelemente der Bilder durchgeführt wird, wobei jedem erkannten Objekt Rohdatenelemente und jedem dieser Rohdatenelemente bei der Objektverfolgung berechnete Bewegungsdaten zugeordnet werden, und
daß vor der Segmentbildung die Positionen der Rohdatenelemente unter Verwendung der Ergebnisse der Objekterkennung und/oder -verfolgung korrigiert werden.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, daß bei der Korrektur die Koordinaten der Rohdatenelemente entsprechend der ihnen zugeordneten Bewegungsdaten und der Differenz zwischen der Erfassungszeit der Rohdatenelemente und einem Bezugszeitpunkt korrigiert werden.
14. Verfahren nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, daß der Bezugszeitpunkt zwischen der frühesten als Erfassungszeit definierten Zeit eines Rohdatenelements einer Abtastung und der zeitlich letzten als Erfassungszeit definierten Zeit eines Rohdatenelements der Abtastung liegt.
15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zur Erkennung eines einem virtuellen Gegenstandspunkt (32) entsprechenden Rohdatenelements in einem vorgegebenen Winkelbereich des Sichtbereichs, das durch eine gleichzeitige Erfassung von zwei in dem Bild hintereinanderliegenden Gegenständen erhalten wurde, auf die Rohdatenelemente, die in dem Winkelbereich liegen, ein Gradientenfilter angewendet wird, der jeweils den Rohdatenelementen zugeordnete Elementgradienten verwendet, die Gradienten des radialen Abstands der Position des Rohdatenelements von dem Sensor in Bezug auf den Winkel der Position zu einer vorgegebenen Achse durch den Sensor entsprechen.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet,
daß die Elementgradienten durch Bildung der Differenz zweier Abstandswerte ermittelt werden, die in Bezug auf die Winkel aufeinanderfolgen, und
daß ein einem virtuellen Gegenstandspunkt (32) entsprechendes Rohdatenelement nur ermittelt wird, wenn der Betrag eines Elementgradienten, der unter Verwendung des Rohdatenelements ermittelt wurde, einen ersten Schwellwert überschreitet und die Änderung der Elementgradienten der Abstandswerte von zu dem Rohdatenelement benachbarten, aufeinanderfolgenden Rohdatenelementen oberhalb eines zweiten Schwellwerts liegt oder für dieses Rohdatenelement der Betrag der Änderung des Elementgradienten einen Schwellwert übersteigt.
17. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß ein Rohdatenelement, das einem virtuellen Gegenstandspunkt (32) entspricht, aus der Menge der Rohdatenelemente entfernt wird.
18. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß ein Rohdatenelement, das einem virtuellen Gegenstandspunkt (32) entspricht, durch wenigstens ein Rohdatenelement ersetzt wird, das den gleichen Winkel aufweist, wobei dem Rohdatenelement als Abstand ein aus wenigstens einem in Bezug auf den Winkel benachbarten Rohdatenelement mit kleinerem oder größerem Winkel bestimmter Abstand zugeordnet wird.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß der zuzuordnende Abstand durch Extrapolation der Abstände der benachbarten Rohdatenelemente bestimmt wird.
20. Verfahren nach einem der Ansprüche 15 bis 19, dadurch gekennzeichnet, daß die Rohdatenelemente Reflektivitätswerte enthalten und zur Ermittlung eines virtuellen Gegenstandspunkts Gradienten der Reflektivitäten verwendet werden.
21. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
daß die Rohdatenelemente einen Neigungswinkel enthalten, der einem Winkel zwischen der Achse des von dem Sensor erfaßten Strahlungsbündels und der Normalen auf eine Fläche eines Gegenstands entspricht, die das Strahlungsbündel reflektiert hat, und
daß einem Segment als Segmenteigenschaft ein Neigungswinkel zugeordnet wird, der in Abhängigkeit von den Neigungswinkeln der das Segment bildenden Rohdatenelemente ermittelt wird.
22. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß für mindestens ein Segment mehrere, bevorzugt mindestens vier, Eigenschaften ermittelt und diesem zugeordnet werden, wobei die Eigenschaften ausgewählt werden aus der Gruppe Koordinaten eines Bezugspunkts, insbesondere des Schwerpunkts, des Segments, Breite des Segments, Länge des Segments, Reflektivität des Segments, Neigungswinkel des Segments, Anzahl der Rohdatenelemente des Segments und Alter des Segments.
23. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Rohdatenelemente eine Höheninformation enthalten, und daß die Höheninformation zur Segmentierung verwendet wird.
24. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Rohdatenelemente eine Höheninformation enthalten, und daß für ein Segment als Eigenschaft in Abhängigkeit von den Höhen der dieses Segment bildenden Rohdatenelemente eine Segmenthöhe ermittelt und diesem zugeordnet wird.
25. Computerprogramm mit Programmcode-Mitteln, um die Verfahren nach einem der Ansprüche 1 bis 24 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
26. Computerprogrammprodukt mit Programmcode-Mitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um das Verfahren nach einem der Ansprüche 1 bis 24 durchzuführen, wenn das Computerprogrammprodukt auf einem Computer ausgeführt wird.
27. Vorrichtung zur Erzeugung eines Modells eines Überwachungsbereichs mit mindestens einem Sensor für elektromagnetische Strahlung, insbesondere einem Laserscanner (10), dessen Sichtbereich (14) den Überwachungsbereich einschließt, und mit einer Datenverarbeitungseinrichtung, die zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 24 ausgebildet ist.
DE10148062A 2001-06-15 2001-09-28 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes Withdrawn DE10148062A1 (de)

Priority Applications (14)

Application Number Priority Date Filing Date Title
DE10148062A DE10148062A1 (de) 2001-09-28 2001-09-28 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE50212663T DE50212663D1 (de) 2001-06-15 2002-06-14 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP02743204A EP1395852A1 (de) 2001-06-15 2002-06-14 Verfahren zur bereitstellung von bildinformationen
EP02751031A EP1405100B1 (de) 2001-06-15 2002-06-14 Korrekturverfahren für daten mehrerer optoelektronischer sensoren
US10/480,507 US7570793B2 (en) 2001-06-15 2002-06-14 Correction method for data of a plurality of optoelectronic sensors
AT02751031T ATE409320T1 (de) 2001-06-15 2002-06-14 Korrekturverfahren für daten mehrerer optoelektronischer sensoren
DE50212810T DE50212810D1 (de) 2001-06-15 2002-06-14 Korrekturverfahren für daten mehrerer optoelektronischer sensoren
EP02013171A EP1267177A1 (de) 2001-06-15 2002-06-14 Verfahren und Vorrichtung zur Lokalisierung von Objekten im Raum
JP2003505649A JP2004530144A (ja) 2001-06-15 2002-06-14 画像情報を提供する方法
AT02013172T ATE405853T1 (de) 2001-06-15 2002-06-14 Verfahren zur verarbeitung eines tiefenaufgelösten bildes
EP02013172A EP1267178B1 (de) 2001-06-15 2002-06-14 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
PCT/EP2002/006599 WO2002103385A1 (de) 2001-06-15 2002-06-14 Verfahren zur bereitstellung von bildinformationen
PCT/EP2002/006594 WO2003001241A1 (de) 2001-06-15 2002-06-14 Korrekturverfahren für daten mehrerer optoelektronischer sensoren
JP2003507583A JP4669661B2 (ja) 2001-06-15 2002-06-14 複数のオプトエレクトロニクス・センサのデータの修正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10148062A DE10148062A1 (de) 2001-09-28 2001-09-28 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes

Publications (1)

Publication Number Publication Date
DE10148062A1 true DE10148062A1 (de) 2003-04-10

Family

ID=7700754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10148062A Withdrawn DE10148062A1 (de) 2001-06-15 2001-09-28 Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes

Country Status (1)

Country Link
DE (1) DE10148062A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003848A1 (de) * 2004-01-26 2005-08-11 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102004003850A1 (de) * 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
DE102004049482A1 (de) * 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
US7721964B2 (en) 2004-10-11 2010-05-25 Sick Ag Apparatus and method for monitoring moved objects
WO2011131477A1 (de) * 2010-04-23 2011-10-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum warnen eines fahrers eines fahrzeugs vor der anwesenheit von objekten in einem totwinkelbereich und entsprechende fahrerassistenzeinrichtung
DE102012201051A1 (de) * 2012-01-25 2013-07-25 Robert Bosch Gmbh Verfahren zur Fahrassistenz und Fahrassistenzsystem
DE102004035842B4 (de) * 2003-07-30 2014-09-25 Ford Motor Co. Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
WO2016198522A1 (de) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein kraftfahrzeug, kraftfahrzeug sowie verfahren
CN112781599A (zh) * 2019-11-07 2021-05-11 Aptiv技术有限公司 确定车辆的位置的方法
EP3851870A1 (de) * 2020-01-14 2021-07-21 Aptiv Technologies Limited Verfahren zur bestimmung von positionsdaten und/oder bewegungsdaten eines fahrzeugs
DE10346573B4 (de) 2003-10-07 2021-07-29 Robert Bosch Gmbh Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen
US11378653B2 (en) 2018-01-25 2022-07-05 Aptiv Technologies Limited Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points
US11500083B2 (en) 2018-01-25 2022-11-15 Aptiv Technologies Limited Method for determining the position of a vehicle
US11506511B2 (en) 2019-11-29 2022-11-22 Aptiv Technologies Limited Method for determining the position of a vehicle
CN112781599B (zh) * 2019-11-07 2024-06-07 Aptiv技术股份公司 确定车辆的位置的方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3832720A1 (de) * 1988-09-27 1990-03-29 Bosch Gmbh Robert Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung
EP0482604A2 (de) * 1990-10-25 1992-04-29 Mitsubishi Denki Kabushiki Kaisha Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
DE19603267A1 (de) * 1996-01-30 1997-07-31 Bosch Gmbh Robert Vorrichtung zur Abstands- und/oder Positionsbestimmung
EP0860714A1 (de) * 1997-02-20 1998-08-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen eines Abstandes eines Hindernisses von einem Fahrzeug
US5831717A (en) * 1993-12-14 1998-11-03 Mitsubishi Denki Kabushiki Kaisha Obstacle detecting apparatus which employs a laser
DE4344485C2 (de) * 1992-12-22 1999-07-22 Mitsubishi Electric Corp Fahrumgebungs-Überwachungsgerät
DE19910667A1 (de) * 1999-03-11 2000-09-21 Volkswagen Ag Vorrichtung mit mindestens einem Lasersensor und Verfahren zum Betreiben eines Lasersensors
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE20105340U1 (de) * 2001-03-26 2001-07-26 Daimler Chrysler Ag Dimensionale Umfelderfassung

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3832720A1 (de) * 1988-09-27 1990-03-29 Bosch Gmbh Robert Abstandsmesseinrichtung zur beruehrungslosen abstands- und winkelerkennung
EP0482604A2 (de) * 1990-10-25 1992-04-29 Mitsubishi Denki Kabushiki Kaisha Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
DE4344485C2 (de) * 1992-12-22 1999-07-22 Mitsubishi Electric Corp Fahrumgebungs-Überwachungsgerät
US5831717A (en) * 1993-12-14 1998-11-03 Mitsubishi Denki Kabushiki Kaisha Obstacle detecting apparatus which employs a laser
DE19603267A1 (de) * 1996-01-30 1997-07-31 Bosch Gmbh Robert Vorrichtung zur Abstands- und/oder Positionsbestimmung
EP0860714A1 (de) * 1997-02-20 1998-08-26 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen eines Abstandes eines Hindernisses von einem Fahrzeug
DE19910667A1 (de) * 1999-03-11 2000-09-21 Volkswagen Ag Vorrichtung mit mindestens einem Lasersensor und Verfahren zum Betreiben eines Lasersensors
DE19947766A1 (de) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE20105340U1 (de) * 2001-03-26 2001-07-26 Daimler Chrysler Ag Dimensionale Umfelderfassung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP 08220234 A.,In: Patent Abstracts of Japan *
JP 2000075030 A.,In: Patent Abstracts of Japan *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004035842B4 (de) * 2003-07-30 2014-09-25 Ford Motor Co. Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE10346573B4 (de) 2003-10-07 2021-07-29 Robert Bosch Gmbh Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen
DE102004003850A1 (de) * 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
DE102004003848A1 (de) * 2004-01-26 2005-08-11 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102004049482A1 (de) * 2004-10-11 2006-04-13 Sick Ag Vorrichtung zur Überwachung von bewegten Objekten
US7721964B2 (en) 2004-10-11 2010-05-25 Sick Ag Apparatus and method for monitoring moved objects
WO2011131477A1 (de) * 2010-04-23 2011-10-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum warnen eines fahrers eines fahrzeugs vor der anwesenheit von objekten in einem totwinkelbereich und entsprechende fahrerassistenzeinrichtung
DE102010018038B4 (de) 2010-04-23 2023-08-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Warnen eines Fahrers eines Fahrzeugs vor der Anwesenheit von Objekten in einem Totwinkelbereich und entsprechende Fahrerassistenzeinrichtung
DE102012201051A1 (de) * 2012-01-25 2013-07-25 Robert Bosch Gmbh Verfahren zur Fahrassistenz und Fahrassistenzsystem
WO2016198522A1 (de) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein kraftfahrzeug, kraftfahrzeug sowie verfahren
US11378653B2 (en) 2018-01-25 2022-07-05 Aptiv Technologies Limited Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points
US11500083B2 (en) 2018-01-25 2022-11-15 Aptiv Technologies Limited Method for determining the position of a vehicle
EP3819663A1 (de) * 2019-11-07 2021-05-12 Aptiv Technologies Limited Verfahren zur bestimmung der position eines fahrzeugs
CN112781599A (zh) * 2019-11-07 2021-05-11 Aptiv技术有限公司 确定车辆的位置的方法
US11977159B2 (en) 2019-11-07 2024-05-07 Aptiv Technologies AG Method for determining a position of a vehicle
CN112781599B (zh) * 2019-11-07 2024-06-07 Aptiv技术股份公司 确定车辆的位置的方法
US11506511B2 (en) 2019-11-29 2022-11-22 Aptiv Technologies Limited Method for determining the position of a vehicle
EP3851870A1 (de) * 2020-01-14 2021-07-21 Aptiv Technologies Limited Verfahren zur bestimmung von positionsdaten und/oder bewegungsdaten eines fahrzeugs
US12005907B2 (en) 2020-01-14 2024-06-11 Aptiv Technologies AG Method for determining position data and/or motion data of a vehicle

Similar Documents

Publication Publication Date Title
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP0691534B1 (de) Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10114932B4 (de) Dreidimensionale Umfelderfassung
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102007020791B4 (de) Fahrspurmarkierungs-Erkennungsvorrichtung
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
DE102004018813A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE4410406A1 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
EP1418444A1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP1419402A1 (de) Verfahren zur erkennung und verfolgung von objekten
DE10148070A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
EP3531167B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
DE10333670B4 (de) Verfahren zum Ermitteln des Fahrbahnverlaufes aus Bilddaten
DE10148063A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee