DE102007023888A1 - Vorrichtung und Verfahren zur Fussgängererkennung - Google Patents

Vorrichtung und Verfahren zur Fussgängererkennung Download PDF

Info

Publication number
DE102007023888A1
DE102007023888A1 DE102007023888A DE102007023888A DE102007023888A1 DE 102007023888 A1 DE102007023888 A1 DE 102007023888A1 DE 102007023888 A DE102007023888 A DE 102007023888A DE 102007023888 A DE102007023888 A DE 102007023888A DE 102007023888 A1 DE102007023888 A1 DE 102007023888A1
Authority
DE
Germany
Prior art keywords
reflection
pedestrian
predetermined
objects
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007023888A
Other languages
English (en)
Other versions
DE102007023888B4 (de
Inventor
Kiyokazu Kariya Takagi
Masafumi Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102007023888A1 publication Critical patent/DE102007023888A1/de
Application granted granted Critical
Publication of DE102007023888B4 publication Critical patent/DE102007023888B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Eine Vorrichtung mit einem Laserradar (10, 20) wird dazu verwendet, einen Fußgänger zu erkennen, indem sie eine Position von Reflexionsobjekten erfasst, die Objekte in einem zweidimensionalen Koordinatensystem abbildet, bestimmt, ob sich die Objekte bewegen, und sich bewegende Objekte, die sich dicht beieinander befinden, gruppiert. Auf der Grundlage einer Gruppengröße einer Objektgruppe kann der der Objektgruppe zugeordnete Fußgänger genau erkannt werden.

Description

  • Die vorliegende Erfindung betrifft im Allgemeinen eine Fußgängererkennungsvorrichtung zur Verwendung in einem Fahrzeug.
  • Die JP-A-2000-3499 offenbart ein herkömmliches Fußgängererfassungssystem, das einen Fußgänger von einem Fahrzeug unterscheidet. Das darin offenbarte Fußgängererfassungssystem erfasst einen Fußgänger oder eine Gruppe von Fußgängern, indem es Gruppen von Laserreflexionspunkten mit einem Intervall innerhalb eines vorbestimmten Werts auf der Grundlage eines Laserradarabtastens vor einem Subjektfahrzeug bildet, indem es eine Geschwindigkeit eines Mittelpunkts jeder Gruppe auf der Grundlage einer Änderung eines Abstands zwischen der Gruppe und dem Subjektfahrzeug berechnet und die Gruppen auf der Grundlage eines vorbestimmten Varianzwerts und einer vorbestimmten Geschwindigkeit des Mittelpunkts der gruppierten Reflexionspunkte kategorisiert.
  • Bei dem obigen Fußgängererfassungssystem wird eine Gruppierung der Laserreflexionspunkte innerhalb des vorbestimmten Intervalls jedoch unabhängig von der Geschwindigkeit der Reflexionspunkte, d. h. unabhängig davon, ob sich die Reflexionspunkte bewegen oder nicht, ausgeführt. Folglich kann es passieren, dass das Fußgängererfassungssystem haltende und sich bewegende Objekte in eine Gruppe kategorisiert, wenn beide Objekte innerhalb des vorbestimmten Intervalls erfasst werden, so dass sich die Fußgängererfassungsgenauigkeit bedingt durch die Änderung des Varianzwerts der fehlerhaft gruppierten Objekte verschlechtert.
  • Es ist folglich Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zur Fußgängererkennung bereitzustellen, mit denen ein sich bewegende Fußgänger genau erkannt werden kann.
  • Die Fußgängererkennungsvorrichtung der vorliegenden Erfindung weist auf: eine Radareinheit zum Aussenden eines Radarstrahls von der Radareinheit und zum Empfangen eines reflektierten Strahls, der von einem Reflexionsobjekt reflektiert wird, wenn ein Erfassungsbereich in einer Mehrzahl von Abtastlinien in einem vorbestimmten Erfassungsintervall durch den Radarstrahl abgetastet wird; eine Reflexionsobjekterfassungseinheit zur Erfassung einer Position des Reflexionsobjekts als zweidimensionale Koordinaten in einem vorbestimmten Koordinatensystem auf der Grundlage eines Ergebnisses einer Aussendung des Radarstrahls und eines Empfangs des reflektierten Strahls durch die Radareinheit; eine Objektbestimmungseinheit zum Bestimmen, ob das reflektierte Objekt ein haltendes oder ein sich bewegendes Objekt ist, auf der Grundlage einer die Lage betreffenden Änderung des Reflexionsobjekts, die durch die zweidimensionalen Koordinaten in dem vorbestimmten Koordinatensystem dargestellt wird, die von einer mehrmaligen Positionserfassung des Reflexionsobjekts in dem vorbestimmten Erfassungsintervall stammen; und eine Fußgängererkennungseinheit zur Erkennung eines Fußgängers, wobei die Fußgängererkennung als Bildung einer Objektgruppe naher Reflexionsobjekte ausgeführt wird, um eine Objektgruppe der Reflexionsobjekte in den zweidimensionalen Koordinaten in dem vorbestimmten Koordinatensystem von den Reflexionsobjekten zu bilden, die auf der Grundlage eines Bestimmungsergebnisses der Objektbestimmungseinheit als das sich bewegende Objekt bestimmt werden, und wobei der Bildung der Objektgruppe eine Bestimmung einer Gruppengröße der Objektgruppe auf der Grundlage eines vorbestimmten Kriteriums der Gruppengröße zur Verknüpfung der Objektgruppe mit dem Fußgänger folgt.
  • Die Fußgängererkennungsvorrichtung unterscheidet ein sich bewegendes Objekt von den durch die Radareinheit erfassten Reflexionsobjekten auf der Grundlage einer die Lage betreffenden Änderung der mehrfach in einem vorbestimmten Intervall abgetasteten Objekte und bildet eine Objektgruppe über eine Gruppierung naher Reflexionsobjekte. Anschließend wird die Objektgruppe auf der Grundlage einer Größe der Objektgruppe als der Fußgänger erkannt. Auf diese Weise kann der Fußgänger vor einem Fahrzeug genau erfasst und erkannt werden.
  • Das Verfahren zur Erkennung des Fußgängers basiert im Allgemeinen auf einem Erkennungsschema der vorstehend beschriebenen Fußgängererkennungsvorrichtung zur genauen Erkennung des Fußgängers.
  • Weitere Aufgaben, Eigenschaften und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden detaillierten Beschreibung, die unter Bezugnahme auf die beigefügte Zeichnung gemacht wurde, näher ersichtlich sein. In der Zeichnung zeigt/zeigen:
  • 1 ein Blockdiagramm einer Fußgängererkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 eine Abbildung eines Erfassungsbereichs eines Laserradars;
  • 3 ein Ablaufdiagramm eines in einer ECU der Fußgängererkennungsvorrichtung ausgeführten Fußgängererkennungsprozesses;
  • 4A und 4B Abbildungen eines Wandlungsprozesses einer Position eines Reflexionsobjekts in einem Sensorkoordinatensystem zu einer Position in einem absoluten Koordinatensystem;
  • 5A bis 5D Abbildungen eines Gruppierungsprozesses, der eine Gruppe naher Reflexionsobjekte ausschließlich aus den als sich bewegende Objekte bestimmten Objekten bildet;
  • 6A bis 6C weitere Abbildungen des Gruppierungsprozesses, welcher die Gruppe naher Reflexionsobjekte ausschließlich aus den als die sich bewegende Objekte bestimmten Objekten bildet; und
  • 7A bis 7E Abbildungen von Verhältnissen zwischen einer erwarteten Position eines verfolgten Objekts in einem Schätzbereich und einer aktuellen Messung.
  • Nachstehend werden die bevorzugten Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die beigefügte Zeichnung beschrieben.
  • 1 zeigt ein Blockdiagramm einer Fußgängererkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung. Die Fußgängererkennungsvorrichtung ist an einem Fahrzeug angeordnet und dazu ausgelegt, einen sich bewe genden Fußgänger in der Nähe des Fahrzeugs und insbesondere vor dem Fahrzeug zu erkennen.
  • Das Erkennungsergebnis der Fußgängererkennungsvorrichtung wird beispielsweise an eine Fußgängerwarnvorrichtung, eine Fußgängerschutzvorrichtung oder dergleichen (nicht gezeigt) gegeben. Die Fußgängerwamvorrichtung meldet beispielsweise dem Fahrer des Fahrzeugs einen sich vor dem Fahrzeug bewegenden Fußgänger. Folglich kann der Fahrer Vorsichtsmaßnahmen bezüglich des Fußgängers treffen, während er das Fahrzeug fährt. Wenn ein Aufprall des Fußgängers auf das Fahrzeug unvermeidbar ist, setzt die Fußgängerschutzvorrichtung einen in einer Stoßstange oder unter einer Motorhaube installierten Airbag ein, um den Fußgänger bestmöglich zu schützen.
  • Die Fußgängererkennungsvorrichtung weist, wie in 1 gezeigt, ein Laserradar mit einer Lichtsendeeinheit 10, einer Lichtempfangseinheit 20, einer ECU 60 und dergleichen auf. Die Lichtsendeeinheit 10 und die Lichtempfangseinheit 20 sind in einem vorderen Teil des Fahrzeug angeordnet, um einen sich vor dem Fahrzeug befindlichen Fußgänger zu erfassen.
  • Die Lichtsendeeinheit 10 weist eine Halbleiterlaserdiode 12 auf, die einen getakteten Laserstrahl über einen Abtaster 13 und eine Emissionslinse 17 aussendet. Die Laserdiode 12 ist über eine Laserdiodenansteuerschaltung 11 mit der ECU 60 verbunden und sendet den Laserstrahl auf den Empfang eines Laserdiodenansteuersignals von der ECU 60 hin aus. Der Abtaster 13 weist einen Polygonspiegel 14 auf, der dazu dient, den Laserstrahl zu reflektieren, während er durch einen Motor (nicht gezeigt) gedreht wird. Wenn ein Motoransteuersignal von der ECU 60 an eine Motoransteuerschaltung 15 gegeben wird, wird der Abtaster 13 angesteuert, um dadurch den Polygonspiegel 14 zu drehen. Der Drehwinkel des Motors wird über einen Motorwinkelsensor 16 erfasst und als Drehpositionssignal an die ECU 60 gegeben.
  • Der Polygonspiegel 14 weist sechs Spiegel (reflektierende Oberflächen) mit jeweils verschiedenen Neigungswinkeln auf. Folglich kann eine intermittierende Emission des Laserstrahl von der Laserdiode 12 derart umgeleitet werden, dass sie einen vorbestimmten Bereich horizontalen und vertikalen Winkels abtastet, wenn der Spie gel 14 in einer vorbestimmten Geschwindigkeit gedreht wird. Der Abtastbereich definiert einen Laserradarerfassungsbereich, der sich in sowohl horizontaler als auch vertikaler Richtung, d. h. in sowohl der Breiten- als auch der Höhenrichtung des Fahrzeugs erstreckt.
  • Der Lichtempfangsabschnitt 20 weist eine Lichtempfangslinse 21 auf, die einen von einem Objekt, wie beispielsweise einem Fußgänger oder dergleichen, reflektierten Laserstrahl empfängt. Der reflektierte Strahl wird durch den Lichtempfangsabschnitt 21 auf eine Photodiode 22 gebündelt. Die Photodiode 22 gibt eine dem reflektierten Strahl proportionale Spannung aus. Die Ausgangsspannung der Photodiode 22 wird von einem Verstärker 30 verstärkt und an einem Komparator 40 gegeben. Der Komparator 40 vergleicht die Ausgangsspannung des Verstärkers 30 mit einer Referenzspannung V0. Wenn die Ausgangsspannung des Verstärkers 30 über der Referenzspannung V0 liegt, wird ein vorbestimmtes Lichtempfangssignal an eine Zeitgeberschaltung 50 gegeben.
  • Die Zeitgeberschaltung 50 empfängt das ebenso an die Laserdiodenansteuerschaltung 11 gegebene Laserdiodenansteuersignal von der ECU 60. Die Zeitgeberschaltung 50 codiert ein Zeitintervall zwischen einer Ausgabe des Laserdiodenansteuersignals und der Erzeugung eines Lichtempfangssignals, d. h. eine Zeitdifferenz zwischen einem Sendezeitpunkt des Laserstrahls und einem Empfangszeitpunkt des reflektierten Strahls, als digitales Binärsignal. Ferner misst die Zeitgeberschaltung 50 eine Zeitspanne ab dem Zeitpunkt, an welchem das Lichtempfangssignal die Referenzspannung V0 überschritten hat, und codiert die Periode als das digitale Binärsignal. Anschließend werden diese digitalen Binärsignale als digitale Zeitmessdaten an die ECU 60 gegeben. Die Überschreitungszeitspanne weist eine Korrelation mit einer Intensität des reflektierten Strahls auf und wird als Intensitätsinformation des reflektierten Strahl verwendet.
  • Der Laserradarerfassungsbereich bzw. ein Laserstrahlprojektionsbereich ist wie folgt definiert. Die Lichtsendeeinheit 10 sendet die Laserstrahlen von 451 Einheiten in einer Fahrzeugbreitenrichtung aus, wobei jeder Strahl einen Schrittwinkel von 0.08 Grad aufweist. Folglich entspricht ein Laserstrahlprojektionsbereich in der Fahrzeugbreitenrichtung einem Winkel von ±18 Grad (0.08 Grad × 451).
  • Die Lichtsendeeinheit 10 verwendet, wie in 2 gezeigt, den sechs Spiegel aufweisenden Polygonspiegel 14, um den Laserstrahl in sechs Linien verschiedener Höhe zu reflektieren. Die in den sechs Linien ausgesendeten Laserstrahlen dienen dazu, ein sich vor dem Fahrzeug befindliches Objekt, wie beispielsweise ein vorausfahrendes Fahrzeug, einen Leitpfosten, eine Hinweistafel, eine Markierungslinie auf einer Straßenoberfläche und dergleichen, zu erfassen.
  • Der Laserstrahl kann den Fußgänger beispielsweise, wie in 2 gezeigt, in den oberen vier Linien erfassen, wenn der eine Größe von 180 cm aufweisende Fußgänger in einem Abstand von 20 Metern vor dem Fahrzeug steht. Die reflektierten Laserstrahlen werden von dem Laserradar empfangen. Wenn sich der Fußgänger dichter an dem Fahrzeug befindet, kann er von den oberen fünf Linien des Laserstrahls erfasst werden. Auf diese Weise wird der in einer Mehrzahl von in der Höhenrichtung verteilten Linien des Laserstrahls erfasste Fußgänger mit Fußgängereigenschaften zur Unterscheidung von anderen Objekten als digitale Daten codiert.
  • Der Laserstrahl weist eine Strahlbreite von ungefähr 1.6 Grad in der Höhenrichtung auf. Zwei benachbarte Linien des Laserstrahl in der Höhenrichtung sind so festgelegt, dass sich teilweise gegenseitig überlappen. Auf diese Weise wird die Auflösung des Laserstrahls in der Höhenrichtung verbessert. Der Überlappungswinkel des Laserstrahls in der Höhenrichtung beträgt 0.2 Grad. Folglich weist der Laserstrahlprojektionsbereich in der Höhenrichtung annähernd einen Winkel von ±4 Grad auf (1.6 Grad × 6 Linien–0.2 Grad × 5 Überlappungsbereiche).
  • Wenn die Lichtsendeeinheit 10 den Laserstrahl zum Abtasten eines Objekts vor dem Fahrzeug aussendet, gibt die ECU 60 das Laserdiodenansteuersignal zum zweidimensionalen Abtasten des vorstehend beschriebenen Projektionsbereichs an die Lichtsendeeinheit 10. Folglich bestimmt der reflektierte Strahl bei dem zweidimensionalen Abtasten eindeutig den Projektionswinkel des Laserstrahls, aus welchem der reflektierte Strahl hervorgegangen ist.
  • Ferner berechnet die ECU 60 dann, wenn sie die Zeitdifferenz zwischen dem Sendezeitpunkt des Laserstrahls und dem Empfangszeitpunkt des reflektierten Strahls empfängt, den Abstand zum Objekt auf der Grundlage der Zeitdifferenz. Die ECU 60 erzeugt Positionsdaten auf der Grundlage des berechneten Abstands und des Projektionswinkels des Laserstrahls. D. h., ein Mittelpunkt der Lichtsendeeinheit 10 und der Lichtempfangseinheit 20 wird als Ursprung (0, 0, 0) und die Fahrzeugbreitenrichtung/die Fahrzeugfahrtrichtung/die Fahrzeughöhenrichtung werden entsprechend als x-Achse/y-Achse/z-Achse in einem Sensorkoordinatensystem definiert, um eine Position des Objekts als x/y/z-Koordinaten zu lokalisieren. Ferner werden die Intensitätsdaten des reflektierten Strahls, welche der Überschreitungsperiode bei einem Überschreiten der Referenzspannung VO durch das Empfangssignal entsprechen, in Verbindung mit den x/y/z-Koordinaten gespeichert.
  • Ferner empfängt die ECU 60 Eingangssignale von einem Geschwindigkeitssensor, einem Gierratensensor, einem Lenkwinkelsensor und dergleichen, um die Fahrzeuggeschwindigkeit, die Gierrate, den Lenkwinkel und dergleichen zu erfassen. Die ECU 60 berechnet eine Fahrzeugbewegung (Fahrstrecke) auf der Grundlage der Erfassungssignale dieser Sensoren.
  • Nachstehend wird ein von der vorstehend beschriebenen Fußgängererkennungsvorrichtung ausgeführter Prozess zur Erkennung eines Fußgängers beschrieben.
  • 3 zeigt ein Ablaufdiagramm eines in der ECU 60 der Fußgängererkennungsvorrichtung ausgeführten Fußgängererkennungsprozesses.
  • In Schritt S10 steuert der Prozess die Vorrichtung derart, dass sie den Laserstrahl aussendet, um den Erfassungsbereich abzutasten, und Zeitmessdaten an die ECU 60 gibt, wenn der reflektierte Strahl empfangen wird. In diesem Fall ist das Erfassungsintervall des Laserradars beispielsweise auf 100 ms (Millisekunden) gesetzt.
  • In Schritt S20 führt der Prozess einen Bewegungsobjektextraktionsprozess aus, der Bewegungsobjektpositionsdaten aus den Reflexionsstrahldaten extrahiert. Bei dem Extraktionsprozess wird die Bewegung des Fahrzeugs, wie beispielsweise die Position, die Geschwindigkeit, die Gierrate und dergleichen, auf der Grundlage der Geschwindigkeit, der Gierrate, des Lenkwinkels und dergleichen berechnet. Die Bewegung des Fahrzeugs wird beispielsweise berechnet, indem ein Zweiradmodel (Fahrradmodel) verwendet wird. Zur Verbesserung der Genauigkeit wird die Berechnung der Bewegung vorzugsweise in einem Intervall kürzer dem Messintervall des Laserradars ausgeführt. Das Rechenintervall kann beispielsweise auf 12 ms festgelegt sein.
  • Nachstehend wird ein Beispiel des Bewegungsrechenverfahrens beschrieben. Das Schätzen einer Position des Fahrzeugs und einer Fahrtrichtung wird auf der Grundlage von Erfassungsdaten der Fahrzeuggeschwindigkeit und des Lenkwinkels ausgeführt. Der Lenkwinkel und die Kurvenkrümmung sind auf der Grundlage vorher definierten Tabelle korreliert, und die dem Lenkwinkel des fahrenden Fahrzeugs entsprechende Krümmung wird aus der Tabelle abgeleitet. In diesem Fall kann ein nicht in der Tabelle definierter Zwischenwert vorzugsweise durch eine lineare Interpolation berechnet werden. Anschließend werden eine Krümmung γ, die Geschwindigkeit des Fahrzeugs v und ein Abtastintervall T dazu verwendet, einen Schnittwinkel (biss angle) θ des Fahrzeugs zu definieren. D. h., eine Drehbewegung des Fahrzeugs kann durch die folgende Gleichung (1), welche den Schnittwinkel θ definiert, beschrieben werden. θ = γ v T (rad) Gleichung (1)
  • Folglich wird die Bewegung des Fahrzeugs bei dem Abtastintervall T in einer seitlichen Richtung durch die Gleichung ΔX = 1/γ (1 – cosθ) und in einer Vor-Zurück-Richtung durch die Gleichung ΔY = 1/γ sin θ berechnet. Auf der Grundlage der seitlichen und der Vor-Zurück-Richtung wird die Position des Fahrzeug in einem absoluten Koordinatensystem berechnet. D. h., die momentane Position des Fahrzeugs wird berechnet, indem ΔX und ΔY zu den Koordinaten der vorherigen Position (X, Y) addiert werden. Auf diese Weise wird die momentane Position des Fahrzeug durch (X + ΔX und Y + ΔY) in dem absoluten Koordinatensystem definiert.
  • Der Ursprung des absoluten Koordinatensystems kann willkürlich als Startpunkt der Fahrt des Fahrzeugs, als Startpunkt der Laserradarmessung oder dergleichen definiert werden. Der Ursprung der Koordinate kann vorzugsweise als Punkt auf einer Fahrtroute des Fahrzeugs bestimmt werden. Durch ein Definieren des Ursprungs als Punkt auf der Fahrtroute kann die Position des Fahrzeugs in dem absoluten Koordinatensystem einzig aus der Bewegung des Fahrzeugs abgeleitet werden.
  • Die Koordinatenwerte der Fahrzeugposition in dem absoluten Koordinatensystem können berechnet werden, indem nacheinander die Koordinatenwerte der Bewegung des Fahrzeugs in jedem Intervall addiert werden. In diesem Fall nimmt das Model bei dieser Berechnung an, dass das Fahrzeug mit einer geringen Geschwindigkeit fährt, der Reifen keinen Schlupf aufweist und der Rutschwinkel 0 (Null) ist. Bei zunehmender Geschwindigkeit des Fahrzeug nimmt jedoch auch der Rutschwinkel graduell zu. Folglich kann das Model zu demjenigen gewechselt werden, welches den Rutschwinkel berücksichtigt (Bewegungsgleichung). Die Geschwindigkeit, bei welcher das Model gewechselt wird, kann in Übereinstimmung mit den Fahrzeugeigenschaften bestimmt werden. Die Wechselgeschwindigkeit kann vorzugsweise als Hysteresekurve bestimmt sein, d. h., es können jeweils verschiedene Wechselgeschwindigkeiten für das sich beschleunigende Fahrzeug und das sich verlangsamende Fahrzeug verwendet werden. Ferner kann das Model den Schlupfgrad bei einer Erhöhung der Fahrzeuggeschwindigkeit fortlaufend ändern, um die Position des Fahrzeugs zu bestimmen.
  • Auf diese Weise werden die aus dem Prozess von Schritt S10 erlangten Positionsdaten (Positionskoordinaten) verwendet werden, um die Position jedes Reflexionsobjekts auf eine Bestimmung der Fahrzeugposition hin in dem absoluten Koordinatensystem zu bestimmen. D. h., die Positionsdaten des Reflexionsobjekts in dem Sensorkoordinatensystem mit der Position des Laserradars als Ursprung (siehe 4A) werden in die Positionsdaten in dem absoluten Koordinatensystem transformiert (siehe 4B).
  • In dem Sensorkoordinatensystem können die Positionsdaten der Reflexionsobjekte der momentanen Positionen und der vorherigen Positionen nicht in integrierter Weise behandelt werden, wenn nicht sämtliche der Positionsdaten der Reflexionsobjekte in jedem Erfassungsintervall aktualisiert werden, da die Position des Fahrzeug (d. h. die Position des Laserradars) als der Ursprung definiert ist. Demgegenüber können die vorherigen Positionen des Fahrzeugs und der Reflexionsobjekte integral behandelt werden, indem die Positionsdaten in dem absoluten Koordinatensystem gespeichert werden, und kann eine Kontinuität vorgesehen werden, indem nur die aktuellen Positionsdaten in die Koordinaten in dem absoluten Koordinatensystem transformiert werden.
  • Die Positionskoordinaten der Reflexionsobjekte in dem Sensorkoordinatensystem können in die Positionskoordinaten in dem absoluten Koordinatensystem transformiert werden, indem die y-Achse des Sensorkoordinatensystems derart gedreht wird, dass sie in einer Linie mit der Fahrtrichtung des Fahrzeugs in dem absoluten Koordinatensystem liegt (siehe 4B). Die Koordinaten auf der x- und auf der z-Achse, in der Fahrzeugbreitenrichtung und in der Vor-Zurück-Richtung, können entsprechend auf eine Positionierung des Fahrzeugs in dem absoluten Koordinatensystem hin in die absoluten Koordinaten transformiert werden.
  • Bei der vorliegenden Ausführungsform ist die Konfiguration des Laserstrahl so ausgelegt, dass seine oberen vier oder fünf Linien den Fußgänger erfassen. Wenn es sich bei dem Reflexionsobjekt um den Fußgänger handelt, wird folglich die Höheninformation als z-Koordinate in dem Sensorkoordinatensystem gespeichert (siehe 4A). Wenn die Koordinaten in das absolute Koordinatensystem (siehe 4B) transformiert werden, geht die Höheninformation bedingt durch die Definition des absoluten Koordinatensystems, das eindeutig definiert ist, die Straßenoberfläche als Referenzposition zu verwenden, verloren. Folglich dürfte die Abstandskompensation gemäß dem Projektionswinkel jedes Laserstrahls vorzugsweise bei der Transformation in das absolute Koordinatensystem ausgeführt werden, da die Höhe jeder Abtastlinie des Laserstrahls, d. h. der Projektionswinkel jedes Laserstrahls, verschieden ist.
  • Wenn der Fußgänger durch die Mehrzahl von Abtastlinien des Laserstrahls erfasst wird, wird die Position des Fußgängers als das Reflexionsobjekt als Verteilung in einer Kreisfläche vorbestimmten Durchmessers in dem absoluten Koordinatensystem geplottet. Genauer gesagt, die Verteilung ist als Gauß'sche Verteilung mit einer höheren Erfassungsfrequenz um den Mittelpunkt der Verteilung definiert. Auf diese Weise sind die Fußgängerdaten in dem absoluten Koordinatensystem unver wechselbar gekennzeichnet, indem eine Mehrzahl von Abtastlinien in der Höhenrichtung verwendet werden, und leicht von den anderen Objekten zu unterscheiden.
  • Das absolute Koordinatensystem weist eine Masche vorbestimmter Größe, wie beispielsweise ein Quadrat von 50 cm Seitenlänge oder dergleichen, auf. Wenn das Reflexionsobjekt stoppt, verbleibt es in einer bestimmten Masche. Wenn sich ein Objekt für beispielsweise vier aufeinanderfolgende Erfassungsintervalle in der gleichen Masche befindet, wird dieses Objekt folglich als Halteobjekt bestimmt und werden die Daten des Halteobjekts gelöscht. Auf diese Weise werden die Positionsdaten derart verschoben, dass sie die Daten der sich bewegenden Objekte aufweisen. D. h., die Positionsdaten der sich bewegenden Objekte werden extrahiert. Folglich ist es möglich, eine Gruppierung der Positionsdaten einzig für die sich bewegenden Objekte auszuführen.
  • In Schritt S30 nimmt der Prozess ein Gruppierung vor, bei der eine Gruppe der sich bewegenden Objekten, die sich dicht beieinander befinden, gebildet wird. Die Gruppenbildung wird nachstehend unter Bezugnahme auf die 5A bis 5D und 6A bis 6C beschrieben.
  • Es wird, wie in 5A gezeigt, die Anzahl an Positionsdaten der sich bewegenden Objekte in jeder Masche gezählt, nachdem die Halteobjekte in dem absoluten Koordinatensystem gelöscht wurden. 5A zeigt einen Abschnitt des Erfassungsbereichs, der die sich bewegenden Objekten als die Positionsdaten aufweist. Die in der 5A gezeigten Positionsdaten werden gezählt, um die in der 5B gezeigten Zähldaten zu bilden.
  • Anschließend wird eine Masche mit den Positionsdaten vom Ursprung der Koordinaten in Y-Achsenrichtung gesucht (siehe 5C). In diesem Fall ist keine Masche mit den Positionsdaten in der Spalte von X = 0 vorhanden.
  • Anschließend wird die Masche, wie in 5D gezeigt, in der Spalte X = 1 durchsucht. Wird eine Masche mit den Positionsdaten gefunden, so wird eine Gruppierung der Positionsdaten gestartet. Genauer gesagt, es werden drei Maschen in beiden (positiver und negativer) Richtungen entlang der Y-Achse als Gruppierungssuchbe reich zum Suchen der Positionsdaten definiert, wenn eine bestimmte Masche mit den Positionsdaten gefunden wird.
  • Bei dem in der 5D gezeigten Beispiel reicht der Suchbereich bis zur Masche (1, 3), da die Masche (1, 0) die Positionsdaten aufweist. In diesem Suchbereich werden die Maschen (1, 1) und (1, 3) als die Positionsdaten aufweisend bestimmt. Anschließend wird der Suchbereich bis auf die Masche (1, 6) erweitert. Auf diese Weise wird der Suchbereich erweitert, wenn bei der Suche eine Masche mit den Positionsdaten neu gefunden wird.
  • Anschließend wird die Suche nach den Positionsdaten um 1 in X-Achsenrichtung verschoben, da die Maschen (1, 4) bis (1, 6) keine Positionsdaten aufweisen. In diesem Fall beginnt die Suche in der Spalte X = 2 bei (2, 1) für den Bereich von drei Maschen in positiver und negativer Richtung, da ein gewichteter Mittelwert der Maschen mit den Positionsdaten bei 1 liegt. Anschließend weisen die Maschen (2, 0), (2, 1), (2, 4) die Positionsdaten auf und wird der gewichtete Mittelwert der Maschenkoordinate als Y = 1.4 berechnet. Der Wert von Y wird auf eine ganze Zahl von 1 gerundet, und Y = 1 wird für die fortschreitende Zählung verwendet.
  • Anschließend werden die Spalten X = 3, 4, 5 gleich den Maschen mit den Positionsdaten durchsucht. In diesem Fall wird die Masche (5, 2) als Startpunkt der Maschensuche ohne Ergebnis verwendet, woraufhin die Maschensuche zur Gruppierung der Positionsdaten endet. Anschließend werden die Positionsdaten zum Bilden einer Gruppe, wie in 6A gezeigt, dazu verwendet, den gewichteten Mittelwert der Koordinate mit der Anzahl von berücksichtigten Daten zu berechnen, und wird der gewichtete Mittelwert als Mittelpunkt der Gruppe der Reflexionsobjekte bestimmt.
  • Anschließend kehrt die Suche zum Startpunkt zurück, um weitere Positionsdaten, die gruppiert werden können, zu suchen. In diesem Fall werden, wie in 6B gezeigt, bereits gruppierte Positionsdaten von der Suche ausgeschlossen. Auf diese Weise werden alle Abschnitte des Erfassungsbereichs mit den Positionsdaten ermittelt und die Objektgruppendaten naher Objekte erzeugt.
  • Anschließend werden die Fußgängerdaten aus den Objektgruppendaten extrahiert. In Schritt S40 wird beispielsweise die Größe der Objektgruppendaten aus der Anzahl an von einer Objektgruppe belegten Maschen berechnet. Die Objektgruppe mit der Größe von einem Quadratmeter wird beispielsweise als Fußgänger definiert und als die Fußgängerdaten extrahiert. Anschließend werden die Fußgängerdaten in Schritt S50 unter Verwendung eines Kalman-Filters verfolgt. Die Bewegungsgleichung eines Kalman-Filters und die Beobachtungsgleichung sind in der nachstehenden Gleichung (2) gezeigt. Das Filtern mit dem Kalman-Filter wird unter der Annahme ausgeführt, dass der Fußgänger als Objekt gleichförmiger Bewegung modelliert und die Beschleunigung als Rauschen betrachtet wird. Bewegungsgleichung: xk = Fxk–1 + GΔxk–1 Beobachtungsgleichung: zk = Hkxk + Lkpk + Δzk Gleichung (2)
  • In der Gleichung 2 ist eine Zustandsvariable x als [x,x .,y,y .]T definiert, ist Δx = [Δx ..,Δy ..]T ein Beschleunigungsvektor bei einer Normalverteilung mit einem Varianzwert von Q und einem Mittelwert von 0 (Null), ist ein Beobachtungswert z = [zx, zy]T und ist Δz ein Beobachtungsfehler in einer Normalverteilung mit einem Varianzwert von R und einem Mittelwert von 0 (Null).
  • Auf der Grundlage der obigen Bewegungsgleichung werden die Positionen und Geschwindigkeiten der verfolgten Objekte berechnet und wird ein Kovarianzwert P des Fehlers aus der Gleichung (3) hergeleitet.
  • Figure 00130001
  • Auf diese Weise wird, wie in den 7A bis 7E gezeigt, ein Schätzbereich des verfolgten Objekts in Übereinstimmung mit dem Fehler um den erwarteten Wert herum (d. h. um eine erwartete mittlere Position herum) definiert. Anschließend werden die erwartete mittlere Position und die aktuelle Messung, wie nachstehend noch näher beschrieben, statistisch korreliert. In diesem Fall wird der Erwartungswert, wie in der folgenden Gleichung (4) gezeigt, durch die aktuelle Messung korrigiert.
  • Figure 00140001
  • In vielen Fällen, bei denen eine komplizierte Situation vorliegt, können beispielsweise, wie in 7A gezeigt, eine Mehrzahl von Messungen bzw. Messwerten in dem Schätzbereich eines verfolgten Objekts vorhanden oder, wie in 7B gezeigt, eine Mehrzahl von verfolgten Objekten mit einer Messung korreliert sein. Ferner kann selbst dann, wenn, wie in 7C gezeigt, die Anzahl der verfolgten Objekte der Anzahl der aktuellen Messung entspricht, eine der aktuellen Messungen mit einer Mehrzahl von verfolgten Objekten korreliert sein, indem sie in einem Überlappungsbereichs der Mehrzahl von Objekten vorhanden ist. Bei der vorliegenden Ausführungsform wird ein auf einer Wahrscheinlichkeitsfunktion basierender Auktionsalgorithmus (Auction Algorithm) dazu verwendet, die verfolgten Objekte sicher mit den aktuellen Messungen zu korrelieren. 7D zeigt ferner eine Situation als Beispiel, bei welcher die eine der zwei Messungen zum Schätzbereich des verfolgten Objekts gehört und sich die andere Messung außerhalb des Schätzbereichs des verfolgten Objekts befindet. 7E zeigt ferner eine Situation als Beispiel, bei der keine aktuelle Messung in dem Schätzbereich des verfolgten Objekts gefunden wird.
  • Die vorstehend beschriebene Korrelation kann wie folgt verallgemeinert werden. D. h., wenn die Anzahl der verfolgten Objekte = N und die Anzahl der aktuellen Messungen in dem Schätzbereich = M ist, wird eine Variable anm, die einen binären Wert von entweder 0 oder 1 annimmt, wie folgt definiert, um eine aktuelle Messung mit einem verfolgten Objekt zu korrelieren (siehe Gleichung 5). In diesem Fall ist anm = 1, wenn die Messung m und das Objekt n korreliert sind, und ist anm für die anderen Werte von m und n = 0(Null)(1 ≤ m ≤ M, 1 ≤ n ≤ N).
  • Figure 00140002
  • Figure 00150001
  • In diesem Fall kann die dem verfolgten Objekt entsprechende aktuelle Messung dann, wenn n ≥ N + 1 und m ≤ M ist, aufgrund von Abschattung, Kombination oder dergleichen nicht erfasst werden. Wenn n ≤ N m ≥ M + 1 ist, ist die aktuelle Messung nicht vorhanden, da die Messung von einem neu eingeführten Objekt oder dergleichen stammt. In diesem Fall sind die Grenzen n ≥ N + 1 und m ≥ M + 1 der Einfachheit halber festgelegt.
  • Die Korrelation zwischen der aktuellen Messung und dem verfolgten Objekt dient dazu, eine optimale Zuweisung a* zu finden, wobei das Finden der optimalen Zuweisung a* einer Maximierung der Wahrscheinlichkeitsfunktion p[Zk|a] unter einem durch die Gleichung (5) gegebenen Zustand entspricht. Folglich wird die Korrelation zwischen der aktuellen Messung und dem verfolgten Objekt als Minimalwertsuche gemäß der Gleichung (6) normiert.
  • Figure 00150002
  • Die Kostenfunktion cnm in der Gleichung 6 ist durch die folgende Gleichung 7 gegeben.
    Figure 00150003
  • λD:
    Erfassungsrate des verfolgten Objekts
    VVG:
    Schätzbereich
    Lnm:
    Wahrscheinlichkeitsfunktion, wenn die aktuelle Messung m mit dem verfolgten Objekt n korreliert
  • In diesem Fall kommt es öfters vor, dass die jeden Fußgänger darstellende aktuelle Messung in Abhängigkeit der die Lage betreffenden Beziehung von einer Mehrzahl von Fußgängern in der aktuellen Umgebung abgeschattet bzw. verschattet, kombiniert oder geteilt ist. Um diese Situationen zu bewältigen, wird ein regelbasierendes Verfolgungsmanagement (rule base tracking management) eingeführt. Genauer gesagt, wenn ein Abschattung und/oder eine Kombination erfasst wird/werden, wird eine Extrapolation auf der Grundlage eines Erwartungswerts der Position des verfolgten Objekts durch das Kalman-Filtern verwendet. D. h., selbst dann, wenn keine aktuelle Messung vorhanden ist, welche dem Erwartungswert entspricht, wird ein neuer Erwartungswert auf der Grundlage des zuvor berechneten Erwartungswerts berechnet. Die Extrapolation des Erwartungswerts wird für eine vorbestimmte Anzahl von Erfassungsintervallen fortgesetzt. Wenn demgegenüber eine Teilung beobachtet wird, wird ein neues Objekt verfolgt, wenn bestimmt wird, dass für eine bestimmte Zeitspanne keine erfolgreiche Extrapolation zum Korrelieren der aktuellen Messung ausgeführt wurde.
  • Obgleich die vorliegende Erfindung vollständig in Verbindung mit ihrer bevorzugten Ausführungsform unter Bezugnahme auf die beigefügte Zeichnung beschrieben wurde, wird Fachleuten ersichtlich sein, dass sie auf verschiedene Weisen geändert und modifiziert werden kann.
  • Das Verfahren und die Vorrichtung der vorliegenden Ausführungsform können beispielsweise dazu verwendet werden, einen Fußgänger, statt vor dem Fahrzeug, in einer hinteren Richtung und/oder in einer seitlichen Richtung des Fahrzeugs zu erfassen.
  • Das Verfahren und die Vorrichtung können ferner beispielsweise dazu verwendet werden, einen Eindringling in einen bestimmten Bereich zu erkennen, anstelle zur Fußgängererkennung in dem Fahrzeug verwendet zu werden. Genauer gesagt, der Eindringling in den bestimmten Bereich kann ohne manuelle Bedienung automatisch abgetastet und erfasst werden, indem das Laserradar der vorliegenden Erfindung installiert wird.
  • Solche Änderungen und Modifikationen sollen als mit in dem Schutzumfang der vorliegenden Erfindung, sowie er in dem beigefügten Ansprüchen dargelegt wird, beinhaltet verstanden werden.
  • Vorstehend wurden eine Vorrichtung und ein Verfahren zur Fußgängererkennung offenbart.
  • Eine Vorrichtung mit einem Laserradar 10, 20 wird dazu verwendet, einen Fußgänger zu erkennen, indem sie eine Position von Reflexionsobjekten erfasst, die Objekte in einem zweidimensionalen Koordinatensystem abbildet, bestimmt, ob sich die Objekte bewegen, und sich bewegende Objekte, die sich dicht beieinander befinden, gruppiert. Auf der Grundlage einer Gruppengröße einer Objektgruppe kann der der Objektgruppe zugeordnete Fußgänger genau erkannt werden.

Claims (12)

  1. Fußgängererkennungsvorrichtung, umfassend: – eine Radareinheit (10, 20) zum Aussenden eines Radarstrahls und zum Empfangen eines reflektierten Strahls, der von einem Reflexionsobjekt reflektiert wird, wenn ein Erfassungsbereich in einer Mehrzahl von Abtastlinien in einem vorbestimmten Erfassungsintervall durch den Radarstrahl abgetastet wird; – eine Reflexionsobjekterfassungseinheit (60) zur Erfassung einer Position des Reflexionsobjekts als zweidimensionale Koordinaten in einem vorbestimmten Koordinatensystem auf der Grundlage eines Ergebnisses einer Aussendung des Radarstrahls und eines Empfangs des reflektierten Strahls durch die Radareinheit; – eine Objektbestimmungseinheit (60) zum Bestimmen, ob das reflektierte Objekt ein haltendes oder ein sich bewegendes Objekt ist, auf der Grundlage einer die Lage betreffenden Änderung des Reflexionsobjekts, die durch die zweidimensionalen Koordinaten in dem vorbestimmten Koordinatensystem dargestellt wird, die von einer mehrmaligen Positionserfassung des Reflexionsobjekts in dem vorbestimmten Erfassungsintervall stammen; und – eine Fußgängererkennungseinheit (60) zur Erkennung eines Fußgängers, wobei die Fußgängererkennung als Bildung einer Objektgruppe naher Reflexionsobjekte ausgeführt wird, um eine Objektgruppe der Reflexionsobjekte in den zweidimensionalen Koordinaten in dem vorbestimmten Koordinatensystem von den Reflexionsobjekten zu bilden, die auf der Grundlage eines Bestimmungsergebnisses der Objektbestimmungseinheit (60) als das sich bewegende Objekt bestimmt werden, und wobei der Bildung der Objektgruppe eine Bestimmung einer Gruppengröße der Objektgruppe auf der Grundlage eines vorbestimmten Kriteriums der Gruppengröße zur Verknüpfung der Objektgruppe mit dem Fußgänger folgt.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass sie ferner eine Bewegungserfassungseinheit zur Erfassung einer Bewegung eines Subjektfahrzeugs aufweist, wobei – die Fußgängererkennungsvorrichtung in dem Subjektfahrzeug angeordnet ist, – die Objektbestimmungseinheit (60) ein absolutes Koordinatensystem mit einem willkürlich bestimmten Ursprung als das vorbestimmte Koordinatensystem zum Definieren der zweidimensionalen Koordinaten einer Objektposition verwendet, – die Position des Subjektfahrzeugs auf der Grundlage eines Erfassungsergebnisses der Bewegungserfassungseinheit als Koordinaten in dem absoluten Koordinatensystem berechnet wird, und – eine die Lage betreffende Beziehung des Subjektfahrzeugs bezüglich der Position des Reflexionsobjekts in dem absoluten Koordinatensystem in Verbindung mit der Position des Subjektfahrzeugs für eine Berechnung der Koordinaten der Position des Reflexionsobjekts verwendet wird.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Reflexionsobjekterfassungseinheit (60) die Koordinaten der Position des Subjektfahrzeugs berechnet, indem sie ein Model anwendet, das einen Schräglaufwinkel in Übereinstimmung mit der Fahrgeschwindigkeit des Subjektfahrzeugs ändert, wenn sich das Subjektfahrzeug in einer Drehbewegung befindet.
  4. Vorrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass – die Radareinheit (10, 20) eine Mehrzahl von Radarstrahlen in vertikal und horizontal verschiedenen Richtungen aussendet; – die Mehrzahl von Radarstrahlen in den vertikal verschiedenen Richtungen derart gesteuert werden, dass sie von dem Fußgänger reflektiert werden; und – die Reflexionsobjekterfassungseinheit (60) eine Position des Reflexionsobjekts, das durch die Mehrzahl von Radarstrahlen in den vertikal verschiedenen Richtungen erfasst wird, durch zweidimensionale Ortskoordinaten bestimmt, die für gewöhnlich dazu verwendet werden, eine Objektposition auf einer Straßenoberfläche in dem zweidimensionalen Koordinatensystem zu lokalisieren.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass – die Fußgängererkennungseinheit eine erwartete Position der als Fußgänger bestimmten Objektgruppe der Reflexionsobjekte berechnet, indem sie ein Kal man-Filter anwendet wird, das eine Beschleunigungskomponente unter der Annahme, dass die Objektgruppe der Reflexionsobjekte ein Körper in einer gleichförmigen Bewegung ist, als Rauschen ansieht; und – die Fußgängererkennungseinheit die Objektgruppe der Reflexionsobjekte auf der Grundlage eines vorbestimmten Verhältnisses zwischen der erwarteten Position und einer aktuellen Messung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte verfolgt.
  6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass – die Fußgängererkennungseinheit die erwartete Position der als der Fußgänger bestimmten Objektgruppe der Reflexionsobjekte selbst dann berechnet, wenn das vorbestimmte Verhältnis zwischen der erwarteten Position und der aktuellen Messung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte diskrepant ist; und – die Fußgängererkennungseinheit ein Verfolgen der Objektgruppe der Reflexionsobjekte auf der Grundlage des vorbestimmten Verhältnisses zwischen der erwarteten Position und der aktuellen Messung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte in dem vorbestimmten Erfassungsintervall für eine vorbestimmte Anzahl von Malen auf eine Erfassung der Diskrepanz folgend fortsetzt.
  7. Fußgängererkennungsverfahren, die Schritte umfassend: – Aussenden eines Radarstrahls und Empfangen eines reflektierten Strahls, der als Ergebnis einer Reflexion des Radarstrahls von einem Reflexionsobjekt erhalten wird, wenn ein Erfassungsbereich in einer Mehrzahl von Abtastlinien in einem vorbestimmten Erfassungsintervall durch den Radarstrahl abgetastet wird; – Erfassen einer Position des Reflexionsobjekts als zweidimensionale Koordinaten in einem vorbestimmten Koordinatensystem auf der Grundlage eines Ergebnisses einer Aussendung des Radarstrahls und eines Empfangs des reflektierten Strahls; – Bestimmen, ob das reflektierte Objekt ein haltendes oder ein sich bewegendes Objekt ist, auf der Grundlage einer die Lage betreffenden Änderung des Reflexionsobjekts, die durch die zweidimensionalen Koordinaten in dem vorbestimmten Koordinatensystem dargestellt wird, als Folge eines mehrmaligen Abtastens des Reflexionsobjekts in dem vorbestimmten Erfassungsintervall; und – Ausführen einer Fußgängererkennung, wobei die Fußgängererkennung als Bildung einer Objektgruppe naher Reflexionsobjekte ausgeführt wird, um eine Objektgruppe der Reflexionsobjekte in den zweidimensionalen Koordinaten des vorbestimmten Koordinatensystems von den Reflexionsobjekten zu bilden, die auf der Grundlage eines Bestimmungsergebnisses, dass jedes der Reflexionsobjekte entweder das haltende oder das sich bewegende Objekt ist, als das sich bewegende Objekt bestimmt werden, und der Bildung der Objektgruppe eine Bestimmung einer Gruppengröße der Objektgruppe auf der Grundlage eines vorbestimmten Kriteriums der Gruppengröße zur Verknüpfung der Objektgruppe mit dem Fußgänger folgt.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass es ferner den Schritt Erfassen einer Bewegung eines Subjektfahrzeugs umfasst, wobei – die Fußgängererkennung in dem Subjektfahrzeug ausgeführt wird, um einen sich in der Nähe des Subjektfahrzeugs befindlichen Fußgänger zu erkennen, – das vorbestimmte Koordinatensystem zum Definieren der zweidimensionalen Koordinaten einer Objektposition ein absolutes Koordinatensystem mit einem willkürlich bestimmten Ursprung ist, – die Position des Subjektfahrzeugs auf der Grundlage eines Erfassungsergebnisses der Bewegung des Subjektfahrzeugs als Koordinaten in dem absoluten Koordinatensystem berechnet wird, und – eine die Lage betreffende Beziehung des Subjektfahrzeugs bezüglich der Position des Reflexionsobjekts in dem absoluten Koordinatensystem in Verbindung mit der Position des Subjektfahrzeugs für eine Berechnung der Koordinaten der Position des Reflexionsobjekts verwendet wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass eine Berechnung der Koordinaten der Position des Subjektfahrzeugs ausgeführt wird, indem ein Model angewendet wird, das einen Schräglaufwinkel in Übereinstimmung mit der Fahrgeschwindigkeit des Subjektfahrzeugs ändert, wenn sich das Subjektfahrzeug in einer Drehbewegung befindet.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass – eine Mehrzahl von Radarstrahlen in vertikal und horizontal verschiedenen Richtungen aussendet werden; – die Mehrzahl von Radarstrahlen in den vertikal verschiedenen Richtungen derart gesteuert werden, dass sie von dem Fußgänger reflektiert werden; und – eine Position des Reflexionsobjekts, das durch die Mehrzahl von Radarstrahlen in den vertikal verschiedenen Richtungen erfasst wird, als eine Mehrzahl an Sätzen von Koordinaten bestimmt wird, die für gewöhnlich dazu verwendet werden, eine Objektposition auf einer Straßenoberfläche in dem zweidimensionalen Koordinatensystem zu lokalisieren.
  11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass – eine Berechnung einer erwarteten Position der als Fußgänger bestimmten Objektgruppe der Reflexionsobjekte ausgeführt wird, indem sie ein Kalman-Filter anwendet wird, das eine Beschleunigungskomponente unter der Annahme, dass die Gruppe der Reflexionsobjekte ein Körper in einer gleichförmigen Bewegung ist, als Rauschen ansieht; und – ein Verfolgen der Objektgruppe der Reflexionsobjekte auf der Grundlage eines vorbestimmten Verhältnisses zwischen der erwarteten Position und einer aktuellen Messung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte ausgeführt wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass – eine Berechnung der erwarteten Position der als der Fußgänger bestimmten Objektgruppe der Reflexionsobjekte selbst dann ausgeführt wird, wenn das vorbestimmte Verhältnis zwischen der erwarteten Position und der aktuellen Mes sung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte diskrepant ist; und – ein Verfolgen der Objektgruppe der Reflexionsobjekte auf der Grundlage des vorbestimmten Verhältnisses zwischen der erwarteten Position und der aktuellen Messung der Koordinaten der Position der Objektgruppe der Reflexionsobjekte in dem vorbestimmten Erfassungsintervall für eine vorbestimmte Anzahl von Malen auf eine Erfassung der Diskrepanz folgend fortsetzt wird.
DE102007023888A 2006-07-18 2007-05-23 Vorrichtung und Verfahren zur Fussgängererkennung Expired - Fee Related DE102007023888B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006196124A JP2008026997A (ja) 2006-07-18 2006-07-18 歩行者認識装置及び歩行者認識方法
JP2006-196124 2006-07-18

Publications (2)

Publication Number Publication Date
DE102007023888A1 true DE102007023888A1 (de) 2008-01-31
DE102007023888B4 DE102007023888B4 (de) 2013-01-31

Family

ID=38859553

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007023888A Expired - Fee Related DE102007023888B4 (de) 2006-07-18 2007-05-23 Vorrichtung und Verfahren zur Fussgängererkennung

Country Status (3)

Country Link
US (1) US7598848B2 (de)
JP (1) JP2008026997A (de)
DE (1) DE102007023888B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008035942A1 (de) 2007-09-04 2009-03-05 Continental Teves Ag & Co. Ohg Erkennung von Verkehrsteilnehmern
DE102009005920A1 (de) 2009-01-23 2010-07-29 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs
WO2016020357A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4937844B2 (ja) * 2007-06-12 2012-05-23 富士重工業株式会社 歩行者検出装置
JP4892518B2 (ja) * 2008-05-20 2012-03-07 日立オートモティブシステムズ株式会社 車両用外界認識装置、および、車両システム
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
JP5448429B2 (ja) * 2008-11-28 2014-03-19 綜合警備保障株式会社 移動体検知装置および移動体検知方法
JP5572339B2 (ja) * 2009-07-03 2014-08-13 富士重工業株式会社 オンラインリスク認識システム
US8537030B2 (en) * 2010-02-15 2013-09-17 Ford Global Technologies, Llc Pedestrian alert system and method
JP5700940B2 (ja) * 2010-03-16 2015-04-15 ダイハツ工業株式会社 物体認識装置
JP5491242B2 (ja) * 2010-03-19 2014-05-14 本田技研工業株式会社 車両周辺監視装置
JP5556317B2 (ja) * 2010-04-07 2014-07-23 株式会社デンソー 物体認識装置
JP5630249B2 (ja) 2010-12-06 2014-11-26 株式会社デンソー 物体認識装置
JP5972259B2 (ja) * 2011-03-24 2016-08-17 古河電気工業株式会社 レーダ装置
JP5316572B2 (ja) 2011-03-28 2013-10-16 トヨタ自動車株式会社 物体認識装置
US8799201B2 (en) 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
JP5712900B2 (ja) * 2011-11-08 2015-05-07 トヨタ自動車株式会社 周辺物体検出装置
KR101338075B1 (ko) * 2011-12-14 2013-12-06 현대자동차주식회사 레이저 빔을 이용한 보행자 경고방법
JP2013140515A (ja) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc 立体物検出装置及びプログラム
US9063225B2 (en) 2012-03-07 2015-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. High resolution Doppler collision avoidance radar
JP6020321B2 (ja) * 2013-04-11 2016-11-02 株式会社デンソー 物標検出装置及び車両制御システム
US9336436B1 (en) * 2013-09-30 2016-05-10 Google Inc. Methods and systems for pedestrian avoidance
DE102013017347A1 (de) * 2013-10-18 2015-04-23 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Verfahren zum Klassifizieren von Hindernissen
DE102013018751A1 (de) 2013-11-08 2015-05-13 Daimler Ag Verfahren zur Bestimmung einer Bewegungsrichtung eines Fußgängers
JP6382525B2 (ja) * 2014-02-10 2018-08-29 株式会社デンソー 物体識別方法、および物体識別装置
JP6011568B2 (ja) * 2014-03-13 2016-10-19 三菱電機ビルテクノサービス株式会社 乗客コンベアの人検知装置
JP6287423B2 (ja) * 2014-03-24 2018-03-07 株式会社デンソー 無線通信装置
CN107209993B (zh) * 2014-07-03 2020-08-04 通用汽车环球科技运作有限责任公司 车辆认知雷达方法和系统
WO2016003473A1 (en) 2014-07-03 2016-01-07 GM Global Technology Operations LLC Vehicle radar methods and systems
JP2016103194A (ja) * 2014-11-28 2016-06-02 パナソニックIpマネジメント株式会社 車両走行支援装置及び車両走行支援方法
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
US9435635B1 (en) * 2015-02-27 2016-09-06 Ge Aviation Systems Llc System and methods of detecting an intruding object in a relative navigation system
US10686487B2 (en) * 2015-06-23 2020-06-16 Eridan Communications, Inc. Universal transmit/receive module for radar and communications
JP2017021696A (ja) * 2015-07-14 2017-01-26 株式会社キクテック 横断者検知装置
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
US10690495B2 (en) * 2016-03-14 2020-06-23 Canon Kabushiki Kaisha Ranging apparatus and moving object capable of high-accuracy ranging
JP6638531B2 (ja) * 2016-04-07 2020-01-29 トヨタ自動車株式会社 周辺物体検出装置
BR112018077145A2 (pt) * 2016-06-27 2019-04-30 Nissan Motor Co., Ltd. método de rastreamento de objeto e dispositivo de rastreamento de objeto
EP3298874B1 (de) * 2016-09-22 2020-07-01 Honda Research Institute Europe GmbH Robotergartenarbeitsvorrichtung und verfahren zur steuerung davon
CN106515578A (zh) * 2016-12-22 2017-03-22 百度在线网络技术(北京)有限公司 无人车驾驶状态的识别装置、识别方法及无人车
JP6415795B1 (ja) * 2017-01-25 2018-10-31 三菱電機株式会社 混雑予測装置及び混雑予測方法
CN108732582B (zh) * 2017-04-20 2020-07-10 百度在线网络技术(北京)有限公司 车辆定位方法和装置
US20190004544A1 (en) * 2017-06-29 2019-01-03 Ge Aviation Systems, Llc Method for flying at least two aircraft
JP2019055756A (ja) * 2017-09-22 2019-04-11 トヨタ自動車株式会社 車両用認知支援装置
US11003916B2 (en) * 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
JP6941226B2 (ja) * 2018-03-22 2021-09-29 日立Astemo株式会社 物体認識装置
KR102021534B1 (ko) * 2018-08-29 2019-10-18 주식회사 핀텔 딥러닝 기반 차량 및 보행자 감지 영상 분석 장치 및 그 방법
WO2020186420A1 (zh) * 2019-03-18 2020-09-24 深圳市大疆创新科技有限公司 一种目标检测方法、设备、毫米波雷达及可移动平台
US20220146644A1 (en) 2019-04-12 2022-05-12 Lumibird Limited Monostatic scanning lidar using a multi-faceted polygon mirror as one of dual redirecting elements
JP7348881B2 (ja) * 2020-06-10 2023-09-21 株式会社日立製作所 障害物検知システム、障害物検知方法および自己位置推定システム
JP7235015B2 (ja) * 2020-07-17 2023-03-08 トヨタ自動車株式会社 自動操舵システム
WO2022180669A1 (ja) * 2021-02-24 2022-09-01 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
EP4109127B1 (de) * 2021-06-21 2023-05-10 Sick Ag Optoelektronischer sensor und verfahren zur erfassung von objekten

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3189711B2 (ja) * 1996-11-01 2001-07-16 三菱自動車工業株式会社 車両の前方認識装置
JP3450189B2 (ja) * 1998-06-16 2003-09-22 ダイハツ工業株式会社 歩行者検知システム及びその制御方法
JP3472815B2 (ja) * 2000-10-31 2003-12-02 国土交通省国土技術政策総合研究所長 横断歩行者検出方法
JP2002157697A (ja) * 2000-11-21 2002-05-31 Mazda Motor Corp 車両の制御装置
JP3645177B2 (ja) * 2000-11-29 2005-05-11 三菱電機株式会社 車両周辺監視装置
US6873251B2 (en) * 2002-07-16 2005-03-29 Delphi Technologies, Inc. Tracking system and method employing multiple overlapping sensors
JP4012952B2 (ja) * 2002-12-09 2007-11-28 財団法人生産技術研究奨励会 通行人軌跡抽出装置およびシステム
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
JP2007534041A (ja) * 2003-09-23 2007-11-22 ダイムラークライスラー・アクチェンゲゼルシャフト 車両用の車線変更運転認識方法及び装置
DE10353347A1 (de) 2003-11-14 2005-06-02 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Fußgängern
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
JP4493415B2 (ja) * 2004-06-07 2010-06-30 東日本旅客鉄道株式会社 通行人行動解析システム
JP3954053B2 (ja) * 2004-09-03 2007-08-08 三菱電機株式会社 車両周辺監視装置
JP4561346B2 (ja) * 2004-12-08 2010-10-13 株式会社豊田中央研究所 車両運動推定装置及び移動体検出装置
DE102006001033A1 (de) 2005-03-03 2006-09-07 Volkswagen Ag Vorrichtung und Verfahren zur Erkennung eines Objektes für ein Kraftfahrzeug
JP4797794B2 (ja) * 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008035942A1 (de) 2007-09-04 2009-03-05 Continental Teves Ag & Co. Ohg Erkennung von Verkehrsteilnehmern
DE102009005920A1 (de) 2009-01-23 2010-07-29 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs
EP2466566A1 (de) 2009-01-23 2012-06-20 Hella KGaA Hueck & Co. Verfahren und Vorrichtung zum Steuern mindestens einer Lichtzeichenanlage eines Fußgängerüberwegs
WO2016020357A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
US10338601B2 (en) 2014-08-05 2019-07-02 Valeo Schalter Und Sensoren Gmbh Method for generating a surroundings map of a surrounding area of a motor vehicle, driver assistance system and motor vehicle

Also Published As

Publication number Publication date
DE102007023888B4 (de) 2013-01-31
US7598848B2 (en) 2009-10-06
JP2008026997A (ja) 2008-02-07
US20080019567A1 (en) 2008-01-24

Similar Documents

Publication Publication Date Title
DE102007023888B4 (de) Vorrichtung und Verfahren zur Fussgängererkennung
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE10356797B4 (de) Objekt-Erkennungsvorrichtung für ein Fahrzeug, Fahrzeug-zu-Fahrzeug-Steuervorrichtung und Abstandsmessvorrichtung
DE102005019269B4 (de) Vorrichtung zur Erkennung eines vorhergehenden Fahrzeugs
DE19757849C5 (de) Scanner und Vorrichtung zur optischen Erfassung von Hindernissen, sowie deren Verwendung
DE4016973C1 (de)
DE102004010197B4 (de) Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
DE10359212B4 (de) Hinderniserfassungssystem für ein Kraftfahrzeug
EP1628141B1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
WO2013102507A1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
DE102007021762A1 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
DE102011087751B4 (de) Verfahren und Vorrichtung zum Erkennen des Vorhandenseins von Objekten
EP2804014B1 (de) Vorrichtung und Verfahren zum Bestimmen eines Fahrzeugmerkmals
EP3259614B1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102021001452A1 (de) Verfahren zur Umgebungserfassung
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE102019213963A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors
DE10349210B4 (de) System und Verfahren zum vorausschauenden Detektieren eines potentiellen Unfallobjektes im Kraftfahrzeugbereich
EP3885787B1 (de) Erfassung von abstandsmessdaten
EP3531167A1 (de) Verfahren und vorrichtung zur optischen distanzmessung
EP4010737A1 (de) Lidar-messsystem mit zwei lidar-messvorrichtungen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130501

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee