-
HINTERGRUND DER ERFINDUNG
-
[Technisches Gebiet der Erfindung]
-
Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Erkennen einer Anwesenheit von Objekten aus den Erfassungsergebnissen, die von einem Laserradarsystem erlangt werden und insbesondere auf die bevorzugte Anwendung des Verfahrens und der Vorrichtung auf Fahrzeuge.
-
[Stand der Technik]
-
Objekterkennungsvorrichtungen sind bekannt. Beispielsweise wird bei einer bekannten Objekterkennungsvorrichtung ein Objekt (hauptsächlich ein vorausfahrendes Fahrzeug), das sich in der Vorwärtsrichtung des betreffenden Fahrzeugs befindet, erkannt, um eine Fahrzeugsteuerung, wie beispielsweise adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC) oder eine Steuerung basierend auf einem Unfallvorhersagesystem (Pre-Crash safety System, PCS) durchzuführen.
-
Beispielsweise offenbart
JP 2004 - 53 278 A diesen Typ Erkennungsvorrichtung. Diese Objekterkennungsvorrichtung beinhaltet ein Laserradarsystem und eine Bildaufnahmeeinheit. Das Laserradarsystem emittiert sequenziell Laserstrahlen (d. h., Testwellen) entlang einer vorbestimmten Abtastrichtung, so dass die Strahlen nebeneinander angrenzend angeordnet sind. Dann wird ein Objekt als ein zu erfassendes Objekt basierend auf den Ergebnissen der Emission der Laserstrahlen erkannt. In der Zwischenzeit nimmt die Bildaufnahmeeinheit ein Bild auf, das als eine Bildauswahl mindestens einen Abtastbereich der Laserstrahlen beinhaltet. Dann wird das aufgenommene Bild einer Bilderkennungsverarbeitung unterworfen, so dass ein zu erfassendes Objekt erkannt wird. Bei einer derartigen Objekterkennungsvorrichtung wird der Ort des zu erfassendes Objekts, das sowohl durch das Laserradarsystem als auch die Bildaufnahmeeinheit erkannt wurde, auf zeitserielle Weise nachverfolgt.
-
Bei der Objekterkennungsvorrichtung erzeugt das Laserradarsystem (nachfolgend ebenso als „herkömmliches Radarsystem“ bezeichnet) ein Datum eines gemessenen Abstands jedes Mal, wenn ein Laserstrahl emittiert wird, basierend auf einer von einem Objekt reflektierten Welle, die als ein Ergebnis der Emission des Laserstrahls erlangt wird. Das Datum eines gemessenen Abstands beinhaltet den Ort des Objekts (d. h., einen Abstand vom Laserradarsystem zum Objekt, eine Koordinate in der Breitenrichtung des Fahrzeugs und eine Koordinate in der Höhenrichtung des Fahrzeugs).
-
Der Ort des Objekts kann sich zwischen Daten gemessener Abstände unterscheiden. Diese Daten gemessener Abstände, die einen Bereich ausbilden und den vorstehenden Unterschied von nicht mehr als einem vorbestimmten zulässigen Betrag aufweisen, sind als zur selben Gruppe zugehörig gruppiert. Dann wird der Ort der gruppierten Daten gemessener Abstände oder einer Gruppe von Daten gemessener Abstände auf eine zeitserielle Weise nachverfolgt, um ein zu erfassendes Objekt zu erkennen. Dies ist die herkömmlich durchgeführte Verarbeitung der Objekterkennung.
-
7A ist ein Diagramm, das die Fahrbedingungen von Fahrzeugen A und B darstellt, die eine Straße in der Vorwärtsrichtung des betreffenden Fahrzeugs befahren. 7B ist ein Diagramm, das die Zustände von Daten gemessener Abstände darstellt, die durch das herkömmliche Radarsystem unter der Fahrbedingung, die in 7A dargestellt ist, als die Fahrzeuge A und B erkannt wurden.
-
Wie in 7A dargestellt ist, nähert sich das Fahrzeug B, das zur Zeit t hinter dem Fahrzeug A fährt, dem Fahrzeug A zur Zeit t+1. Dann fährt das Fahrzeug B zur Zeit t+2, das sich mit seinem Endabschnitt (linkes Ende) einem Endabschnitt (rechtes Ende) des Fahrzeugs A annähert, schließlich Seite an Seite mit dem Fahrzeug A. Dann fährt das Fahrzeug B zur Zeit t+3 vor dem Fahrzeug A.
-
Zu den Zeiten t, t+1 und t+3 ist der Unterscheid der Daten gemessener Abstände entsprechend dem Endabschnitt (rechtes Ende) des Fahrzeugs A und den Daten gemessener Abstände entsprechend dem Endabschnitt (linkes Ende) des Fahrzeugs B unter derartigen Umständen größer als ein zulässiger Betrag. Dadurch gruppiert das herkömmliche Radarsystem, wie in 7B dargestellt ist, die Daten gemessener Abstände entsprechend dem Fahrzeug A und die Daten gemessener Abstände entsprechend dem Fahrzeug B separat, um die Fahrzeuge A und B einzeln zu erkennen.
-
Andererseits ist zur Zeit t+2 der Abstand vom herkömmlichen Radarsystem zum Fahrzeug A gleich dem Abstand zum Fahrzeug B. Ebenso wird, da sich das Fahrzeug B dem Fahrzeug A angenähert hat, der Abstand zwischen dem Endabschnitt (rechtes Ende) des Fahrzeugs A und dem Endabschnitt (linkes Ende) des Fahrzeugs B in der Breitenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Breitenrichtung“ bezeichnet) klein.
-
Indessen streut ein Laserstrahl, der von dem herkömmlichen Radarsystem emittiert wird, wenn der Abstand nach der Emission länger wird, wodurch die Strahlbreite größer werden kann. Dadurch kann es sein, dass der Laserstrahl, der in Richtung des Raums zwischen den Fahrzeugen A und B emittiert wird, den Raum zwischen den Fahrzeugen A und B nicht passieren kann, sondern möglicherweise durch das Fahrzeug A oder das Fahrzeug B reflektiert wird. In einem derartigen Fall wird bei dem herkömmlichen Radarsystem der Unterschied zwischen dem Datum eines gemessenen Abstands, der als der Endabschnitt (rechtes Ende) des Fahrzeugs A erfasst wird, und dem Datum eines gemessenen Abstands, der als der Endabschnitt des Fahrzeugs B erfasst werden, gleich oder kleiner als der zulässige Betrag. Demzufolge werden die Daten gemessener Abstände der Fahrzeuge A und B als ein einzelnes Objekt (d. h. ein einzelnes Fahrzeug) gruppiert. Dies erhöht ein Problem, dass die zwei Fahrzeug A und B fehlerhaft als ein einzelnes Objekt erkannt werden.
-
Darüber hinaus wird beim zeitseriellen Nachverfolgen der Orte der Fahrzeuge A und B, unter Verwendung des herkömmlichen Radarsystems, das Nachverfolgen beibehalten wobei die Fahrzeuge A und B fehlerhaft erkannt werden. Dadurch liegt ein Problem darin, dass zur Zeit t+2 die Verhalten der fehlerhaft erkannten Fahrzeuge als ein Objekt als Schleudern betrachtet werden, oder die Größe des Fahrzeugs als ein Objekt als plötzlich sehr groß betrachtet wird.
-
In anderen Worten leidet das herkömmliche Radarsystem unter einem Problem, dass, wenn mehr als ein zu erfassendes Objekt nahe entlang der Abtastrichtung befindlich ist, die einzelnen zu erfassenden Objekte nicht mit guter Genauigkeit erfasst werden können.
-
Ferner wird auf die
US 2008 / 0 089 557 A1 , die
US 2004 / 0 176 900 A1 und die
JP 2002 - 99 907 A verwiesen, die als Stand der Technik ermittelt wurden.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Die vorliegende Erfindung wurde im Hinblick auf die vorstehend erläuterten Probleme gemacht und ihre Aufgabe ist es, eine Objekterkennungsvorrichtung bereitzustellen, die die Erkennungsgenauigkeit (oder Schätzgenauigkeit) für mehr als ein zu erfassendes Objekt verbessern kann, sogar wenn die Objekte sich in der Abtastrichtung nahe zueinander befinden.
-
Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung erkennt (oder schätzt) die Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen.
-
In der Vorrichtung erlangt ein Ortserlangungsmittel ein Datum eines gemessenen Abstands, das den Ort eines Objekts angibt, wobei das Datum eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird.
-
Ebenso erlangt in der Vorrichtung ein Bilderlangungsmittel ein Bilddatum, das ein Bild eines Bereichs ist, der einen Abtastbereich der Testwellen beinhaltet.
-
In der Vorrichtung erfasst ein Kandidatenerfassungsmittel einen Kandidatenbereich, in dem Daten gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten der gemessenen Abstände, die durch das Ortserlangungsmittel erlangt werden, wobei die gruppierten Daten der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag beabstandet sind.
-
Ebenso bestimmt in der Vorrichtung ein Spezialkandidatenbereichsbestimmungsmittel einen Spezialkandidatenbereich in dem Kandidatenbereich, der durch das Kandidatenerfassungsmittel erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist.
-
In der Vorrichtung erkennt ein Auswahlerfassungsmittel ein Objekt durch Unterwerfen des Bilddatums, das durch das Bilderlangungsmittel erlangt wird, einer Bilderkennungsverarbeitung, und erfasst eine Auswahl von Daten gemessener Abstände, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht.
-
In der Vorrichtung teilt ein Kandidatenteilmittel den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten, wobei die Grenzposition einem Ende der Auswahl der Daten gemessener Abstände entspricht, die durch das Auswahlerfassungsmittel erfasst werden.
-
Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung wird, wenn der Kandidatenbereich dem Spezialkandidatenbereich entspricht, der Spezialkandidatenbereich in Bereiche entsprechend den einzelnen Objekten basierend auf dem Bereich der Daten gemessener Abstände, die vom Bilddatum erfasst werden, geteilt.
-
Somit können gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung unter der Bedingung, bei der mehr als ein zu erfassendes Objekt (nachfolgend ebenso als „Erfassungsobjekte“ bezeichnet) angrenzend entlang der Abtastrichtung anwesend ist, alle Erfassungsobjekte als einzelne Erfassungsobjekte erkannt werden, wodurch die Erfassungsgenauigkeit für die Erfassungsobjekte verbessert ist.
-
Ferner kann gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung Hochgenauigkeitserkennen bezüglich der zeitseriellen Änderung des Orts jedes erkannten Erfassungsobjekts, d. h. bezüglich der Verhalten jedes Erfassungsobjekts, durchgeführt werden.
-
Es ist zu beachten, dass bei der Objekterkennungsvorrichtung der vorliegenden Erfindung das Kandidatenteilmittel einen Kandidatenbereich in Divisionen teilen kann. Dann kann der Ort jeder Division, die ein Kandidatenbereich ist, auf zeitserielle Weise nachverfolgt werden, so dass das Objekterkennungsmittel ein Erfassungsobjekt aus den Ergebnissen des zeitseriellen Nachverfolgens erkennen kann.
-
In der vorliegenden Erfindung kann das Auswahlerfassungsmittel die Bilderkennungsverarbeitung für einen Bereich in den Bilddaten durchführen, wobei der Bereich dem Spezialkandidatenbereich entspricht.
-
Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung unterworfen wird, auf den Bereich entsprechend dem Spezialkandidatenbereich beschränkt. Demzufolge ist die Prozesslast reduziert, was zum Erfassen des Bereichs von Daten gemessener Abstände in einem Bilddatum notwendig ist. Somit wird gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung die erforderliche Zeit zum Erfassen des Bereichs der Daten gemessener Abstände verkürzt.
-
In der vorliegenden Erfindung kann das Auswahlerfassungsmittel den Kandidatenbereich als den Spezialkandidatenbereich bestimmen, wenn der Kandidatenbereich eine Größe größer als ein vorbestimmter Betrag aufweist, der die Größe eines Einheitskörpers jedes der zu erfassenden Objekte angibt.
-
Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung wird ein Bereich, der mit hoher Wahrscheinlichkeit mehr als ein Erfassungsobjekt beinhaltet, als ein Spezialkandidatenbereich definiert. Demzufolge wird gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform fehlerhaftem Erkennen von mehr als einem Objekt als ein einzelnes Objekt (Erfassungsobjekt) verlässlicher vorgebeugt.
-
Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung kann ein Neuerfassungsmittel aufweisen, das dem Auswahlerfassungsmittel erlaubt, eine Auswahl der Daten gemessener Abstände unter Verwendung der Gruppe der Daten gemessener Abstände als den Spezialkandidatenbereich zu erfassen, wenn die Gruppe der Daten gemessener Abstände eine Größe größer als ein spezifizierter Betrag aufweist, wobei die Gruppe der Daten gemessener Abstände aus der Division resultiert, die durch das Kandidatenteilmittel durchgeführt wird.
-
Gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform können alle Erfassungsobjekte, die in einem Spezialkandidatenbereich beinhaltet sind, verlässlicher als einzelne Erfassungsobjekte erkannt werden.
-
Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung kann die Testwellen unter Verwendung von mindestens einer Breitenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittieren. In diesem Fall kann das Auswahlerfassungsmittel den Spezialkandidatenbereich definieren, in dem die Breitenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
-
Bei einer Objekterkennungsvorrichtung können mehr als ein Erfassungsobjekt nebeneinander bzw. angrenzend in der Breitenrichtung des Fahrzeugs angeordnet sein, beispielsweise, wenn mehr als ein vorausfahrendes Fahrzeug, die sich nahe zueinander befinden, Seite an Seite fahren. Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung kann fehlerhaftes Erkennen des Erfassungsobjekts als ein einzelnes Objekt (Erfassungsobjekt) in dem Fall vermieden werden, in dem sich die Erfassungsobjekte in der Breitenrichtung angrenzend zueinander bzw. nebeneinander befinden.
-
Die Objekterfassungsvorrichtung gemäß der vorliegenden Erfindung kann die Testwellen unter Verwendung von mindestens einer Höhenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittieren. In diesem Fall kann das Auswahlerfassungsmittel den Spezialkandidatenbereich definieren, in dem die Höhenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
-
Bei einer Objekterkennungsvorrichtung können mehr als ein Objekt in der Höhenrichtung des Fahrzeugs angrenzend zueinander bzw. übereinander angeordnet sein, wie beispielsweise, wenn sich ein Verkehrsschild oberhalb eines gestoppten Fahrzeugs befindet. Gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform kann fehlerhaftes Erkennen von Erfassungsobjekten als ein einzelnes Objekt (Erfassungsobjekt) in dem Fall vermieden werden, in dem Erfassungsobjekte in der Höhenrichtung übereinander angeordnet sind.
-
Die vorliegende Erfindung kann als ein Programm konfiguriert sein, um einem Computer zu erlauben, als eine Objekterkennungsvorrichtung zu funktionieren.
-
In diesem Fall ist der Computer erforderlich um einen Ortserlangungsschritt, der ein Datum eines gemessenen Abstands erlangt, das den Ort eines Objekts angibt, wobei das Datum eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird; einen Bilderlangungsschritt, der ein Bilddatum erlangt, das ein Bild eines Bereichs ist, der einen Abtastbereich der Testwellen beinhaltet; einen Kandidatenerfassungsschritt, der einen Kandidatenbereich, in dem Daten gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten der gemessenen Abstände erfasst, die durch den Ortserlangungsschritt erlangt werden, wobei die gruppierten Daten der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag beabstandet sind; einen Spezialkandidatenbereichsbestimmungsschritt, der einen Spezialkandidatenbereich in dem Kandidatenbereich bestimmt, der durch den Kandidatenerfassungsschritt erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist; einen Auswahlerfassungsschritt, der ein Objekt durch Unterwerfen des Bilddatums, das durch den Bilderlangungsschritt erlangt wird, einer Bilderkennungsverarbeitung erkennt, und eine Auswahl von Daten gemessener Abstände erfasst, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; und einen Kandidatenteilschritt auszuführen, der den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten teilt, wobei die Grenzposition einem Ende der Auswahl der Daten gemessener Abstände entspricht, die durch den Auswahlerfassungsschritt erfasst werden.
-
Ein Programm mit einer derartigen Konfiguration kann auf einem computerlesbaren Aufzeichnungsmedium wie beispielsweise einer DVD-ROM, einer CD-ROM oder einer Festplatte aufgezeichnet sein. Somit kann das Programm auf einen Computer geladen und wie erforderlich gestartet werden oder kann durch einen Computer mittels einer Kommunikationsleitung erlangt und wie erforderlich gestartet werden. Werden die einzelnen Schritte durch einen Computer ausgeführt, kann der Computer als die vorstehend erläuterte Objekterkennungsvorrichtung funktionieren.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Es zeigen:
- 1 ein schematisches Blockschaltbild, das die Konfiguration eines Objekterkennungssystems, das eine Erkennungs-ECU beinhaltet, auf welche die vorliegende Erfindung angewandt wird, und eine periphere Konfiguration des Systems gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
- 2 ein Ablaufdiagramm, das die Verarbeitungsprozedur einer Objekterkennungsverarbeitung darstellt, die durch die Erkennungs-ECU ausgeführt wird;
- 3A und 3B erläuternde Diagramme, die darstellen, wie zu erfassende Objekte aus einem Bilddatum in der Objekterkennungsverarbeitung erfasst werden;
- 4A bis 4C erläuternde Diagramme, die ein Beispiel des Betriebs gemäß der Ausführungsform darstellen;
- 5 ein schematisches Blockschaltbild, das die Konfiguration eines Objekterkennungssystems gemäß einer Modifikation der vorliegenden Erfindung darstellt;
- 6 ein Ablaufdiagramm, das die Verarbeitungsprozedur einer Objekterkennungsverarbeitung darstellt, die durch das Objekterkennungssystem gemäß der Modifikation ausgeführt wird; und
- 7A und 7B erläuternde Diagramme, die Nachteile eines Radarsystem gemäß dem Stand der Technik darstellen.
-
DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
-
Mit Bezug auf 1 bis 4A - 4C wird nachfolgend eine Ausführungsform der vorliegenden Erfindung erläutert.
-
1 ist ein schematisches Blockdiagramm, das die Konfiguration eines Objekterkennungssystems 1, das eine Erkennungs-ECU (electronic control unit, elektronische Steuereinheit) 50 beinhaltet, auf die die vorliegende Erfindung angewandt wird, und eine periphere Konfiguration des Objekterkennungssystems 1 darstellt.
-
Das Objekterkennungssystem 1 wird eingebaut in einem Fahrzeug verwendet. Das Objekterkennungssystem 1 erkennt (oder schätzt) die Anwesenheit eines Objekts, das sich vor dem betreffenden Fahrzeug befindet und erzeugt Objektdaten (oder Zieldaten), die die Informationen bezüglich des erkannten Objekts sind. Die erzeugten Objektdaten beinhalten den Typ des Objekts (beispielsweise vorausfahrendes Fahrzeug oder Straßenverkehrsschild), den Ort des Objekts (Abstand vom betreffenden Fahrzeug zum Objekt, Koordinaten in der Fahrzeugbreitenrichtung und Koordinaten in der Fahrzeughöhenrichtung), die Größe des Objekts und die relative Geschwindigkeit zwischen dem Objekt und dem Fahrzeug (oder die Geschwindigkeit des Objekts). Die Objektdaten werden einer Fahrzeugsteuerungs-ECU 60 bereitgestellt.
-
Dann führt die Fahrzeugsteuerungs-ECU 60 allgemein bekannte Fahrzeugsteuerungen wie beispielsweise adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC) basierend auf den Objektdaten durch. Beispielsweise steuert bei der ACC die Steuerungs-ECU 60 den Antriebsmechanismus, den Bremsmechanismus und den Lenkmechanismus, die im Fahrzeug eingebaut sind, so dass das Fahrzeug den Verhalten des vorausfahrenden Fahrzeugs folgen kann, während der Zwischenfahrzeugabstand mit einem vorbestimmten Pegel beibehalten wird.
-
Konkret beinhaltet das Objekterkennungssystem 1 ein Lidar-System (Light Detection And Ranging, Lichtlaufzeitmessung) 10, eine Bildaufnahmeeinheit 40 und eine Erkennungs-ECU 50.
-
Das Lidar-System 10 beinhaltet einen Lichtemitter 20 und einen Lichtempfänger 30. Der Lichtemitter 20 tastet die vorwärtige Richtung des Fahrzeugs unter Verwendung von Laserstrahlen als Testwellen ab. Der Lichtempfänger 30 empfängt reflektiertes Licht (reflektierte Wellen) von einem Objekt, wobei das reflektierte Licht dem vom Lichtemitter 20 emittierten und durch das Objekt reflektierten Laserstrahl entspricht.
-
Das Lidar-System 10 beinhaltet ebenso einen Erfassungsschaltkreis 35 und eine Lidar-Steuerung 36. Der Erfassungsschaltkreis 35 misst die Zeit, von der ab ein Laserstrahl vom Lichtemitter 20 emittiert wird, bis zur Zeit, wenn reflektiertes Licht durch den Lichtempfänger 30 empfangen wird, um ein Abstandsdatum R zu erzeugen. Die Lidar-Steuerung 36 gibt ein LD-Treibersignal (Laserdiodenantriebssignal) zum Treiben des Lichtemitters 20 aus und erzeugt ein Datum eines gemessenen Abstands basierend auf dem Abstandsdatum R, das durch den Erfassungsschaltkreis 35 erzeugt wird.
-
Beispielsweise ist das Lidar-System 10 in der Nähe der vorderen Stoßstange oder des Kühlergrills außerhalb des Fahrzeuginnenraums oder in der Nähe des Rückfahrspiegels im Fahrzeuginnenraum angeordnet, was eine Position ist, von der Laserstrahlen in Richtung der vorwärtigen Richtung des Fahrzeugs emittiert werden können.
-
Der Lichtemitter 20 beinhaltet eine Laserdiode (LD) 21 und einen Laserdiodentreiberschaltkreis 22. Die Laserdiode 21 erzeugt einen Laserstrahl. Der Laserdiodentreiberschaltkreis 22 erlaubt der Laserdiode 21 einen gepulsten Laserstrahl in Antwort auf ein Laserdiodentreibersignal von der Lidar-Steuerung 36 zu erzeugen.
-
Der Lichtemitter 20 beinhaltet ebenso eine lichtemittierende Linse 23, einen Abtastmechanismus 24 und einen Motortreiberschaltkreis 25. Die lichtemittierende Linse 23 schmälert die Breite des Laserstrahls, der durch die Laserdiode 21 erzeugt wird. Der Abtastmechanismus ist durch einen rotierenden Polygonspiegel, der Seiten mit unterschiedlichen Neigungswinkeln zum Reflektieren der Laserstrahlen aufweist, die mittels der lichtemittierenden Linse 23 bereitgestellt werden, und durch einen Motor zum Betreiben der Rotation des Polygonspiegels konfiguriert. Der Motortreiberschaltkreis 25 treibt den Motor, der den Scannermechanismus 24 konfiguriert, in Antwort auf ein Motortreibersignal von der Lidar-Steuerung 36 an, um Abtasten mit dem Laserstrahl innerhalb einer vorbestimmten Winkelauswahl zu realisieren.
-
Das Abtasten mit den Laserstrahlen, die vom Lichtemitter 20 emittiert werden, wird wie folgt realisiert. Konkret wird ein Abtastbereich durch eine Winkelauswahl (beispielsweise ±18,0 Grad) definiert, der in der Breitenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Breitenrichtung“ bezeichnet) mit dem Mittelpunkt in der vorwärtigen Richtung (0 Grad) des Fahrzeugs vorbestimmt ist. Laserstrahlen werden durch Deplatzieren der Emissionsrichtung entlang der Breitenrichtung auf vorbestimmter Winkelbasis (beispielsweise auf der Basis eines Winkels gleich der Breite eines Laserstrahls (0,25 Grad)) über den Abtastbereich emittiert. Nachfolgend wird die eindimensionale Strahlabtastung in der Breitenrichtung als „Linienabtasten“ bezeichnet.
-
Nach Vervollständigen einer Linienabtastung schaltet der Motortreiberschaltkreis 25 sequenziell einen Absenkwinkel θy des Laserstrahls in der Höhenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Höhenrichtung“ bezeichnet) um. Durch Wiederholen der Linienabtastung, während der Absenkwinkel sequenziell umgeschaltet wird, wird zweidimensionale Strahlabtastung realisiert.
-
Der Lichtempfänger 30 beinhaltet eine Lichtempfangslinse 31, ein Lichtempfangselement (PD) 32 und einen Verstärker 33. Die Lichtempfangslinse 31 empfängt reflektiertes Licht von einem Objekt, was der Reflexion eines Laserstrahls von dem Objekt entspricht. Das Lichtempfangselement 32 empfängt das reflektierte Licht mittels der Lichtempfangslinse 31 und erzeugt ein Lichtempfangssignal mit einem Spannungswert entsprechend der Intensität des empfangenen reflektierten Lichts. Der Verstärker 33 verstärkt das Lichtempfangssignal vom Lichtempfangselement 32.
-
Der Erfassungsschaltkreis 35 empfängt die Laserdiodenantriebssignale von der Lidar-Steuerung 36. Jedes Mal, wenn ein Laserdiodenantriebssignal empfangen wird, misst der Erfassungsschaltkreis 35 den Phasenunterschied (d. h., eine Umlaufzeit eines Laserstrahls zu/von einem Objekt, das den Laserstrahl reflektiert hat) zwischen dem Laserdiodenantriebssignal und einem Lichtempfangssignal vom Lichtempfänger 30. Dann erzeugt der Erfassungsabschnitt 35 das Abschnittsdatum R durch Berechnen der Messergebnisse hinsichtlich des Abstandes zum Objekt, das den Laserstrahl reflektiert hat.
-
Die Lidar-Steuerung 36 ist durch einen allgemein bekannten Mikrocomputer einschließlich einer CPU, eines ROM und eines RAM konfiguriert.
-
Die Lidar-Steuerung 36 treibt den Lichtemitter 20 unter Verwendung des Laserdiodenantriebssignals und des Motorantriebssignals an, um eine Abtastverarbeitung durchzuführen, bei der zweidimensionale Strahlabtastung realisiert ist. Die Abtastverarbeitung wird mit jedem vorbestimmten Abtastzyklus gestartet. Bei der Abtastverarbeitung werden das Laserdiodenantriebssignal und das Motorantriebssignal ausgegeben, so dass die Linienabtastung mit den Strahlen, die einen unterschiedlichen Absenkwinkel θy aufweisen, mit einer Anzahl gleich der Anzahl von Variationen des Absenkwinkels θy wiederholt wird.
-
Dann wird das Abstandsdatum R mit einem Abtastwinkel θx, y (d. h. mit der Position des Laserdiodenantriebssignals in einer Sequenz in einer Linienabtastung korreliert) des Zeitpunkts korreliert, bei dem das Abstandsdatum R erzeugt wurde. Die Lidar-Steuerung 36 speichert die korrelierten Abstandsdaten R als Daten gemessener Abstände (R, θx, y) auf einer Abtastung-für-Abtastung-Basis eines unterschiedlichen Strahlabsenkwinkels θy. Somit gibt jedes Datum eines gemessenen Abstands (R, θx, y) die Anwesenheit/Abwesenheit eines Objekts, das den Laserstrahl reflektiert hat, den Abstand zum Objekt, und den Ort des Objekts an.
-
Die Lidar-Steuerung 36 ist ebenso konfiguriert, die gespeicherten Daten gemessener Abstände (R, θx, y) der Erkennungs-ECU 50 nach Anforderung von der Erkennungs-ECU 50 bereitzustellen.
-
Die Bildaufnahmeeinheit 40 beinhaltet eine Bildaufnahmeeinrichtung 41 und einen Bildverarbeiter 42. Die Bildaufnahmeeinrichtung 41 nimmt digitale Bilder (d. h. Bilddaten) auf. Der Bildverarbeiter 42 speichert die Bilddaten, die durch die Bildaufnahmeeinrichtung 41 aufgenommen werden, um sie der Erkennungs-ECU 50 nach Anforderung von der Erkennungs-ECU 50 bereitzustellen.
-
Die Bildaufnahmeeinrichtung 41 wird auf eine vorbestimmte Position fixiert, um eine Bildaufnahmeauswahl abzudecken, der mindestens einen Emissionsbereich (d. h., Abtastbereich) der Laserstrahlen beinhaltet, die von dem Lidar-System 10 emittiert werden. Die Bildaufnahmeeinrichtung 41 nimmt ein Bild bei einem periodischen Zeitintervall auf, das im Wesentlichen das gleiche ist wie der Abtastzyklus, um dabei Bilddaten zu produzieren.
-
Der Bildverarbeiter 42 ist durch einen allgemein bekannten Mikrocomputer einschließlich einer CPU, eines ROM und eines RAM konfiguriert.
-
Die Erkennungs-ECU 50 ist hauptsächlich durch einen allgemein bekannten Mikrocomputer konfiguriert, der mindestens ein ROM 51, ein RAM 52 und eine CPU 53 beinhaltet. Das ROM 51 speichert Daten und ein Programm, dessen Inhalte beim Abschalten erhalten bleiben müssen. Das RAM 52 speichert temporär Daten. Die CPU 53 führt eine Verarbeitung gemäß einem Programm, das in dem ROM 51 oder dem RAM 52 gespeichert ist, aus.
-
Dem ROM 51 wird ein Programm für die Erkennungs-ECU 50 bereitgestellt, um eine Objekterkennungsverarbeitung auszuführen. Bei der Objekterkennungsverarbeitung wird ein Objekt, das sich in der vorwärtigen Richtung des Fahrzeugs befindet, basierend auf den Daten gemessener Abstände (R, θx, y), die von dem Lidar-System 10 erlangt werden, und basierend auf den Bilddaten, die von der Bildaufnahmeeinheit 40 erlangt werden, erkannt, um Objektdaten des erkannten Objekts zu erzeugen. In anderen Worten funktioniert die Erkennungs-ECU 50 als die Objekterkennungsvorrichtung der vorliegenden Ausführungsform durch Durchführen der Objekterkennungsverarbeitung.
-
Nachfolgend wird die Objekterkennungsverarbeitung erläutert, die durch die Erkennungs-ECU 50 durchgeführt wird.
-
Die Objekterkennungsverarbeitung wird jedes Mal gestartet, wenn die Abtastverarbeitung durch das Lidar-System 10 vervollständigt ist, d. h. bei jedem Abtastzyklus. 2 ist ein Ablaufdiagramm, das die Objekterkennungsverarbeitung darstellt.
-
Konkret erlangt die Erkennungs-ECU 50 bei der Objekterkennungsverarbeitung als Erstes das in der Zeitserie letzte Bilddatum von dem Bildverarbeiter 42 der Bildverarbeitungseinheit 40 (S110). Nachfolgend erlangt die Erkennungs-ECU 50 die Daten gemessener Abstände (R, θx, y) entsprechend einer Abtastverarbeitung von der Lidar-Steuerung 36 des Lidar-Systems 10 (S120).
-
Dann werden von den erlangten Daten gemessener Abstände (R, θx, y) die Daten gemessener Abstände (R, θx, y), die als zur selben Gruppe gehörig betrachtet werden, gruppiert, um ein Segment auszubilden (nachfolgend als „Kandidatenbereich“ bezeichnet) (S130).
-
Konkret wird bei S130 der vorliegenden Ausführungsform eine Polarkoordinatenposition (Punkt), die durch ein Abstandsdatum R, und einen Abtastwinkel θx, y definiert ist, die die Daten gemessener Abstände (R, θx, y) ausbilden, in eine orthogonale Koordinatenposition (Punkt) konvertiert. Es ist zu beachten, dass bei der orthogonalen Koordinate der Ursprung (0, 0, 0) das Zentrum des betreffenden Fahrzeugs angibt, die X-Achse eine Breitenrichtung angibt, die y-Achse die Höhenrichtung angibt, und die z-Achse die vorwärtige Richtung des Fahrzeugs angibt.
-
Von den Positionen (Punkten), die aus der Konversion ins orthogonale Koordinatensystem resultieren, werden diese Positionen (Satz von Punkten (Punktsatz)) gruppiert, die alle der drei nachfolgend erläuterten Bedingungen erfüllen. Diese drei Bedingungen sind: der Abstand in der X-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δx (beispielsweise 0,2 m); der Abstand in der Y-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δy; und der Abstand in der Z-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δz (beispielsweise 2 m).
-
Jeder Kandidatenbereich weist eine rechtwinklige Form einschließlich eines Satzes von Punkten auf, die durch die Gruppierung integriert sind, wobei die rechtwinklige Form auf eine Größe in Konformität mit dem Satz von Punkten festgelegt wird. Jeder Kandidatenbereich wird mit Segmentdaten korreliert, die dreiseitige Daten (W (Breite), H (Höhe) und D (Tiefe)) beinhalten, die die Größe des Kandidatenbereichs angeben, und beinhaltet einen Abtastwinkel θx, y entsprechend dem linken Ende und dem rechten Ende des Kandidatenbereichs.
-
Konkret entspricht jeder Kandidatenbereich einer Gruppe von Daten gemessener Abstände (R, θx, y), die zueinander Unterschiede in der X-, Y- und Z-Achsenrichtung aufweisen, wobei diese Unterschiede gleich oder kleiner als vorbestimmte zulässige Beträge (Δx, Δy, Δz) sind und somit als zur selben Gruppe gehörig betrachtet werden.
-
Nachfolgend wird einer der Kandidatenbereiche, die bei S130 ausgebildet werden, extrahiert (S140). Dann wird bestimmt, ob die Größe (W, H) des extrahierten Kandidatenbereichs größer als eine Größe ist, die durch die spezifizierten Beträge (ThW, THH) definiert wird, die eine Größe vorbestimmter zu erfassender Objekte (beispielsweise vorausfahrendes Fahrzeug) (nachfolgend als „Erfassungsobjekte“ bezeichnet) angeben (S150).
-
Als ein Ergebnis der Bestimmung bei S150 wird, wenn die Größe (W, H) des Kandidatenbereichs nicht größer als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert wird (NEIN bei S150), der Kandidatenbereich, der bei S140 extrahiert wird, bestimmt, eine niedrigere Wahrscheinlichkeit, mehr als ein Erfassungsobjekt aufzuweisen. Dann fährt die Verarbeitung mit S220 fort.
-
Andererseits wird als ein Ergebnis der Bestimmung bei S150, wenn die Größe (W, H) des Kandidatenbereichs größer als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert ist (JA bei S150) der Kandidatenbereich, der bei S140 extrahiert wird, als eine Wahrscheinlichkeit aufweisend, mehr als ein Erfassungsobjekt zu beinhalten, definiert (nachfolgend wird dieser Bereich als „Spezialkandidatenbereich“ bezeichnet). Dann fährt die Verarbeitung mit Schritt S160 fort.
-
3A und 3B sind erläuternde Diagramme, die darstellen, wie ein Erfassungsobjekt aus einem Bilddatum in der Objekterkennungsverarbeitung erfasst wird.
-
Bei S160 wird, wie in 3A dargestellt ist, in einem Bilddatum, das bei S110 erlangt wird, ein Objektbereich definiert, der ein Bereich in dem Bilddatum ist und dem Spezialkandidatenbereich entspricht. Nachfolgend wird für den Objektbereich, der in dem Bilddatum definiert ist, eine Bildverarbeitungsverarbeitung durch Ausführen eines Vergleichs mit Identifizieren durchgeführt, die Erfassungsobjekte angeben (S170).
-
Konkret wird bei S170 unter Verwendung eines allgemein bekannten Schemas ein vorbestimmter Merkmalsbetrag von dem Objektbereich in dem Bilddatum abgeleitet und der abgeleitete Merkmalsbetrag wird mit dem Identifizieren verglichen. Somit werden, wie in 3B dargestellt ist, alle Erfassungsobjekte, die von dem Objektbereich in dem Bilddatum aufgenommen sind, erfasst, um die Auswahlen (Erfassungsobjekt A und Erfassungsobjekt B in 3B) zu definieren, in dem die entsprechenden Erfassungsobjekte anwesend sind.
-
Dann wird bestimmt, ob das Erfassungsobjekt (nachfolgend als „Erfassungseinheit“ bezeichnet), das von dem Erfassungsbereich in dem Bilddatum erfasst wird, mehr als eines ist oder nicht (S180). Als ein Ergebnis der Bestimmung bei S180, wenn die Erfassungseinheit nicht mehr als eines ist, d. h., die Anzahl von Einheiten ist „0“ oder „1“ (NEIN bei S180), fährt die Verarbeitung mit S220 fort, der später beschrieben wird.
-
Andererseits fährt die Verarbeitung als ein Ergebnis der Bestimmung bei S180, wenn die Erfassungseinheit mehr als eine ist (d. h. die Anzahl von Einheiten ist „2“ oder mehr) (JA bei S180), mit S190 fort. Bei S190 wird eine Objektgrenze von dem Objektbereich in dem Bilddatum abgeleitet. Die Objektgrenze entspricht einer Koordinate in dem Bilddatum, die eine Grenze zwischen Objekteinheiten angibt. Ferner wird die Objektgrenze in eine Grenzrichtung konvertiert (entsprechend dem Grenzort der vorliegenden Erfindung) hinsichtlich des Abtastwinkels θx, y in einem Datum eines gemessenen Abstands (S200).
-
Dann wird der Spezialkandidatenbereich unter Verwendung der Grenzrichtung, die von der Konversion resultiert (S210) geteilt und die Verarbeitung kehrt zu S150 fort. Bei S150 wird bestimmt, ob die Größe (W, H) jeder Division des Spezialkandidatenbereichs, der bei S210 geteilt wird, größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert wird, ist oder nicht. Ist die Größe (W, H) jeder Division des Spezialkandidatenbereichs größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert ist (JA bei S150), werden die Verarbeitungen bei S160 bis S210 wiederholt. Konkret werden die Verarbeitungen S150 bis S210 wiederholt, bis keine Wahrscheinlichkeit mehr besteht, dass mehr als ein Erfassungspunkt in dem Spezialkandidatenbereich anwesend ist.
-
Andererseits, wenn die Größe (W, H) jeder Division des Spezialkandidatenbereichs gleich oder kleiner als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert ist (NEIN bei S150), wird jede Division des Spezialkandidatenbereichs als ein neuer Kandidatenbereich behandelt und die Steuerung fährt mit Schritt S220 fort.
-
Bei S220 wird bestimmt, ob die Bestimmung bei S150 bezüglich aller Kandidatenbereiche ausgeführt wurde oder nicht. Wurde die Bestimmung bei S150 nicht bezüglich aller Kandidatenbereiche ausgeführt (NEIN bei S220), fährt die Steuerung mit S140 fort. Dann wird bei S140 ein Kandidatenbereich, der der Bestimmung bei S150 nicht unterworfen wurde, von allen Kandidatenbereichen extrahiert, um die Schritte S150 bis S220 auszuführen.
-
Andererseits, wenn die Bestimmung bei S150 im Hinblick auf alle Kandidatenbereiche ausgeführt wurde (JA bei S220), fährt die Verarbeitung mit S230 fort.
-
Bei S230 wird jeder der Kandidatenbereiche als ein Beobachtungsbetrag betrachtet und auf zeitserielle Weise nachverfolgt. Dann wird gemäß den Ergebnissen der Nachverfolgung der Typ des Objekts definiert und für jeden der Beobachtungsbeträge erkannt. Indessen wird eine Nachverfolgungsverarbeitung durchgeführt, um Objektdaten für jedes der erkannten Objekte zu erzeugen.
-
Da die Nachverfolgungsverarbeitung allgemein bekannt ist, wird sie der Einfachheit halber nicht erläutert. Jedoch wird in einer herkömmlich ausgeführten Nachverfolgungsverarbeitung eine relative Geschwindigkeit zwischen dem betreffenden Fahrzeug und dem Objekt von der zeitseriellen Änderung des Orts des Beobachtungsbetrags (d. h. Kandidatenbereich) abgeleitet. Dann wird die abgeleitete relative Geschwindigkeit mit der Fahrzeuggeschwindigkeit des betreffenden Fahrzeugs verglichen. Danach wird der Typ des Objekts basierend auf den Vergleichsergebnissen und der Größe des Beobachtungsbetrags (d. h. Kandidatenbereich) angenommen. Ferner werden unter Verwendung eines Kalman-Filters zeitserielle Verhalten des Beobachtungsbetrags (d. h. Kandidatenbereich) vorhergesagt. Stimmen die Ergebnisse der Vorhersage mit dem Beobachtungsbetrag überein, werden der Typ, die Größe, die Geschwindigkeit und dergleichen des angenommenen Objekts schließlich bestätigt. Dann werden die bestätigten Ergebnisse als Objektdaten erzeugt.
-
Danach wird die Objekterkennungsverarbeitung beendet und die Steuerung wartet bis zur nächsten Startzeitgebung.
-
Nachfolgend wird ein Beispiel des Betriebs des Objekterkennungssystems 1 gemäß der vorliegenden Ausführungsform erläutert. 4A bis 4C sind erläuternde Diagramme, die das Betriebsbeispiel darstellen. Es wird von einem Fall ausgegangen, der in 4A dargestellt ist. Konkret fahren in 4A vorausfahrende Fahrzeuge A und B vor dem betreffenden Fahrzeug. Die Abstände vom betreffenden Fahrzeug zu den vorausfahrenden Fahrzeugen A und B sind gleich (d. h. der Unterschied im Abstand in der Z-Achsenrichtung ist nicht größer als der zulässige Betrag Δz). Ebenso sind Endabschnitte der vorausfahrenden Fahrzeuge (d. h. das rechte Ende des vorausfahrenden Fahrzeugs A und das linke Ende des vorausfahrenden Fahrzeugs B) nahe zueinander. In diesem Fall wird ferner davon ausgegangen, dass der tatsächliche Abstand zwischen dem Endabschnitt (rechtes Ende) des vorausfahrenden Fahrzeugs A und dem Endabschnitt (linkes Ende) des vorausfahrenden Fahrzeugs B in der Breitenrichtung größer als der zulässige Betrag Δx ist.
-
Im vorstehenden angenommenen Fall wird ebenso der Laserstrahl, der vom Lichtemitter 20 des Lidar-Systems 10 emittiert wird, gestreut. Demnach wird der Unterschied in der Breitenrichtung zwischen dem Datum eines gemessenen Abstands (R, θx, y) entsprechend dem Endabschnitt (rechtes Ende) des vorausfahrenden Fahrzeugs A und dem Datum eines gemessenen Abstands (R, θx, y) entsprechend dem Endabschnitt (linkes Ende) des vorausfahrenden Fahrzeugs B kleiner sein als der zulässige Betrag Δx. Dann wird die Verarbeitung bei S130 der Objekterkennungsverarbeitung der vorliegenden Ausführungsform ein wie in 4 dargestelltes Ergebnis zur Folge haben. Konkret werden die Daten gemessener Abstände entsprechend dem vorausfahrenden Fahrzeug A und die Daten gemessener Abstände entsprechend dem vorausfahrenden Fahrzeug B als ein Kandidatenbereich gruppiert. In diesem Fall ist unter der Annahme, dass ein zu erfassendes Objekt ein Fahrzeug (vorausfahrendes Fahrzeug) ist, die Größe (W, H) des Kandidatenbereichs größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert ist. Dadurch wird bei S160 und S170 der Objekterkennungsverarbeitung der Datenbereich als ein Spezialkandidatenbereich behandelt. Dann wird ein Objektbereich entsprechend dem Spezialkandidatenbereich in dem Bilddatum der Bilderkennungsverarbeitung unterworfen, um dabei eine Auswahl des Erfassungsobjekts (d. h., der vorausfahrenden Fahrzeuge A und B) und den Objektbereich zu definieren.
-
Dann wird bei S200 der Objekterkennungsverarbeitung, wie in 4C dargestellt ist, der Spezialkandidatenbereich gemäß der Grenzrichtung der Erfassungsobjekte geteilt, was auf der Auswahl des Erfassungsobjekts basiert, der vorstehend definiert ist. Die Divisionen des Spezialkandidatenbereichs werden dann als neue Kandidatenbereiche definiert. Ferner wird bei S230 der Objekterkennungsverarbeitung die Nachverfolgungsverarbeitung für alle Kandidatenbereiche durchgeführt, um Objekte in den Kandidatenbereichen zu definieren, die als Objekte zu bestätigen sind.
-
Wie vorstehend beschrieben ist, wird gemäß der Objekterkennungsverarbeitung der vorliegenden Ausführungsform, wenn der Kandidatenbereich ein Spezialkandidatenbereich ist, der Spezialkandidatenbereich in Bereiche geteilt, die einzelnen Objekten entsprechen.
-
Demzufolge kann das Objekterkennungssystem 1, unter der Bedingung, bei der mehr als ein Erfassungsobjekt angrenzend entlang der Abtastrichtung anwesend ist, alle Erfassungsobjekte als einzelne Erfassungsobjekte erkennen, wobei die Genauigkeit zum Erkennen eines Erfassungsobjekts verbessert ist.
-
Bei der Objekterkennungsverarbeitung gemäß der vorliegenden Ausführungsform wird bestimmt, ob ein Spezialkandidatenbereich auf einer Objekt-für-Objekt-Basis geteilt werden kann oder nicht, bis die Größe jedes der Kandidatenbereiche eine Größe gleich oder kleiner als die Größe wird, die durch die spezifizierten Beträge definiert ist. Dadurch wird gemäß dem Objekterkennungssystem 1 jedes der Erfassungsobjekte, das in einem Spezialkandidatenbereich beinhaltet ist, verlässlicher als ein einzelnes Erfassungsobjekt erkannt.
-
Ferner wird in dem Objekterkennungssystem 1 zeitserielles Nachverfolgen bezüglich der Orte der einzelnen Erfassungsobjekte ausgeführt. Demzufolge werden die Verhalten der Erfassungsobjekte mit guter Genauigkeit erkannt.
-
Bei der Objekterkennungsverarbeitung gemäß der vorliegenden Ausführungsform ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung unterworfen wird, auf einen Objektbereich entsprechend einem Spezialkandidatenbereich beschränkt. Demzufolge wird gemäß dem Objekterkennungssystem 1 die Verarbeitungslast reduziert, was für das Erfassen von Orten der Erfassungsobjekte in einem Bilddatum notwendig ist. Somit wird gemäß dem Objekterkennungssystem 1 die Zeit zum Erfassen von Erfassungsobjekten verkürzt.
-
(Modifikationen)
-
Eine Ausführung von der vorliegenden Erfindung wurde vorstehend beschrieben. Jedoch ist die vorliegende Erfindung nicht auf die vorstehende Ausführungsform beschränkt sondern kann in unterschiedlichen Modi innerhalb eines Umfangs, der den Umfang der vorliegenden Erfindung nicht verlässt, implementiert werden.
-
Modifikationen der vorliegenden Erfindung werden nachfolgend beschrieben. Es ist zu beachten, dass Komponenten, die identisch oder ähnlich den Komponenten der vorstehenden Ausführungsform sind, der Einfachheit halber mit denselben Bezugszeichen versehen werden.
-
Beispielsweise beinhaltet das Objekterkennungssystem 1 der vorstehenden Ausführungsform das Lidar-System 10, die Bildaufnahmeeinheit 40 und die Erkennungs-ECU 50. Jedoch ist das Objekterkennungssystem 1 nicht auf eine derartige Konfiguration beschränkt und muss die Erkennungs-ECU 50 nicht beinhalten.
-
5 ist ein schematisches Blockschaltbild, das die Konfiguration des Objekterkennungssystems 1 gemäß einer Modifikation der vorliegenden Erfindung darstellt. Wie in 5 dargestellt ist, kann das Objekterkennungssystem 1 nur durch das Lidar-System 10 und die Bildaufnahmeeinheit 40 konfiguriert sein. Bei dieser Konfiguration können Informationen (beispielsweise Objektbereich und Grenzrichtung) zwischen der Lidar-Steuerung des Lidar-Systems 10 und dem Bildverarbeiter 42 der Bildaufnahmeeinheit 40 ausgetauscht werden.
-
6 ist ein Ablaufdiagramm, das die Prozedur einer Objekterkennungsverarbeitung darstellt, die durch das Objekterkennungssystem 1 gemäß der Modifikation ausgeführt wird. Wie in 6 dargestellt ist, wenn das Objekterkennungssystem 1 die vorstehend erläuterte Konfiguration aufweist, ist es wünschenswert, dass die Lidar-Steuerung 36 des Lidar-Systems 10 die Schritte S120 bis S150 und S210 bis S230 ausführt. Indessen ist es wünschenswert, dass der Bildverarbeiter 42 der Bildaufnahmeeinheit 40 die Schritte S110 und S170 bis S190 ausführt. Die Schritte S160 und S200 in der Objekterkennungsverarbeitung können durch die Lidar-Steuerung 36 des Lidar-Systems 10 oder durch den Bildverarbeiter 42 der Bildaufnahmeeinheit 40 ausgeführt werden.
-
Jedoch haben das Lidar-System 10 und die Bildaufnahmeeinheit 40 in der vorliegenden Modifikation ähnliche Konfigurationen wie das Lidar-System 10 und die Bildaufnahmeeinheit 40 der vorstehenden Ausführungsform. Ebenso haben die einzelnen Schritte der Objekterkennungsverarbeitung in der vorliegenden Modifikation ähnliche Inhalte wie die die Schritte in der vorstehenden Ausführungsform.
-
Bei Schritt S170 der Objekterkennungsverarbeitung in der vorstehenden Ausführungsform wurde der Bereich in einem Bilddatum, das Bilderkennungsverarbeitung unterworfen wird, auf einen Objektbereich beschränkt. Jedoch ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung bei S170 unterworfen wird, nicht auf einen Objektbereich beschränkt sondern kann beispielsweise der gesamte Bereich des Bilddatums sein. In diesem Fall kann S160 der Objekterkennungsverarbeitung weggelassen werden.
-
Bei der Objekterkennungsverarbeitung in der vorstehend beschriebenen Ausführungsform waren vorausfahrende Fahrzeuge die Erfassungsobjekte. Jedoch sind die Erfassungsobjekte, die bei der Objekterkennungsverarbeitung erfasst werden können, nicht auf die vorausfahrenden Fahrzeuge beschränkt. Beispielsweise können die Erfassungsobjekte Verkehrsschilder auf einer Straße oder straßenseitige Objekte wie beispielsweise ein Leitpfosten oder können Objekte wie beispielsweise Fußgänger oder heruntergefallene Objekte sein, die die Fahrt des Fahrzeugs verhindern würden.
-
Sind Verkehrszeichen auf einer Straße als Erfassungsobjekte beinhaltet, können ein vorausfahrendes Fahrzeug und ein Verkehrszeichen auf der Straße als separate Kandidatenbereiche erkannt werden unter der Bedingung, bei der sich das Verkehrszeichen kurz vor dem vorausfahrenden Fahrzeug befindet und sehr nahe am vorausfahrenden Fahrzeug ist.
-
Die Beziehungen zwischen der vorhergehenden Ausführungsform und den Ansprüchen werden erläutert.
-
Schritt S110 der Objekterkennungsverarbeitung der vorstehenden Ausführungsform entspricht dem Bilderlangungsmittel der vorliegenden Erfindung. Auf gleiche Weise entspricht S120 dem Ortserlangungsmittel und Schritt S130 entspricht dem Kandidatenerfassungsmittel. Ferner entsprechen die Schritte S140 bis S170 dem Auswahlerfassungsmittel und Schritt S210 entspricht dem Kandidatenteilmittel.
-
Schritte S150 bis S170 nach der Verarbeitung bei S210 entsprechen dem Neuerfassungsmittel.