-
Technischer Bereich
-
Die vorliegende Erfindung betrifft ein Objekterfassungsgerät, das ein Objekt, wie z. B. ein vorausfahrendes Fahrzeug, von einem Basisfahrzeug aus erfasst.
-
Stand der Technik
-
In der Patentliteratur 1 wird beispielsweise ein Verfahren zur Vorhersage der Fahrtrajektorie eines einem Basisfahrzeug vorausfahrenden Fahrzeugs als Hintergrundwissen zu diesem technischen Gebiet vorgeschlagen. Konkret wird in der Patentschrift 1 beschrieben, dass ein von einer Bilderfassungsvorrichtung aufgenommenes Bild analysiert wird, um die Ausrichtung und Geschwindigkeit eines vorausfahrenden Fahrzeugs zu erfassen und so die Fahrtrajektorie vorauszusagen.
-
Liste von Druckschriften
-
Patentliteratur
-
Patentliteratur 1: Japanische ungeprüfte Patentanmeldung Veröffentlichung Nr.
2018-97644
-
Zusammenfassung der Erfindung
-
Technisches Problem
-
Die in Patentliteratur 1 beschriebene Technologie analysiert ein von einem Bildaufnahmegerät aufgenommenes Bild, erfasst die Ausrichtung und die Geschwindigkeit eines vorausfahrenden Fahrzeugs und prognostiziert die Fahrtrajektorie. Wenn sich das Objekt aus dem Erfassungswinkel herausbewegt, kann sich die Verfolgungsgenauigkeit daher verringern.
-
Die vorliegende Erfindung dient der Lösung eines solchen Problems und hat das Hauptziel, z.B. ein Objekterfassungsgerät bereitzustellen, das in der Lage ist, ein Objekt unabhängig von der Position des Blickwinkels und des Abstands zum Objekt genau zu erfassen.
-
Lösung des Problems
-
Ein Objekterfassungsgerät der vorliegenden Erfindung, das das obige Problem löst, umfasst: einen Abstandserfassungsbereich, der einen Abstand zu einem Objekt detektiert; einen Positionserfassungsbereich, der eine Position des Objekts basierend auf dem durch den Abstandserfassungsbereich detektierten Abstand detektiert; einen Posenerfassungsbereich, der eine Pose des Objekts basierend auf dem durch den Abstandserfassungsbereich detektierten Abstand detektiert; einen ersten Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein Basisfahrzeug eingibt; einen zweiten Fahrzeuginformationeingabebereich, der Zustandsinformationen über ein anderes Fahrzeug eingibt; einen Positionsvorhersagebereich, der eine Position des anderen Fahrzeugs basierend auf den Zustandsinformationen über das Basisfahrzeug und den Zustandsinformationen über das andere Fahrzeug, die jeweils durch den ersten Fahrzeuginformationeingabebereich und den zweiten Fahrzeuginformationeingabebereich eingegeben werden, vorhersagt, einen Posenvorhersagebebereich, der eine Pose des anderen Fahrzeugs auf der Grundlage der Zustandsinformationen über das Basisfahrzeug und der Zustandsinformationen über das andere Fahrzeug vorhersagt, die jeweils von dem ersten Fahrzeuginformationeingabebereich und dem zweiten Fahrzeuginformationeingabebereich eingegeben werden; und einen Bestimmungsbereich, der einen Abstand zu dem anderen Fahrzeug, eine Position und eine Pose des anderen Fahrzeugs als Reaktion auf die Informationen bestimmt, die jeweils von dem Abstandserfassungsbereich, dem Positionserfassungsbereich, dem Posenerfassungsbereich, dem Positionsvorhersagebereich und dem Posenvorhersagebereich erfasst oder vorhergesagt werden.
-
Vorteilhafte Wirkung der Erfindung
-
Gemäß der vorliegenden Erfindung kann das Objekt unabhängig von der Position des Betrachtungswinkels und dem Abstand zu einem Objekt genau erkannt werden. Weitere Merkmale der vorliegenden Erfindung werden aus der vorliegenden Beschreibung und den beigefügten Zeichnungen deutlich. Darüber hinaus werden ein Problem, eine Konfiguration und eine vorteilhafte Wirkung, die von der obigen Beschreibung abweichen, durch die Erläuterung der folgenden Ausführungsformen deutlich.
-
Figurenliste
-
- zeigt eine Konfiguration eines Objekterfassungsgeräts der ersten Ausführungsform.
- zeigt ein Beispiel für ein Paar von Bildern, die gleichzeitig von einem linken und einem rechten Bildaufnahmebereich aufgenommen wurden.
- zeigt ein Beispiel für ein Ergebnis, das anhand des in dargestellten Bildpaares erfasst wurde.
- zeigt ein Beispiel für eine Fahrtrajektorie eines Fahrzeugs.
- veranschaulicht den zeitlichen Ablauf der Verarbeitung des Objekterfassungsgerätes der ersten Ausführungsform.
- zeigt einen Verarbeitungsablauf des Objekterfassungsgerätes der ersten Ausführungsform.
- zeigt Beispiele für während der Fahrt aufgenommene Bilder.
- zeigt Beispiele von Erfassungsergebnissen und Vorhersageergebnissen durch das Objekterfassungsgerät der ersten Ausführungsform.
- zeigt ein Beispiel für eine Positionsbeziehung zwischen einem Basisfahrzeug und einem vorausfahrenden Fahrzeug.
- zeigt eine Konfiguration eines Objekterfassungsgeräts der zweiten Ausführungsform.
- zeigt eine Konfiguration eines Objekterfassungsgeräts der dritten Ausführungsform.
- zeigt eine Konfiguration eines Objekterfassungsgeräts der vierten Ausführungsform.
-
Beschreibung der Ausführungsformen
-
Nachfolgend werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen erläutert. In den folgenden Ausführungsformen wird ein vorausfahrendes Fahrzeug als Beispiel für ein Objekt genannt, dessen Position erfasst wird, und eine Position des vorausfahrenden Fahrzeugs wird erfasst. Dies stellt keine Einschränkung der vorliegenden Erfindung dar. Die Position eines beliebigen Objekts kann erfasst werden.
-
<Erste Ausführungsform>
-
1 veranschaulicht eine Konfiguration eines Objekterfassungsgerät der ersten Ausführungsform der vorliegenden Erfindung. Ein Bezugszeichen 1 kennzeichnet das Objekterfassungsgerät der vorliegenden Ausführungsform. Das Objekterfassungsgerät 1 ist beispielsweise an der Vorderseite eines Basisfahrzeugs angebracht, erkennt ein Objekt wie ein vorausfahrendes Fahrzeug, das ein anderes Fahrzeug ist, und bildet einen Teil eines Fahrsteuerungssystems, das beispielsweise die Fahrsteuerung für die Fahrt unterstützt, um dem vorausfahrenden Fahrzeug zu folgen.
-
Das Objekterfassungsgerät 1 ist beispielsweise in einem Gehäuse einer fahrzeuginternen Stereokamera untergebracht. Das Objekterfassungsgerät 1 umfasst ein linkes und ein rechtes Paar von Bildaufnahmebereichen 101 und 102 (erster Bildaufnahmebereich, zweiter Bildaufnahmebereich), einen Bildkorrekturbereich 104, einen Stereo-Abstandserfassungsbereich 105, einen Positionserfassungsbereich 106, Trajektorievorhersagebereiche 107 und 108, einen Positionsvorhersagebereich 109, einen Posenvorhersagebereich 110, einen Posenerfassungsbereich 111 und einen Bestimmungsbereich 112.
-
Die Bildaufnahmebereiche 101 und 102 haben einen Bildsensor, der mit einer optischen Linse ausgestattet ist. Diese Bildaufnahmebereiche 101 und 102 nehmen wiederholt ein Bild zu einem bestimmten Zeitpunkt auf, um das aufgenommene Bild auszugeben. Der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 sind in einem vorbestimmten Abstand in der linken und rechten Richtung voneinander entfernt montiert. Das Objekterfassungsgerät 1 ist in der Lage, aus einer Verschiebung, der so genannten Parallaxe, zwischen den von den Bildaufnahmebereichen 101 und 102 aufgenommenen Bildern den Abstand zu einem Subjekt zu berechnen.
-
Es wird darauf hingewiesen, dass 1 ein Beispiel zeigt, bei dem die Komponenten des Objekterfassungsgeräts 1 in demselben Gehäuse untergebracht sind. Die Hebevorrichtungen 101 und 102 können beispielsweise zusammen in einer anderen Karosserie untergebracht sein als die anderen Komponenten (in 1 durch eine gestrichelte Linie 11 umrandet) bzw. in verschiedenen Karosserien, die am Fahrzeug montiert werden. In diesem Fall können die Bildsignale übertragen werden, indem die Komponenten über nicht dargestellte Verbindungskabel miteinander verbunden werden. Das Bildübertragungsverfahren mit Verbindungskabeln umfasst ein Übertragungsverfahren mit differentiellen Übertragungsleitungen nach dem LVDS-Verfahren (Low Voltage Differential Signaling).
-
Durch die Verwendung von Farbbildsensoren als Bildsensoren der Bildaufnahmebereiche 101 und 102 wird das Objekterfassungsgerät 1 außerdem in die Lage versetzt, Farbinformationen über aufgenommene Bilder zu erfassen und aus den Farbinformationen zusätzlich zu den Helligkeitsinformationen den Zustand eines Verkehrssignals und den Zustand eines Rücklichts eines vorausfahrenden Fahrzeugs zu bestimmen.
-
Der Bildkorrekturbereich 104 nimmt jeweils Bilder von den Bildaufnahmebereichen 101 und 102 auf, korrigiert jedes Bild um einen zuvor gemessenen Korrekturwert, um die Helligkeit der Bilder anzupassen, korrigiert die Verzerrung der Bilder aufgrund der Linsen und führt eine Korrektur durch, um die horizontalen Positionen der Bilder des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102 um einen zuvor gemessenen Korrekturwert aneinander anzupassen.
-
Die Messung jedes Korrekturwerts wird zuvor durch einen Herstellungsprozess des Objekterfassungsgeräts 1 vorgenommen. Jedes Objekterfassungsgerät 1 nimmt vor der Anwendung eines Korrekturwerts ein Bild eines bestimmten Subjekts auf. Ein Helligkeits-Korrekturwert für jedes Pixel wird bestimmt, um die Helligkeit der aufgenommenen Bilder auszugleichen. Ein geometrischer Korrekturwert für jedes Pixel wird bestimmt, um der Linsenverzerrung entgegenzuwirken und die Bilder zu parallelisieren. Jedes Objekterfassungsgerät 1 speichert die Werte als Korrekturtabelle in einem nicht illustrierten nichtflüchtigen Speicher.
-
Der Stereo-Abstandserfassungsbereich 105 gibt Bilder aus dem Bildkorrekturbereich 104 ein und erfasst einen Abstand zu einem Subjekt und einen Typ eines Objekts. Das Verfahren zum Erfassen der Abstände umfasst zum Beispiel das folgende Verfahren. Der Stereo-Abstandserfassungsbereich 105 nimmt Bilder aus dem Bildkorrekturbereich 104 auf, um die Parallaxe zu berechnen. Da, wie oben beschrieben, der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 in einem vorbestimmten Abstand in der linken und rechten Richtung voneinander entfernt installiert sind, weisen die aufgenommenen Bilder eine Parallaxe auf. Zur Berechnung dieser Parallaxe wird die sogenannte Stereoverarbeitung durchgeführt.
-
Eine Technik zur Berechnung der Parallaxe umfasst ein Blockvergleichsverfahren. Konkret sucht der Stereo-Abstandserfassungsbereich 105 zunächst einen Bereich auf einem vom Bildaufnahmebereich 102 aufgenommenen Bild. Dieser Bereich entspricht einem kleinen Blockbereich mit einer vorgegebenen Größe, der aus einem bestimmten Bildbereich des vom Bildaufnahmebereich 101 aufgenommenen Bildes ausgeschnitten wird. Diese vorgegebene Größe hat beispielsweise acht Pixel in der Höhe und acht Pixel in der Breite. Der Stereo-Abstandserfassungsbereich 105 verschiebt die gleich großen Blockbereiche auf dem Bild des Bildaufnahmebereichs 102 horizontal um die als Suchdichte festgelegte Anzahl von Pixeln, wobei Korrelationswerte ausgewertet werden. In diesem Fall setzt der Stereo-Abstandserfassungsbereich 105 den Suchbereich auf 128 Pixel und die Suchdichte auf zwei Pixel als Kombination oder den Suchbereich auf 32 Pixel und die Suchdichte auf ein Pixel als Kombination. Dies ermöglicht die Steuerung des Verarbeitungsaufwands und der Genauigkeit der Berechnung zusammen mit der Festlegung der Verarbeitungsfläche. Wenn die Suchdichte erhöht wird, wird die Genauigkeit des Abstands zu einem zu erfassenden Objekt grob, aber der Verarbeitungsaufwand im Suchbereich wird verringert. Wenn die Suchdichte verringert wird, erhöht sich die Genauigkeit des zu erfassenden Abstands.
-
Der Positionsunterschied zwischen den übereinstimmenden Blockbereichen in dem aufgenommenen Bild des Bildaufnahmebereichs 101 und dem aufgenommenen Bild des Bildaufnahmebereichs 102 ist eine Parallaxe, die als Anzahl von Pixeln angegeben wird. Der Stereo-Abstandserfassungsbereich 105 ist in der Lage, anhand dieser Parallaxe den Abstand zu einem Objekt zu bestimmen, das im Blockbereich in einer realen Umgebung erscheint. Es sei darauf hingewiesen, dass in diesem Beispiel ein Blockbereich als Bildelement verwendet wird, in dem ein Abstand bestimmt werden soll. Ein Vergleichsverfahren zur Auswertung von Korrelationswerten beinhaltet die Verwendung einer Position mit einer geringeren Gesamtsumme der Helligkeitsunterschiede zwischen den zu vergleichenden Pixeln in einem Blockbereich als Parallaxe.
-
Es ist bekannt, dass einen zu erfassende Abstand aus den Linsenfokusabständen des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102, einer Basislinienlänge, die ein Abstand zwischen dem Bildaufnahmebereich 101 und dem Bildaufnahmebereich 102 ist, der oben bestimmten Parallaxe und einem Pixelabstand eines Bildaufnahmesensors bestimmt wird. Dies schränkt jedoch das Abstandsberechnungsverfahren in der vorliegenden Erfindung nicht ein. Darüber hinaus ist das Bildelement, das das Ziel der Abstandsbestimmung ist, nicht auf den oben genannten Blockbereich beschränkt, sondern kann jedes Pixel verwenden, das einen Bildaufnahmesensor bildet.
-
Bei der Objekterfassungsmethode fasst der Stereo-Abstandserfassungsbereich 105 die Abstandsinformationen als eine Gruppe zusammen, wenn beispielsweise Teile von Abstandsinformationen, die im Allgemeinen die gleichen Abstände angeben, nahe beieinander liegen. Dann betrachtet der Stereo-Abstandserfassungsbereich 105 die Gruppe als ein Objekt, wenn die Größe der Gruppe eine vorbestimmte Größe oder mehr beträgt. Anschließend erfasst der Stereo-Abstandserfassungsbereich 105 das Objekt anhand der Größe und Form der erkannten Gruppe als z.B. ein Fahrzeug. Es gibt ein Verfahren zur Erfassung von Größe und Form eines Objekts im Vergleich zu Musterdaten, die zuvor als Referenzdaten gespeichert wurden. Diese Verarbeitungsmethode ist in der Lage, den Abstand zwischen einem Basisfahrzeug und einem vorausfahrenden Objekt genau zu bestimmen. Dies wird daher als Information zur Vermeidung von Kollisionen verwendet, z. B. Abbremsen oder Anhalten des Basisfahrzeugs. Die erfasste Art des Objekts und der erfasste Abstand zum Objekt werden an den Positionserfassungsbereich 106, den Positionsvorhersagebereich 109, den Posenvorhersagebereich 110, den Posenerfassungsbereich 111 und den Bestimmungsbereich 112 ausgegeben, die später erwähnt werden.
-
Der Positionserfassungsbereich 106 erfasst die Position des Objekts relativ zum Basisfahrzeug auf der Grundlage eines Ergebnisses des Stereo-Abstandserfassungsbereichs 105. Der Positionserfassungsbereich 106 erfasst z.B. eine linke und eine rechte Position, die durch eine Differenz zwischen der Mitte zwischen den Einbaupositionen des Bildaufnahmebereichs 101 und des Bildaufnahmebereichs 102 und der seitlichen Mitte des Objekts angegeben wird. Der Positionserfassungsbereich 106 ist in der Lage, nur ein als Fahrzeug erkanntes Objekt auszuwählen und zu erfassen.
-
Wenn beispielsweise die Bildaufnahmebereiche 101 und 102 in Richtung der Fahrzeugbreite (links-rechts) des Basisfahrzeugs voneinander entfernt angeordnet sind, um eine Vorwärtsbildaufnahme durch die Windschutzscheibe des Basisfahrzeugs durchzuführen, ist der in der vorliegenden Ausführungsform erfasste Abstand ein Abstand in Richtung der Mittelachse des Fahrzeugs (Z-Richtung), der in Längsrichtung des Fahrzeugs festgelegt ist. Die linke Position und die rechte Position, die in der vorliegenden Ausführungsform erfasst werden, geben einen Abstand des Basisfahrzeugs in Richtung der Fahrzeugbreite (X-Richtung) an (siehe z. B. 9).
-
Zustandsinformationen über das Basisfahrzeug werden in den Trajektorienvorhersagebereich 107 (erster Fahrzeuginformationeingabebereich) eingegeben. Der Trajektorienvorhersagebereich 107 sagt eine Trajektorie des Basisfahrzeugs auf der Grundlage der eingegebenen Zustandsinformationen über das Basisfahrzeug voraus. Die einzugebenden Zustandsinformationen über das Basisfahrzeug umfassen einen Lenkwinkel, eine Gierrate, eine Geschwindigkeit, eine Beschleunigung, eine Radgeschwindigkeit, Positionsinformationen von einem Satelliten und einen Reiseplan eines Fahrzeugs.
-
Zustandsinformationen über ein anderes Fahrzeug werden in den Trajektorienvorhersagebereich 108 eingegeben, bei dem es sich um einen weiteren Trajektorienvorhersagebereich (zweiter Fahrzeuginformationeingabebereich) handelt. Der Trajektorienvorhersagebereich 108 sagt eine Trajektorie eines vorausfahrenden Fahrzeugs auf der Grundlage der eingegebenen Zustandsinformationen über das vorausfahrende Fahrzeug voraus. In ähnlicher Weise umfassen die einzugebenden Zustandsinformationen über das vorausfahrende Fahrzeug einen Lenkwinkel, eine Gierrate, eine Geschwindigkeit, eine Beschleunigung, eine Radgeschwindigkeit und Positionsinformationen von einem Satelliten. Das Mittel zur Eingabe der Zustandsinformationen über das vorausfahrende Fahrzeug umfasst die drahtlose Übertragung von Informationen zwischen Fahrzeugen. Dieses Mittel ist nicht illustriert. Das heißt, das Basisfahrzeug führt eine fahrzeugübergreifende Kommunikation mit dem vorausfahrenden Fahrzeug durch, um die Zustandsinformationen über das vorausfahrende Fahrzeug zu erhalten.
-
Der Positionsvorhersagebereich 109 prognostiziert den Abstand und die Position des vorausfahrenden Fahrzeugs in Bezug auf das Basisfahrzeug auf der Grundlage der Trajektorievorhersagen für das Basisfahrzeug und das vorausfahrende Fahrzeug, die von dem Trajektorievorhersagebereich 107 und dem Trajektorievorhersagebereich 108 erfasst werden. Ferner identifiziert der Positionsvorhersagebereich 109 die Position der hinteren Endfläche, die ein vorbestimmter Teil des Objekts ist, und gibt die Position an den unten erwähnten Posenerfassungsbereich 111 aus. Bei der hinteren Endfläche des Objekts handelt es sich z. B. um die hintere Oberfläche eines Fahrzeugs. Wenn das Fahrzeug abbiegt und sowohl die hintere Oberfläche als auch die Seitenfläche des Fahrzeugs im erfassten Bild enthalten sind, ist der Positionsvorhersagebereich 109 in der Lage, die Pose der hinteren Oberfläche zu erfassen, die nicht die Seitenfläche des Fahrzeugs ist, um die Genauigkeit der Posenerfassung zu verbessern. Das Verfahren zur Bestimmung der Position der Heckfläche umfasst z. B. die Erfassung anhand einer Ausrichtung (Gierwinkel) eines vorausfahrenden Fahrzeugs relativ zu einem Basisfahrzeug. Die Position der Heckfläche kann beispielsweise ermittelt werden, indem die Zustandsinformationen einschließlich der Informationen über die Ausrichtung des vorausfahrenden Fahrzeugs vom vorausfahrenden Fahrzeug durch Kommunikation zwischen den Fahrzeugen erfasst werden.
-
Der Posenvorhersagebereich 110 sagt die Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug auf der Grundlage der Trajektorievorhersagen für das Basisfahrzeug und das vorausfahrende Fahrzeug voraus, die von dem Trajektorievorhersagebereich 107 und dem Trajektorievorhersagebereich 108 erfasst werden. Die Pose ist ein relativer Gierwinkel zwischen einem vorausfahrenden Fahrzeug und einem Basisfahrzeug, um eine Winkeldifferenz theta zu erfassen (siehe 9).
-
Der Posenerfassungsbereich 111 erfasst den Gierwinkel theta, der eine Orientierung eines Objekts darstellt, wie z. B. eine relative Winkeldifferenz zwischen dem vorausfahrenden Fahrzeug und dem Basisfahrzeug. Diese Winkeldifferenz ändert sich als Reaktion auf die Änderung der Gierwinkel des vorausfahrenden Fahrzeugs und des Basisfahrzeugs. Der Posenerfassungsbereich 111 detektiert eine Orientierung des Objekts, indem er ein Erfassungsergebnis des Stereo-Abstandserfassungsbereichs 105 verwendet. Der Posenerfassungsbereich 111 verwendet eine lineare Anpassung des horizontalen Abstands der gegenüberliegenden Oberfläche des Objekts, um die Neigung zu bestimmen.
-
Wenn beispielsweise ein Abstand Z (Tiefe) relativ zu einer Koordinate X in horizontaler Richtung (Querrichtung) einer hinteren Oberfläche eines Objekts (vorausfahrendes Fahrzeug) als (X, Z) angegeben wird, wird angenommen, dass (X1, Z1) , (X2, Z2), ..., (X5, Z5) als Messergebnisse erfasst werden. Der Posenerfassungsbereich 111 ermittelt z.B. eine Regressionsgerade (Z = al x X + a2; a1, a2: Konstante), indem er z.B. nach der Methode der kleinsten Quadrate aus der Neigung a1 theta (= arctan (a1)) berechnet.
-
Bei der Erfassung gibt der Posenerfassungsbereich 111 Informationen vom Positionsvorhersagebereich 109 ein, um die hintere Oberfläche des vorausfahrenden Fahrzeugs zu identifizieren, und erfasst nur die hintere Oberfläche, indem er die Seitenfläche des Fahrzeugs ausschließt. Die Genauigkeit der Posenerfassung kann so verbessert werden. Außerdem ist der Posenerfassungsbereich 111 in der Lage, nur das als Fahrzeug erkannte Objekt auszuwählen und zu erfassen.
-
Der Bestimmungsbereich 112 erhält ein Abstandserfassungsergebnis vom Stereo-Abstandserfassungsbereich 105, ein Positionserfassungsergebnis vom Positionserfassungsbereich 106, ein Posenerfassungsergebnis vom Posenerfassungsbereich 111, ein Positionsvorhersageergebnis vom Positionsvorhersagebereich 109 und ein Posenvorhersageergebnis vom Posenvorhersagebereich 110. Der Bestimmungsbereich 112 bestimmt die Ergebnisse, um ein Erfassungsergebnis des Objekts außerhalb des Objekterfassungsgeräts 1 auszugeben.
-
Der Bestimmungsbereich 112 ändert die Verwendungsrate der tatsächlichen Erfassungsergebnisse des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 und der Vorhersageergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 in Abhängigkeit von der Bildaufnahmebedingung des Objekts. Die Verwendungsrate der tatsächlichen Erfassungsergebnisse und der Vorhersageergebnisse wird in Abhängigkeit von dem Maß des Objekts im aufgenommenen Bild bestimmt.
-
Der Bestimmungsbereich 112 führt einen Prozess zur Berechnung des Masses des Objekts durch, das in den aufgenommenen Bildern der Bildaufnahmebereiche 101 und 102 erscheint. In Abhängigkeit von dem Mass des Objekts wird die Gewichtung der tatsächlichen Erfassungsergebnisse und der Vorhersageergebnisse geändert. Insbesondere werden die vom Stereo-Abstandserfassungsbereich 105, dem Positionserfassungsbereich 106 und dem Posenerfassungsbereich 111 erfassten Erfassungswerte niedriger gewichtet und die vom Positionsvorhersagebereich 109 und dem Posenvorhersagebereich 110 vorhergesagten Vorhersagewerte höher gewichtet, wenn sich das Mass des Objekts in den aufgenommenen Bildern verringert.
-
So werden beispielsweise, wenn das vorausfahrende Fahrzeug vollständig in den aufgenommenen Bildern erscheint, nur die tatsächlichen Erfassungsergebnisse vom Bestimmungsbereich 112 ausgegeben. Wenn dann das Mass des vorausfahrenden Fahrzeugs in den aufgenommenen Bildern reduziert wird, z. B. durch ein Abbiegen des vorausfahrenden Fahrzeugs an einer Kreuzung, wird die Verwendungsrate der tatsächlichen Erfassungsergebnisse reduziert und die Verwendungsrate der Vorhersageergebnisse entsprechend erhöht. Wenn sich das vorausfahrende Fahrzeug um einen vorgegebenen Wert außerhalb des Sichtwinkelbereichs befindet, können alle vom Bestimmungsbereich 112 ausgegebenen Ergebnisse von den tatsächlichen Erfassungsergebnissen auf die Vorhersageergebnisse umgeschaltet werden. Da das Mas des vorausfahrenden Fahrzeugs, der in den aufgenommenen Bildern erscheint, allmählich zunimmt, um zum ursprünglichen Wert zurückzukehren, wenn das Basisfahrzeug auch an der Kreuzung abbiegt, um dem vorausfahrenden Fahrzeug zu folgen, steigt die Rate der tatsächlichen Erfassungsergebnisse und dementsprechend sinkt die Rate der Verwendung der Vorhersageergebnisse.
-
Es wird darauf hingewiesen, dass zum Beispiel der Bildaufnahmebereich 101, der Bildaufnahmebereich 102, der Bildkorrekturbereich 104 und der Stereo-Abstandserfassungsbereich 105 im Objekterfassungsgerät 1 eine elektronische Schaltung enthalten. Die anderen Komponenten des Objekterfassungsgeräts 1 werden durch Software-Verarbeitung mit einem nicht illustrierten Mikrocomputer usw. realisiert. Es ist auch möglich, den Stereo-Abstandserfassungsbereich 105 durch Softwareverarbeitung zu realisieren.
-
2 ist ein Diagramm zur Veranschaulichung eines Beispiels von aufgenommenen Bildern, die durch das Objekterfassungsgerät 1 der ersten Ausführungsform der vorliegenden Erfindung aufgenommen wurden. In dieser Figur zeigt ein Bezugszeichen 1001 ein aufgenommenes Bild an, das von dem Bildaufnahmebereich 101 aufgenommen und durch den Bildkorrekturbereich 104 korrigiert wurde, und ein Bezugszeichen 1002 zeigt ein aufgenommenes Bild an, das von dem Bildaufnahmebereich 102 aufgenommen und durch den Bildkorrekturbereich 104 korrigiert wurde. Ein Referenzzeichen 202 ist ein vorausfahrendes Fahrzeug, das ein Subjekt ist. Ein Referenzzeichen 203 ist ein Fußgänger, der ein Subjekt ist. Ein Referenzzeichen 204 ist ein Baum am Straßenrand, der ein Subjekt ist. Ein Bezugszeichen 205 ist ein Verkehrssignal, das ein Subjekt ist. Ein Bezugszeichen 206 ist eine Straßenoberfläche, die ein Subjekt ist.
-
Darüber hinaus sind in dieser Abbildung die Bezugszeichen 201 und 209 Bereiche (gemeinsame Bildaufnahmefläche), die in dem aufgenommenen Bild 1001 und dem aufgenommenen Bild 1002 gemeinsam aufgenommen wurden. Wie oben beschrieben, sind die gemeinsam aufgenommenen Bereiche zwischen dem aufgenommenen Bild 1001 und dem aufgenommenen Bild 1002 gegeneinander versetzt. Der Stereo-Abstandserfassungsbereich 105 berechnet den Abstand zum Subjekt anhand dieses Versatzes, d. h. der Parallaxe.
-
3 zeigt ein vom Objekterfassungsgerät 1 der ersten Ausführungsform aufgenommenes Bild und ein Beispiel für den Betrieb von Stereo-Abstandserfassungsbereich 105, Positionserfassungsbereich 106 und Posenerfassungsbereich 111. 3 zeigt ein Beispiel des Ergebnisses, das anhand des in 2 dargestellten aufgenommenen Bildpaares erfasst wurde. In dieser Abbildung wird der Bereich 201 von dem Bildaufnahmebereich 101 aufgenommen und ist mit dem Bereich in dem durch den Bildkorrekturbereich 104 korrigierten und von dem Bildaufnahmebereich 102 aufgenommenen Bild wie oben beschrieben identisch.
-
Ein Bezugszeichen 301 zeigt eine Verarbeitungsfläche an, in dem der Stereo-Abstandserfassungsbereich 105 einen Abstand zu einem Subjekt und eine Art eines Objekts erfasst. In der vorliegenden Ausführungsform ist die Verarbeitungsfläche 301 der gesamte Bereich 201. Der Stereo-Abstandserfassungsbereich 105 bestimmt die Parallaxen im Bereich der Verarbeitungsfläche 301 mit Hilfe des oben beschriebenen Blockvergleichsverfahrens und erfasst ein Objekt aus der Gruppe der Parallaxen.
-
Die Bezugszeichen 302, 303, 304 und 305 bezeichnen Verarbeitungsflächen, die die Erfassungsergebnisse der Objekte mit den gestrichelten Rahmen umgeben. Die Rahmen und Zahlen im Bild sind nicht im aufgenommenen Bild vorhanden, sondern werden auf dem Bild eingeblendet und explizit beschrieben. In der vorliegenden Ausführungsform wird ein vorausfahrendes Fahrzeug 202, das in der Verarbeitungsfläche 302 erkannt wird, mit einem Abstand z von 10,6 m zum Basisfahrzeug, einer Position x von 2,3 m und einer Pose theta von 0,5 Grad erkannt. Dann wird ein Fußgänger 203 in der Verarbeitungsfläche 303 in einem Abstand z von 5,2 m erkannt. Ein Straßenrand-Baum 204 in der Verarbeitungsfläche 304 wird in einem Abstand z von 35,3 m erkannt. Ein Verkehrssignal 205 in der Verarbeitungsfläche 305 wird in einem Abstand z von 19,7 m erkannt. So können gemäß Objekterfassungsgerät 1 der Abstand, die Position und die Pose eines Objekts in einem aufgenommenen Bild erkannt werden. Die Erfassungswerte für den Abstand, die Position und die Pose des Objekts, die von den Erfassungsbereichen 105, 106 und 111 erkannt wurden, werden an den Bestimmungsbereich 112 ausgegeben.
-
4 ist ein Diagramm, das eine Fahrtrajektorie des Fahrzeugs zeigt. Die Prozesse der obigen Trajektorienvorhersagebereiche 107 und 108, des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden beispielsweise die Dead-Reckoning-Methode, um die Position und die Pose des Fahrzeugs vorherzusagen. Zunächst wird ein Punkt A als Startpunkt festgelegt, und die Position und Pose des Fahrzeugs am nächsten Punkt B werden in einem bestimmten Zyklus aus dem zurückgelegten Abstand des Fahrzeugs vom Punkt A und der Fahrtrichtung des Fahrzeugs vorhergesagt. Aus den oben genannten Informationen über den Lenkwinkel, die Gierrate, die Geschwindigkeit, die Beschleunigung, die Raddrehzahl und die Position eines Satelliten als Zustandsinformationen über das Fahrzeug für die Vorhersage wird der Fahrbetrag in einem bestimmten Zyklus berechnet und zu der Koordinate des Punktes A addiert, um den Punkt B vorherzusagen. Die Trajektorie des Fahrzeugs kann so vorhergesagt werden, und außerdem wird die Differenz zwischen den Trajektorien des Basisfahrzeugs und des vorausfahrenden Fahrzeugs erfasst, um die Vorhersage der Position und Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug zu ermöglichen. Bei dieser Methode werden Fehler in der Fahrstrecke berücksichtigt. Durch die Überlagerung von Ergänzungen kumulieren sich also die Fehler.
-
Darüber hinaus gibt es auch ein Verfahren zur Ermittlung der Differenz zwischen den Fahrbeträgen des Basisfahrzeugs und des vorausfahrenden Fahrzeugs. Die Differenzen werden dann addiert, um die Position und Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug vorherzusagen. Als weiteres Verfahren wird ein im Fahrzeug bestimmter Fahrplan eingegeben, um eine Vorhersage der Position und Pose ohne Vorhersage der Trajektorie zu ermöglichen.
-
5 sind Diagramme, die den zeitlichen Ablauf der Verarbeitung des Objekterfassungsgeräts 1 der vorliegenden Ausführungsform veranschaulichen. 5(A) veranschaulicht den zeitlichen Ablauf der Verarbeitung des Bildkorrekturbereichs 104, des Stereo-Abstandserfassungsbereichs 105, des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111. 5(B) veranschaulicht den Verarbeitungszeitpunkt der Bereiche 107 und 108 der Trajektorievorhersage, des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110. 5(C) illustriert den Verarbeitungszeitpunkt des Bestimmungsbereichs 112.
-
In 5(A) wird die obige Abstandserfassung durch den Bildkorrekturbereich 104 und den Stereo-Abstandserfassungsbereich 105 ausgeführt, um ein Objekt zu erfassen, die Position des Objekts im Positionserfassungsbereich 106 zu erfassen und die Pose des Objekts im Posenerfassungsbereich 111 zu erfassen.
-
Zusätzlich werden in 5(B) die Trajektorien des Basisfahrzeugs und des vorausfahrenden Fahrzeugs durch die Trajektorienvorhersagebereiche 107 und 108 vorhergesagt, die Position des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug wird im Positionsvorhersagebereich 109 vorhergesagt, und die Pose des vorausfahrenden Fahrzeugs relativ zum Basisfahrzeug wird im Posenvorhersagebereich 110 vorhergesagt.
-
In 5(C) wird das Erfassungsergebnis des im Bestimmungsbereich 112 ermittelten Objekts auf der Grundlage der in 5(A) und 5(B) erhaltenen Erfassungsergebnisse ausgegeben.
-
In der vorliegenden Ausführungsform wurde der Fall erläutert, dass die Positionserfassung, die Posenerfassung, die Positionsvorhersage und die Posenvorhersage im selben Zyklus verarbeitet werden und alle diese Vorgänge einmal in einem Rahmen durchgeführt werden. Der Zyklus kann unterschiedlich sein. Bei jedem Bestimmungszyklus kann das jeweils neueste Ergebnis verwendet werden.
-
6 ist ein Diagramm, das den Verarbeitungsablauf des Objekterfassungsgeräts der ersten Ausführungsform zeigt. Zunächst werden Bilder von den Bildaufnahmebereichen 101 und 102 aufgenommen (Schritt S601). Helligkeitskorrektur, Linsenverzerrungskorrektur und horizontale Positionsausrichtung werden durch den Bildkorrekturbereich 104 in jedem von den Bildaufnahmebereichen 101 und 102 wie oben beschrieben aufgenommenen Bild durchgeführt (Schritt S602). Als nächstes erfasst der Stereo-Abstandserfassungsbereich 105 das Objekt und den Abstand zum Objekt in der Verarbeitungsfläche 301 (Schritt S603). Ferner erfasst der Positionserfassungsbereich 106 die Position des Objekts (Schritt S604) und der Posenerfassungsbereich 111 die Pose (Schritt S605).
-
Im Gegensatz dazu werden Zustandsinformationen über das Basisfahrzeug eingegeben (Schritt 606) und Zustandsinformationen über das vorausfahrende Fahrzeug (Schritt 607). Basierend auf jedem Teil der eingegebenen Informationen werden die Trajektorievorhersage des Basisfahrzeugs (Schritt 608) und die Trajektorievorhersage des vorausfahrenden Fahrzeugs (Schritt 609) durchgeführt. Ferner werden die Positionsvorhersage (Schritt 610) und die Posenvorhersage (Schritt 611) auf der Grundlage der Trajektorienvorhersagen des Basisfahrzeugs und des vorausfahrenden Fahrzeugs durchgeführt.
-
Schließlich führt der Bestimmungsbereich 112 bei jedem Schritt eine Bestimmung auf der Grundlage des Erfassungsergebnisses des Objekts durch und gibt das Bestimmungsergebnis aus (Schritt S612). Das Objekterfassungsgerät 1 wiederholt diese Vorgänge z. B. bei jeden einzelnen Rahmen. Der Bestimmungsbereich 112 ändert die Verwendungsrate zwischen den tatsächlichen Erfassungsergebnissen und den Vorhersageergebnissen als Reaktion auf die Bildaufnahmebedingung des vorhergehenden Fahrzeugs, das in dem aufgenommenen Bild erscheint. Der Bestimmungsbereich 112 berechnet das Mass des vorausfahrenden Fahrzeugs, das in dem aufgenommenen Bild aufgenommen wurde, und bestimmt die Nutzungsrate zwischen den tatsächlichen Erfassungswerten und den Vorhersagewerten des Abstands zu dem vorausfahrenden Fahrzeug und der Position und Pose des vorausfahrenden Fahrzeugs in Abhängigkeit von dem Mass des vorausfahrenden Fahrzeugs. Dann werden die auf der Rate basierenden Werte für den Abstand, die Position und die Pose ausgegeben.
-
7 sind Diagramme zur Veranschaulichung von Beispielen aufgenommener Bilder während der Fahrt, die von dem Fahrzeug, das das Objekterfassungsgerät 1 der vorliegenden Ausführungsform trägt, aufgenommen wurden. 7(A) zeigt ein Bild, das vom Bildaufnahmebereich 101 zu einem bestimmten Zeitpunkt t1 aufgenommen wurde. Dieses Bild wird aufgenommen, wenn sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. 7(B) zeigt ein Bild, das vom Bildaufnahmebereich 101 zu einem Zeitpunkt t2 nach dem Zeitpunkt t1 aufgenommen wurde. Dieses Bild wird aufgenommen, wenn sich das vorausfahrende Fahrzeug 202 nähert, nach links abbiegt und sich nicht vollständig innerhalb des Aufnahmeblickwinkels befindet. 7(C) zeigt ein Bild, das zu einem Zeitpunkt t3 nach dem Zeitpunkt t2 aufgenommen wurde, als das vorausfahrende Fahrzeug 202 weiter nach links abbiegt und sich fast außerhalb des Sichtwinkels befindet.
-
8 sind Diagramme, die die Rate zwischen den Erfassungsergebnissen, die in Zeitserien aus den während der Fahrt aufgenommenen Bildern in 7(A), 7(B) und 7(C) erfasst wurden, und den Erfassungsergebnissen, die letztendlich verwendet werden sollen, darstellen. Die Zeitpunkte t1, t2 und t3 bezeichnen die Zeitpunkte, zu denen das aufgenommene Bild aus 7(A), das aufgenommene Bild aus 7(B) bzw. das aufgenommene Bild aus 7(C) aufgenommen wird.
-
zeigt ein Ergebnis der Positionsbestimmung. Die durchgezogene Linie zeigt die Ergebnisse der Positionsbestimmung durch den Positionserfassungsbereich 106. Die gestrichelte Linie zeigt die Ergebnisse der Positionsvorhersage durch den Positionsvorhersagebereich 109 an. In 8(A) zeigt die horizontale Achse die Zeit und die vertikale Achse die Position an. Da der Positionserfassungsbereich 106 die linke und rechte Position des Objekts aus den Abstandserfassungsergebnissen des Stereo-Abstandserfassungsbereichs 105 erfasst, können stabile Erfassungsergebnisse um die Zeit t1 herum erzielt werden, zu der sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Positionsvorhersagebereiches 109 wie oben beschrieben Fehler. Um den Zeitpunkt t2 nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Die Erfassungsfehler des Positionserfassungsbereichs 106 nehmen daher zu. Da sich das vorausfahrende Fahrzeug 202 um den Zeitpunkt t3 in der Regel vollständig aus dem Sichtwinkel entfernt, wird die Positionserfassung schwierig. Im Gegensatz dazu wird die Positionsvorhersage durch den Positionsvorhersagebereich 109 unter Einbeziehung von Fehlern fortgesetzt.
-
zeigt die Ergebnisse der Posenerfassung. Die durchgezogene Linie zeigt die Ergebnisse der Posenerfassung durch den Posenerfassungsbereich 111 und die gestrichelte Linie zeigt die Ergebnisse der Vorhersage durch den Posenvorhersagebereich 110. In 8(B) zeigt die horizontale Achse die Zeit und die vertikale Achse die Pose an. In der vorliegenden Ausführungsform ist die Pose, in der das vorausfahrende Fahrzeug 202 nach links abbiegt, als Plusrichtung angegeben. Der Stereo-Abstandserfassungsbereich 105 ist in der Lage, stabile Erfassungsergebnisse um den Zeitpunkt t1 herum zu erzielen, zu dem sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Posenvorhersagebereichs 110 die oben erwähnten Fehler. Um den Zeitpunkt t2 nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Dadurch erhöhen sich die Erfassungsfehler im Posenerfassungsbereich 111. Da sich das vorausfahrende Fahrzeug 202 in der Regel um den Zeitpunkt t3 vollständig aus dem Sichtwinkel entfernt, wird die Erfassung der Pose schwierig. Im Gegensatz dazu setzt der Posenvorhersagebereich 110 die Vorhersage unter Berücksichtigung der Fehler fort.
-
zeigt die Ergebnisse der Abstandserfassung. Die durchgezogene Linie zeigt die Ergebnisse der Abstandserfassung durch den Stereo-Abstandserfassungsbereich 105. Die gestrichelte Linie zeigt die Ergebnisse der Vorhersage durch den Positionsvorhersagebereich 109. In zeigt die horizontale Achse die Zeit und die vertikale Achse den Abstand an. Um die Zeit t1 herum ist der Stereo-Abstandserfassungsbereich 105 in der Lage, stabile Erfassungsergebnisse zu erzielen, wenn sich das vorausfahrende Fahrzeug 202 vollständig innerhalb des Aufnahmeblickwinkels befindet. Im Gegensatz dazu enthalten die Vorhersageergebnisse des Positionsvorhersagebereiches 109 die oben erwähnten Fehler. Um den Zeitpunkt t2 herum nähert sich das vorausfahrende Fahrzeug 202 und wendet und befindet sich nicht vollständig innerhalb des Sichtwinkels. Dadurch erhöhen sich die Erfassungsfehler beim Stereo-Abstandserfassungsbereich 105. Da das vorausfahrende Fahrzeug 202 in der Regel um den Zeitpunkt t3 vollständig aus dem Sichtwinkel herausfährt. Die Erfassung des Abstands wird dadurch erschwert. Im Gegensatz dazu setzt der Positionsvorhersagebereich 109 die Vorhersage unter Einbeziehung der Fehler fort.
-
8(D) und 8(E) veranschaulichen die Rate der Erfassungsergebnisse, die schließlich vom Bestimmungsbereich 112 in den erfassten Erfassungsergebnissen verwendet werden. In und zeigt die horizontale Achse die Zeit und die vertikale Achse die Rate an.
-
Die unter der Kurve von 8(D) dargestellte Rate a gibt die Rate an, mit der der Bestimmungsbereich 112 die Erfassungsergebnisse des Positionserfassungsbereichs 106 verwendet. Die oberhalb der Kurve von 8(D) dargestellte Rate b gibt die Rate an, mit der der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109 verwendet. Der Gesamtwert der Raten a und b ist 1. Der Bestimmungsbereich 112 verwendet (gewichtet) die Erfassungsergebnisse oder Vorhersageergebnisse, die zu einem aktuellen Zeitpunkt genau erfasst wurden, mit einer hohen Nutzungsrate.
-
Um die Zeit t1 gewichtet und verwendet der Bestimmungsbereich 112 die Erfassungsergebnisse des Positionserfassungsbereichs 106. Um den Zeitpunkt t2 erhöht der Bestimmungsbereich 112 die Rate der Ergebnisse des Positionsvorhersagebereiches 109. Um den Zeitpunkt t3 verwendet der Bestimmungsbereich 112 nur noch die Vorhersageergebnisse des Positionsvorhersagebereiches 109. Wenn sich die Position des Objekts vollständig aus dem Aufnahmeblickwinkel herausbewegt, verwendet der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109.
-
Zum Beispiel ist um die Zeit t2 die Rate a gleich 0,8 und die Rate b gleich 0,2. Wenn die Position des tatsächlichen Erfassungsergebnisses durch den Positionserfassungsbereich 106 auf x1, den Abstand des Vorhersageergebnisses durch den Positionsvorhersagebereich 109 auf x2 und der vom Bestimmungsbereich 112 ausgegebene Abstand auf x gesetzt wird, ist x = 0,8 x x1 + 0,2 x x2 um den Zeitpunkt t2.
-
Zusätzlich ist die Rate c, die unter der Kurve von 8(E) dargestellt ist, die Rate, mit der der Bestimmungsbereich 112 die Erfassungsergebnisse des Posenerfassungsbereichs 111 verwendet. Die oberhalb der Kurve von 8 (E) dargestellte Rate d ist die Rate, mit der der Bestimmungsbereich 112 die Vorhersageergebnisse des Posenvorhersagebereichs 110 verwendet. Der Gesamtwert der Rate d und der Rate c ist 1. Die vom Bestimmungsbereich 112 verwendete Rate verwendet (gewichtet) die Erfassungsergebnisse oder Vorhersageergebnisse, die zu einem aktuellen Zeitpunkt mit einer hohen Nutzungsrate genau erfasst wurden.
-
Um den Zeitpunkt t1 gewichtet und verwendet der Bestimmungsbereich 112 die Erfassungsergebnisse des Posenerfassungsbereichs 111. Um den Zeitpunkt t2 erhöht der Bestimmungsbereich 112 die Rate der Vorhersageergebnisse des Posenvorhersagebereichs 110. Zum Zeitpunkt t3 verwendet der Bestimmungsbereich 112 nur noch die Vorhersageergebnisse des Posenvorhersagebereichs 110. Wenn die Position des Objekts vollständig außerhalb des Aufnahmeblickwinkels liegt, verwendet der Bestimmungsbereich 112 die Vorhersageergebnisse des Posenvorhersagebereichs 110.
-
Wenn die vom Positionserfassungsbereich 106 erfasste Position innerhalb eines vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Erfassungsergebnisse des Stereo-Abstandserfassungsbereichs 105, des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 als die Position und Pose des vorausfahrenden Fahrzeugs verwenden. Wenn die vom Positionserfassungsbereich 106 erfasste Position außerhalb des vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Vorhersageergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 als Position und Pose des vorausfahrenden Fahrzeugs verwenden.
-
Selbst wenn die vom Positionserfassungsbereich 106 erfasste Position innerhalb des vorgegebenen Bereichs liegt, kann der Bestimmungsbereich 112 die Ergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden, wenn der vom Stereo-Abstandserfassungsbereich 105 erfasste Abstand größer als ein vorgegebener Abstand ist und es dementsprechend schwierig ist, die Erfassungsgenauigkeit sicherzustellen.
-
Wenn der vom Stereo-Abstandserfassungsbereich 105 erfasste Abstand kürzer als ein vorgegebener Abstand ist, die vom Positionserfassungsbereich 106 erfasste Position jedoch außerhalb des vorgegebenen Bereichs liegt und es daher schwierig ist, die Erfassungsgenauigkeit zu gewährleisten, kann der Bestimmungsbereich 112 die Ergebnisse des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 verwenden.
-
Nachdem sich das vorausfahrende Fahrzeug 202 einmal aus dem Aufnahmeblickwinkel herausbewegt hat und der Abstand zum vorausfahrenden Fahrzeug 202 dementsprechend vom Stereo-Abstandserfassungsbereich 105 nicht mehr erfasst werden kann, wenn das vorausfahrende Fahrzeug 202 in den Aufnahmeblickwinkel zurückkehrt und der Abstand zum vorausfahrenden Fahrzeug 202 vom Stereo-Abstandserfassungsbereich 105 erfasst werden kann, setzt der Trajektorievorhersagebereich 108 den Ausgangspunkt für die Trajektoriebahnvorhersage unter Verwendung der Ergebnisse des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 zurück. Daher können die Fehler, die sich beim Positionsvorhersagebereich 109 und beim Posenvorhersagebereich 110 angesammelt haben, eliminiert werden.
-
ist ein Diagramm zur Erläuterung der Positionsbeziehung zwischen dem Basisfahrzeug und dem vorausfahrenden Fahrzeug.
-
Das Objekterfassungsgerät 1 ist an einem Basisfahrzeug 200 angebracht, um die Position des vorausfahrenden Fahrzeugs 202 zu erfassen. Das Basisfahrzeug 200 wird autonom gesteuert, um dem vorausfahrenden Fahrzeug 202 folgend zu fahren, indem es Positionsinformationen über das vorausfahrende Fahrzeug 202 verwendet, die vom Objekterfassungsgerät 1 erfasst werden. Das Objekterfassungsgerät 1 erfasst einen Abstand Za, eine Position Xa und eine Pose Theta zwischen dem Basisfahrzeug 200 und dem vorausfahrenden Fahrzeug 202.
-
Wie in 9 dargestellt, zeigt z.B., wenn das vorausfahrende Fahrzeug 202 an einer Kreuzung nach links abbiegt, das im Basisfahrzeug 200 aufgenommene Bild an, dass sich im Allgemeinen ein ganzer Teil des vorausfahrenden Fahrzeugs 202 aus dem Sichtwinkelbereich des aufgenommenen Bildes bewegt (siehe 7(C)). In diesem Fall führt der Bestimmungsbereich 112 eine Anpassung durch, um die Rate der Verwendung der durch den Positionsvorhersagebereich 109 und den Posenvorhersagebereich 110 vorhergesagten Vorhersageergebnisse zu erhöhen und die Rate der Verwendung der durch den Stereo-Abstandserfassungsbereich 105, den Positionserfassungsbereich 106 und den Posenerfassungsbereich 111 erfassten Erfassungsergebnisse zu verringern. Dann werden Informationen über die Position, den Abstand und die Pose des vorausfahrenden Fahrzeugs 202, die im Bestimmungsbereich 112 angepasst wurden, nach außen ausgegeben und für die Steuerung verwendet, damit das Basisfahrzeug dem vorausfahrenden Fahrzeug folgt.
-
Gemäß dem Objekterfassungsgerät 1 der vorliegenden Ausführungsform können der Abstand, die Position und die Pose des vorausfahrenden Fahrzeugs 202 kontinuierlich erfasst werden, selbst wenn sich das vorausfahrende Fahrzeug 202 aus dem Aufnahmeblickwinkel herausbewegt. Das heißt, dass unabhängig von der Position oder dem Abstand zu einem Objekt das Objekt kontinuierlich verfolgt wird und Positions-, Abstands- und Poseninformationen über das Objekt erfasst werden können. Selbst wenn sich das vorausfahrende Fahrzeug 202 aus dem Aufnahmeblickwinkel herausbewegt, kann das vorausfahrende Fahrzeug 202 daher genau erkannt werden, und eine Verringerung der Verfolgungsgenauigkeit des Basisfahrzeugs 200 kann verhindert werden.
-
<Zweite Ausführungsform>
-
10 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgerätes der zweiten Ausführungsform zeigt. Eine Besonderheit der vorliegenden Ausführungsform besteht darin, dass das Objekterfassungsgerät 1 der ersten Ausführungsform zusätzlich mit einem Fahrzeugsteuerungsbereich ausgestattet ist. Der Fahrzeugsteuerungsbereich führt eine autonome Fahrsteuerung für eine Fahrt aus, die automatisch ein vorausfahrendes Fahrzeug verfolgt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erfüllen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht näher erläutert. Das Objekterfassungsgerät 1 ist an einem Fahrzeug, z. B. einem Automobil, angebracht, und ein Bezugszeichen 901 zeigt den Fahrzeugsteuerungsbereich in der Abbildung an. Die Ausgabe des Bestimmungsbereichs 112 wird in den Fahrzeugsteuerungsbereich 901 eingegeben.
-
Ein Fahrzeug (Folgefahrzeug, das einem vorausfahrenden Fahrzeug folgend fährt), an dem das Objekterfassungsgerät 1 angebracht ist, befindet sich hinter dem vorausfahrenden Fahrzeug und folgt diesem. In diesem Fall erfasst das Objekterfassungsgerät 1 den Abstand, die Position und die Pose des vorausfahrenden Fahrzeugs wie oben beschrieben.
-
Der Fahrzeugsteuerungsbereich 901 empfängt die Erkennungsergebnisse des Bestimmungsbereichs 112 und steuert auf der Grundlage der Erfassungsergebnisse andere, nicht dargestellte Fahrzeuggeräte. Die Steuerziele des Fahrzeugs umfassen einen Lenkwinkel, eine Bremse und eine Lenkvorrichtung und werden so gesteuert, dass sie dem vorausfahrenden Fahrzeug folgen und auf der Grundlage der Erfassungsergebnisse fahren. Die Informationen zur Fahrzeugsteuerung werden vom Objekterfassungsgerät 1 über ein fahrzeuginternes Netzwerk wie CAN (Controller Area Network) an die anderen nicht abgebildeten Geräte ausgegeben.
-
Im Falle einer Spursteuerung, bei der ein geringer Abstand zum vorausfahrenden Fahrzeug eingestellt ist, kann das vorausfahrende Fahrzeug über den Aufnahmeblickwinkel hinausragen oder sich aus dem Aufnahmeblickwinkel herausbewegen. Gemäß dem Objekterfassungsgerät 1 der vorliegenden Ausführungsform können der Abstand zum vorausfahrenden Fahrzeug sowie die Position und Pose des vorausfahrenden Fahrzeugs wie oben erwähnt kontinuierlich erfasst werden, um dem vorausfahrenden Fahrzeug sicher zu folgen.
-
Es wird darauf hingewiesen, dass 10 das Beispiel zeigt, dass der Fahrzeugsteuerungsbereich 901 und das Objekterfassungsgerät 1 in derselben Karosserie untergebracht sind, was jedoch keine Einschränkung darstellt. Der Fahrzeugsteuerungsbereich 901 und das Objekterfassungsgerät 1 können in verschiedenen Gehäusen untergebracht sein und die Erfassungsergebnisse über ein fahrzeuginternes Netzwerk übertragen. Wie oben beschrieben, können der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 unterschiedliche Gehäuse haben.
-
<Dritte Ausführungsform>
-
11 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgeräts der dritten Ausführungsform der vorliegenden Erfindung zeigt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erreichen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht im Detail erläutert. Die vorliegende Ausführungsform zeichnet sich dadurch aus, dass die Objekterfassung unter Verwendung eines Sensors erfolgt, der so konfiguriert ist, dass er andere als der Bildaufnahmebereich 101 und der Bildaufnahmebereich 102 verwendet, um Abstandsinformationen und Positionsinformationen zu erfassen.
-
Zu den Eingangsinformationen gehören beispielsweise die von einem nicht abgebildeten Radar oder einem Sensor wie einem Infrarotsensor erfassten Informationen. Der Abstand und Position eines Objekts in einem Zielbereich kann bestimmt werden. Der Bestimmungsbereich 112 ändert eine Nutzungsrate zwischen den Erfassungsergebnissen des Positionserfassungsbereichs 106 und des Posenerfassungsbereichs 111 und den Vorhersageergebnissen des Positionsvorhersagebereiches 109 und des Posenvorhersagebereichs 110 in Abhängigkeit vom Mass des vorausfahrenden Fahrzeugs innerhalb des Erfassungsbereichs des Sensors. Die weitere Funktionsweise ist wie oben beschrieben.
-
<Vierte Ausführungsform>
-
12 ist ein Diagramm, das eine Konfiguration eines Objekterfassungsgeräts der vierten Ausführungsform zeigt. Die Komponenten, die die gleichen Funktionen wie die Komponenten von 1 erreichen, verwenden die gleichen Bezugszeichen wie 1 und werden nicht im Detail erläutert. Eine Besonderheit der vorliegenden Ausführungsform besteht darin, dass ein Bildaufnahmebereich 1201 und ein Steuerbereich 1204 an verschiedenen Stellen vorgesehen und über ein Netzwerk miteinander verbunden sind.
-
Ein Bezugszeichen 1201 weist auf einen Netzwerk-Bildaufnahmebereich hin. Ein Bezugszeichen 1203 weist auf ein LAN (Local Area Network) hin. Ein Bezugszeichen 1204 weist auf ein Steuerbereich hin. Der Netzwerk-Bildaufnahmebereich 1201 ist z. B. an der Windschutzscheibe eines Fahrzeugs angebracht. Der Steuerbereich 1204 ist in einem Gehäuse untergebracht, das sich von dem für den Netzwerk-Bildaufnahmebereich 1201 unterscheidet und an einem Ort angeordnet ist, an dem Platz im Fahrzeug gewährleistet werden kann. Ein LAN 1203 kann ein fahrzeuginternes Netzwerk wie z. B. CAN verwenden.
-
Der Netzwerk-Bildaufnahmebereich 1201 ist über das LAN 1203 mit dem Steuerbereich 1204 verbunden. Zusätzlich zeigt ein Bezugszeichen 1202 einen Bildkompressionsschnittstellenbereich an. Ein Bezugszeichen 1205 zeigt einen Netzwerkschnittstellenbereich an. Ein Bezugszeichen 1206 zeigt einen Bilddekompressionsbereich an.
-
Der Bildkorrekturbereich 104 führt eine Helligkeitskorrektur, eine Linsenverzerrungskorrektur und eine horizontale Ausrichtung für die von dem Bildaufnahmebereich 101 und dem Bildaufnahmebereich 102 aufgenommenen Bilder durch. Als nächstes komprimiert der Bildkompressionsschnittstellenbereich 1202 ein Bild aus dem Bildkorrekturbereich 104 und überträgt das Bild über das LAN 1203 an den Steuerbereich 1204. Das Bildkompressionsverfahren umfasst ein Intra-Screen-Kompressionsverfahren zur Durchführung der Kompression in einem Bild, um die Verarbeitungszeit zu reduzieren, ohne eine zeitliche Korrelation mehrerer Bilder zu verwenden. Zusätzlich kann eine Videokompressionskodierung ausgewählt und auf diese umgeschaltet werden.
-
Der Bildkompressionsschnittstellenbereich 1202 erzeugt komprimierte kodierte Daten und überträgt die Daten gemäß einem vorgegebenen Netzwerkprotokoll. Es wird darauf hingewiesen, dass der Bildkorrekturbereich 104 nach dem Bilderweiterungsbereich 1206 des Steuerbereichs 1204 vorgesehen sein kann. Der Bildkorrekturbereich 104 führt die Verarbeitung vor dem Bildkompressions-Schnittstellenbereich 1202 des Netzwerk-Bildaufnahmebereichs 1201 aus, um die Bildkompression nach der Korrektur der Linsenverzerrung usw. durchzuführen. Es wird daher eine hocheffiziente Bildkompression und Bildverbesserung erwartet.
-
Im Steuerbereich 1204 empfängt der Netzwerkschnittstellenbereich 1205 komprimierte Bilddaten über das LAN 1203. Die vom Netzwerkschnittstellenbereich 1205 des Steuerbereichs 1204 empfangenen komprimierten Bilddaten werden im Bilderweiterungsbereich 1206 zum Originalbild dekomprimiert, und den Abstand wird vom Stereo-Abstandserfassungsbereich 105 erfasst. Die weitere Verarbeitung erfolgt wie oben beschrieben.
-
In der vorliegenden Ausführungsform werden die komprimierten Bilder über das LAN 1203 übertragen. Die Verarbeitungsmenge in den Bildaufnahmebereichen kann reduziert werden. Aufgrund der Gewichtsreduzierung, der Verringerung des Stromverbrauchs und der Verringerung der Größe des Bildaufnahmebereichskörpers können die Größenbeschränkungen bei der Installation der Bildaufnahmebereiche in einem Fahrzeug verringert werden. Wenn die Übertragungsbandbreite eines Netzwerks effizient gewährleistet ist, ist die Übertragung ohne Bildkompression und -dekompression möglich.
-
Es wird darauf hingewiesen, dass die vorliegende Erfindung nicht auf die oben genannten Ausführungsformen beschränkt ist und verschiedene Modifikationen umfasst. Zum Beispiel wurden die oben genannten Ausführungsformen im Detail für verständliche Erklärung der vorliegenden Erfindung erläutert. Die obigen Ausführungsformen sind nicht auf diejenigen beschränkt, die mit allen erläuterten Konfigurationen versehen sind. Zusätzlich ist es möglich, einen Teil einer Konfiguration einer bestimmten Ausführungsform durch eine Konfiguration einer anderen Ausführungsform zu ersetzen. Es ist auch möglich, einen Teil einer Konfiguration einer bestimmten Ausführungsform zu einer Konfiguration einer anderen Ausführungsform hinzuzufügen. Darüber hinaus ist es möglich, das Hinzufügen, Löschen und Ersetzen eines Teils einer Konfiguration jeder Ausführungsform mit Hilfe einer anderen Konfiguration durchzuführen.
-
Darüber hinaus kann ein Teil oder die Gesamtheit der oben genannten Konfigurationen Hardware enthalten oder durch Ausführung eines Programms mit Hilfe eines Prozessors realisiert werden. Außerdem sind die Steuer- und Informationsleitungen abgebildet, die zur Erläuterung als notwendig erachtet werden. Es sind nicht unbedingt alle Steuer- und Informationsleitungen für ein Produkt abgebildet. In der Praxis können im Allgemeinen alle Konfigurationen als miteinander verbunden angesehen werden.
-
Bezugszeichenliste
-
- 1
- Objekterfassungsgerät
- 101 bis 102
- Bildaufnahmebereich
- 104
- Bildkorrekturbereich
- 105
- Stereo-Abstandserfassungsbereich
- 106
- Positionserfassungsbereich
- 107 bis 108
- der Trajektorievorhersagebereich (erster Fahrzeuginformationeingabebereich, zweiter Fahrzeuginformationeingabebereich)
- 109
- Positionsvorhersagebereich
- 110
- Posenvorhersagebereich
- 111
- Posenerfassungsbereich
- 112
- Bestimmungsbereich
- 201, 209
- Gemeinsame Bildaufnahmefläche
- 202 bis 205
- Subjekt
- 301 bis 305
- Verarbeitungsfläche
- 901
- Fahrzeugsteuerungsbereich
- 1201
- Netzwerk-Bildaufnahmebereich
- 1202
- Bildkompressionsschnittstellenbereich
- 1203
- LAN
- 1204
- Steuerungsbereich
- 1205
- Netzwerk-Schnittstellen-Bereich
- 1206
- Bilddekomprimierungsbereich
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-