-
QUERVERWEIS AUF VERWANDTE ANMELDUNG
-
Diese Anmeldung beansprucht die Priorität der am 30. September 2019 eingereichten japanischen Patentanmeldung
JP 2019- 178 781 , die hierin in ihrer Gesamtheit, einschließlich der Beschreibung, der Ansprüche, der Zeichnungen und der Zusammenfassung, durch Bezugnahme aufgenommen ist.
-
TECHNISCHES GEBIET
-
Die vorliegende Beschreibung offenbart eine Antriebssteuervorrichtung für ein automatisch bzw. autonom fahrendes Fahrzeug, ein Halteziel und ein Antriebssteuersystem.
-
HINTERGRUND
-
Automatisch fahrende Fahrzeuge, die Lenkung und Geschwindigkeit der Fahrzeuge automatisch steuern, sind bekannt. Ein autonom fahrendes Fahrzeug umfasst verschiedene Sensoren, um die Fahrzeugposition abzuschätzen und periphere Umgebungen zu erkennen.
-
Ein autonom fahrendes Fahrzeug umfasst beispielsweise einen LiDAR-Sensor (LiDAR = Light Detection and Ranging; Verfahren zur optischen Abstands- und Geschwindigkeitsmessung) zur Messung des Abstands zu einem Hindernis in der Nähe. Ein LiDAR-Sensor misst den Abstand zu einem peripheren Objekt mit Hilfe von Laserlicht, z.B. Infrarotstrahlen. Beispielsweise tastet ein LiDAR-Sensor infrarotes Laserlicht dreidimensional (in horizontaler und vertikaler Richtung) ab, um dreidimensionale Punktgruppendaten der Umgebung des Fahrzeugs zu erhalten.
-
Ein autonom fahrendes Fahrzeug enthält außerdem eine Kamera, die ein Bild der Umgebung aufnimmt. Ein von der Kamera aufgenommenes Bild wird mit einer Deep Learning Technik wie z.B. SSD (Single Shot Multibox Detector) analysiert, so dass Attribute von verschiedenen Objekten (Fahrzeuge, Fahrgäste, Strukturen usw.), die im Bild enthalten sind, erkannt werden können.
-
Durch die Kombination der vom LiDAR-Sensor erhaltenen dreidimensionalen Punktgruppendaten mit der Bilderkennung durch die Kamera ist es möglich, den Abstand von Objekten zum Fahrzeug und die Attribute der Objekte zu bestimmen.
-
Handelt es sich bei einem solchen autonom fahrenden Fahrzeug um ein öffentliches Verkehrsmittel, wie z.B. einen Personenbus, ist es notwendig, das Fahrzeug neben einem Halteziel, wie z.B. einer Bushaltestelle, anzuhalten, wie in der JP H11- 3 495 A und der
JP 2017 -
196 962 A offenbart. Diese Anhaltesteuerung wird auch als präzise Anlege- bzw. Andocksteuerung bezeichnet. Eine präzise Andocksteuerung erfordert eine Antriebssteuerung, die einen Abstand zwischen dem Bordstein und einer Einstiegsstufe des Fahrzeugs auf einige Zentimeter genau zulässt, damit beispielsweise ein Rollstuhl o.ä. problemlos ein- oder aussteigen kann. Um eine präzise Andocksteuerung durchzuführen, ist es notwendig, ein Halteziel in Fahrtrichtung vor dem Fahrzeug zu erkennen.
-
Die präzise Andocksteuerung eines Fahrzeugs beginnt beispielweise, wenn ein Halteziel in einem Kamerabild erkannt wird. Bei der präzisen Andocksteuerung wird aus den dreidimensionalen Punktgruppendaten des LiDAR-Sensors beispielsweise der Abstand zwischen dem erkannten Halteziel und dem Fahrzeug ermittelt und in Abhängigkeit vom Abstand werden der Lenkwinkel und die Geschwindigkeit des Fahrzeugs gesteuert.
-
Wenn es möglich ist, ein Halteziel nicht nur mit der Kamera, sondern auch mit anderen Mitteln zu erkennen, wird eine Erhöhung der Erkennungsgenauigkeit des Halteziels erwartet. Ausführungsformen der vorliegenden Erfindung zielen daher darauf ab, eine verbesserte Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, ein Halteziel und ein Antriebssteuersystem bereitzustellen, das in der Lage ist, ein Halteziel unter Verwendung eines LiDAR-Sensors zu erkennen.
-
KURZFASSUNG
-
Eine Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, das in der vorliegenden Beschreibung offenbart wird, umfasst einen LiDAR-Sensor, einen Analysator und eine Bestimmungseinheit. Der LiDAR-Sensor ist so konfiguriert, dass er Laserlicht dreidimensional aus dem Fahrzeug heraus abtastet und reflektiertes Licht empfängt. Der Analysator ist so konfiguriert, dass er dreidimensionale Punkte des vom LiDAR-Sensor erfassten reflektierten Lichts zu Clustern gruppiert. Die Bestimmungseinheit ist so konfiguriert, dass sie Formen und Reflexionsverteilungen zwischen zumindest einem der durch den Analysator erhaltenen Cluster und einem Referenzcluster, der ein Halteziel darstellt, vergleicht, um zu bestimmen, ob der zumindest eine Cluster das Halteziel enthält oder nicht.
-
Die vorstehend beschriebene Konfiguration wird verwendet, um die vom LiDAR-Sensor erfassten dreidimensionalen Punkte in Cluster zu gruppieren, um die Erkennung des Halteziels unter Verwendung der Form und der Reflexionsverteilung der Cluster zu ermöglichen.
-
In der vorstehend beschriebenen Konfiguration kann der Referenzcluster eine Streifenkonfiguration mit sich wiederholenden Mustern aus einer Mehrzahl von Bereichen aufweisen, in denen benachbarte Bereiche unterschiedliche Reflexionsgrade in Bezug auf das Laserlicht aufweisen.
-
Die vorstehend beschriebene Konfiguration erleichtert die Unterscheidung des Halteziels von anderen Objekten, was zu einer erhöhten Genauigkeit bei der Erkennung des Halteziels führt.
-
In der vorstehend beschriebenen Konfiguration kann der Referenzcluster als Streifenkonfiguration einen Bereich mit hohem Reflexionsvermögen bzw. hochreflektierenden Bereich mit einem relativ hohen Reflexionsgrad in Bezug auf das Laserlicht und einen Bereich mit niedrigem Reflexionsvermögen bzw. schwachreflektierenden Bereich mit einem relativ niedrigen Reflexionsgrad in Bezug auf das Laserlicht enthalten. Der hochreflektierende Bereich und der schwachreflektierende Bereich können wiederholt abwechselnd angeordnet sein.
-
In der vorstehend beschriebenen Konfiguration umfasst die Streifenkonfiguration zwei Arten von Zonen: den hochreflektierenden Bereich und den schwachreflektierenden Bereich. Dadurch wird der Reflexionsunterschied zwischen den Bereichen vergrößert (d.h. der Kontrast wird verstärkt), wodurch das Erkennen des Halteziels von einem entfernten Ort aus erleichtert wird.
-
In der vorstehend beschriebenen Konfiguration kann der Referenzcluster als Streifenkonfiguration eine horizontale Streifenkonfiguration umfassen, die den hochreflektierenden Bereich und den schwachreflektierenden Bereich umfasst, die sich beide horizontal erstrecken. Der hochreflektierende Bereich und der schwachreflektierende Bereich können abwechselnd wiederholt in vertikaler Richtung angeordnet sein.
-
Das Halteziel hat typischerweise eine vertikal gestreckte Konfiguration, wobei die horizontale Abmessung kleiner als die vertikale Abmessung ist. Wenn ein solches Halteziel und der entsprechende Referenzcluster eine horizontale Streifenkonfiguration mit dem hochreflektierenden Bereich und dem schwachreflektierenden Bereich haben, die abwechselnd wiederholt in vertikaler Richtung angeordnet sind, kann jeder Streifen eine größere Breite haben. Dies erleichtert entsprechend die Erkennung des Halteziels von einem entfernten Ort aus.
-
In der vorstehend beschriebenen Konfiguration kann der Referenzcluster eine Oberflächenform von 0° bis 180° einer kreiszylindrischen Seitenfläche haben.
-
Das kreiszylindrisch geformte Halteziel reduziert die durch den Abbildungswinkel des Halteziels verursachten Variationen der Projektionsfläche. Dies setzt voraus, dass der dem Halteziel entsprechende Referenzcluster nur eine Oberflächenform von 0° bis 180° der kreiszylindrischen Seitenfläche hat, d.h. nur eine Oberflächenform der kreiszylindrischen Seitenfläche von vorne gesehen, wodurch die Notwendigkeit entfällt, die Form des Referenzclusters z.B. in Abhängigkeit vom Abbildungswinkel zu ändern.
-
Ein in der Beschreibung offenbartes Halteziel ist ein Halteziel für ein autonom fahrendes Fahrzeug, das einen LiDAR-Sensor umfasst, der so konfiguriert ist, dass er Laserlicht dreidimensional aus dem Fahrzeug heraus abtastet und reflektiertes Licht empfängt. Das Halteziel hat eine Streifenkonfiguration mit sich wiederholenden Mustern aus einer Mehrzahl von Bereichen, in denen benachbarte Bereiche unterschiedliche Reflexionsgrade in Bezug auf das Laserlicht aufweisen.
-
Ein in der Beschreibung offenbartes Antriebssteuersystem umfasst ein Halteziel und ein autonom fahrendes Fahrzeug zum Anhalten neben dem Halteziel. Das Halteziel hat eine Streifenkonfiguration mit sich wiederholenden Mustern aus einer Mehrzahl von Bereichen, in denen benachbarte Bereiche unterschiedliche Reflexionsgrade in Bezug auf Laserlicht haben. Das autonom fahrende Fahrzeug enthält einen LiDAR-Sensor, einen Analysator und eine Bestimmungseinheit. Der LiDAR-Sensor ist so konfiguriert, dass er Laserlicht dreidimensional aus dem Fahrzeug heraus abtastet und reflektiertes Licht empfängt. Der Analysator ist so konfiguriert, dass er dreidimensionale Punkte des vom LiDAR-Sensor erfassten reflektierten Lichts zu Clustern gruppiert. Die Bestimmungseinheit ist so konfiguriert, dass sie Formen und Reflexionsverteilungen zwischen zumindest einem der durch den Analysator erhaltenen Cluster und einem Referenzcluster, der ein Halteziel darstellt, vergleicht, um zu bestimmen, ob der zumindest eine Cluster das Halteziel enthält oder nicht.
-
Die Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, das Halteziel und das Antriebssteuersystem, die in dieser Beschreibung diskutiert werden, ermöglichen die Erkennung eines Halteziels unter Verwendung eines LiDAR-Sensors.
-
Figurenliste
-
Ausführungsformen der vorliegenden Erfindung werden unter Bezugnahme auf die folgenden Abbildungen beschrieben, hierbei zeigt:
- 1 eine perspektivische Ansicht, die das äußere Erscheinungsbild eines Fahrzeugs veranschaulicht;
- 2 eine Draufsicht, die das äußere Erscheinungsbild eines Fahrzeugs veranschaulicht;
- 3 eine vergrößerte perspektivische Ansicht einer Sensoreinheit und ihrer Peripherie auf einer Vorderseite des Fahrzeugs;
- 4 den Bestrahlungsbereich einer LiDAR-Einheit;
- 5 eine Hardwarestrukturansicht, die eine Konfiguration einer Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug gemäß einer Ausführungsform veranschaulicht;
- 6 Funktionale Blöcke einer Steuereinheit;
- 7 ein Halteziel gemäß einer Ausführungsform;
- 8 einen Referenzcluster, der einem Halteziel gemäß einer Ausführungsform entspricht;
- 9 ein weiteres Beispiel eines Halteziels gemäß der vorliegenden Ausführungsform;
- 10 ein Diagramm zur Erläuterung einer Veränderung der Projektionsfläche des Halteziels in Abhängigkeit vom Winkel des Halteziels;
- 11 ein weiteres Beispiel für ein Halteziel gemäß einer Ausführungsform;
- 12 ein weiteres Beispiel für ein Halteziel gemäß einer Ausführungsform;
- 13 einen Startbestimmungsablauf für eine präzise Andocksteuerung, der von einer Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug gemäß einer Ausführungsform durchgeführt wird;
- 14 ein Beispielbild, das von einer Kamera aufgenommen wurde;
- 15 dreidimensionale Punktgruppendaten, die von einem LiDAR-Sensor geliefert werden, die der in 14 dargestellten Szene entsprechen;
- 16 einen Clustering-Prozess von dreidimensionalen Punktgruppendaten;
- 17 ein Bild nach der Erkennung von Objekten;
- 18 ein weiteres Beispiel für ein Halteziel gemäß einer Ausführungsform; und
- 19 ein weiteres Beispiel für ein Halteziel gemäß einer Ausführungsform.
-
BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
-
Fahrzeugkonfiguration
-
Die Konfiguration eines Fahrzeugs 10 mit einer Antriebssteuervorrichtung gemäß der vorliegenden Ausführungsform wird anhand der Zeichnungen beschrieben. In den 1 bis 4 wird eine Richtung entlang der Länge eines Fahrzeugkörpers durch eine mit einem Bezugszeichen FR gekennzeichnete Achse angegeben, eine Richtung entlang der Breite des Fahrzeugs wird durch eine mit einem Bezugszeichen LH (linke Hand) gekennzeichnete Achse Bezugszeichen und eine Richtung entlang der Fahrzeughöhe wird durch eine mit einem Bezugszeichen UP gekennzeichnete Achse angegeben.
-
Die Längsachse FR und die Breitenachse LH verlaufen beide in horizontaler Richtung, und die Fahrzeughöhenachse UP verläuft in vertikaler Richtung. Die Vorwärtsrichtung der Längsachse FR des Fahrzeugkörpers entspricht der Vorwärtsrichtung des Fahrzeugkörpers; die Vorwärtsrichtung der Breitenachse LH entspricht der in Fahrzeugbreitenrichtung nach links gerichteten Richtung; und die Vorwärtsrichtung der Fahrzeughöhenachse UP entspricht der Aufwärtsrichtung. Diese drei Achsen sind orthogonal zueinander.
-
In der folgenden Beschreibung wird, sofern nicht anders angegeben, nach vorn in Längsrichtung des Fahrzeugkörpers einfach als „vorwärts“ oder „vorne“ bezeichnet, nach hinten in Längsrichtung des Fahrzeugkörpers wird einfach als „rückwärts“ oder „hinten“ bezeichnet, nach oben in Richtung der Fahrzeughöhe wird einfach als „nach oben“ bezeichnet und nach unten in Richtung der Fahrzeughöhe wird einfach als „nach unten“ bezeichnet.
-
1 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Fahrzeugs 10 veranschaulicht. Genauer gesagt zeigt 1 eine Frontfläche (Front) und eine linke Seitenfläche des Fahrzeugs 10.
-
Das Fahrzeug 10 ist ein autonom fahrendes Fahrzeug mit automatischen Fahrfunktionen. Das Fahrzeug 10 ist in der Lage, beispielsweise basierend auf dem Standard für autonomes Fahren der Society of Automotive Engineers (SAE) automatisiert bzw. autonom von Stufe 0 (vollständig manuell) bis Stufe 5 (vollständig autonom) zu fahren. Nach der SAE-Norm ist z.B. die Bedienung durch einen Fahrer von Stufe 0 bis Stufe 3 zumindest teilweise erforderlich. In Stufe 4 (hochautomatisiertes Fahren) wird das vollautonome Fahren, das keine Bedienung durch den Fahrer erfordert, innerhalb eines begrenzten Bereichs (z.B. innerhalb einer Busfahrstrecke) durchgeführt. In Stufe 5 wird ein autonome Fahren (vollständig autonomer Betrieb) durchgeführt, das unter keinen Umständen eine Bedienung durch den Fahrer erfordert.
-
Das Fahrzeug 10 wird als Passagierbus verwendet, der gemäß dem autnomen Fahren eine vorgegebene Strecke innerhalb eines bestimmten Ortes fährt, wobei die Passagiere im Fahrzeuginneren an Bord sind. Während des Betriebs wird die Stufe des autonomen Fahrens z.B. auf SAE-Stufe 4 eingestellt.
-
Das Fahrzeug 10 ist ein Elektroauto, das z.B. eine rotierende elektrische Maschine als Antriebsquelle nutzt. Das Fahrzeug 10 verfügt über eine Hauptbatterie (nicht abgebildet), die installiert ist, um die rotierende elektrische Maschine mit elektrischer Leistung zu versorgen. Das Fahrzeug 10 ist nicht auf ein Elektroauto beschränkt und kann ein Hybridfahrzeug mit einem Verbrennungsmotor (Motor) und einer rotierenden elektrischen Maschine als Antriebsquelle sein.
-
In Bezug auf 1 enthält das Fahrzeug 10 Ein-/Ausgangstüren 12 in der Mitte der linken Seitenfläche. Bei den Ein-/Ausgangstüren 12 handelt es sich z.B. um verschiebbare Doppeltüren, die sich zum Öffnen und Schließen in Längsrichtung des Fahrzeugs verschiebbar bewegen. Das Fahrzeug 10 ist so konfiguriert, dass es auf der linken Straßenseite fährt.
-
Das Fahrzeug 10 umfasst auf seiner Vorderseite ein Paar Scheinwerfer 14 (Scheinwerfer). Das Fahrzeug 10 umfasst ferner zwischen den Scheinwerfern 14 eine Ziel- und Betriebsartanzeige 16, die Buchstaben anzeigt, die z.B. ein Ziel und eine Betriebsart (z.B. autonomes Fahren oder manuelles Fahren) angeben. Die Ziel- und Betriebsartanzeige 16 zeigt ferner eine Mitteilung an die Fahrgäste, wie z.B. „Nach Ihnen“, wenn das Fahrzeug 10 vor einem Fußgängerüberweg anhält.
-
Das Fahrzeug 10 enthält außerdem eine Mehrzahl von Sensoren, um autonomes Fahren zu ermöglichen. Unter Bezugnahme auf 1 und 2 enthält das Fahrzeug 10 auf seiner Vorderseite, Rückseite und den Seitenflächen die Sensoreinheiten 30 (30A bis 30D). Das Fahrzeug 10 enthält ferner Abstandssensoren 20 an den vier Ecken des Fahrzeugs 10.
-
Die Abstandssensoren 20 können z.B. Sonarsensoren sein und den Abstand zwischen dem Fahrzeug 10 und umgebenden Objekten messen. Bei der Ausführung des präzisen Anlegens bzw. Andockens, das im Folgenden beschrieben wird, messen die Abstandssensoren 20 beispielsweise den Abstand zwischen dem Fahrzeug 10 und dem Bordstein.
-
3 zeigt die an der Vorderseite des Fahrzeugs 10 angebrachte Sensoreinheit 30A. Die anderen Sensoreinheiten 30B, 30C und 30D sind ähnlich konfiguriert. Die Sensoreinheit 30A ragt von der Vorderseite des Fahrzeugs nach außen, d.h. nach vorne aus dem Fahrzeug heraus. Die Sensoreinheit 30 umfasst eine Kamera 34, einen LiDAR-Sensor 36 und ein Gehäuse 32, in dem diese Elemente untergebracht sind.
-
Das Gehäuse 32 schützt die Kamera 34 und den LiDAR-Sensor 36 z.B. vor Wind und Regen oder Hindernissen und sichert gleichzeitig deren Sichtfeld. Das Gehäuse 32 besteht z.B. aus einem optisch transparenten Harzmaterial. Das Gehäuse 32 ist z.B. in einer halbzylindrischen Form gestaltet, die von der Vorderseite des Fahrzeugs zur Fahrzeugaußenseite (vom Fahrzeug nach vorne) hin vorsteht.
-
Der LiDAR-Sensor 36 ist eine Sensoreinheit für autonomes Fahren, die LiDAR verwendet, d.h. eine Technik zur Messung eines Abstands zu einem umgebenden Objekt mit Laserlicht. Der LiDAR-Sensor 36 umfasst einen Sender 36A, der infrarotes Laserlicht nach außen sendet, einen Empfänger 36B, der das reflektierte Licht empfängt, und einen Motor 36C, der den Sender 36A und den Empfänger 36B dreht.
-
Eine Bestrahlungsebene des Senders 36A und eine Empfangsebene des Empfängers 36B liegen parallel zueinander und sind in Fahrzeugbreitenrichtung und in Fahrzeuglängsrichtung ausgerichtet. Der Sender 36A strahlt infrarotes Laserlicht aus dem Fahrzeug nach außen ab, d.h. in den Bereich vor dem Fahrzeug 10. Der Sender 36A kann eine Impulslaser-Lichtquelle enthalten, die Laserlicht von etwa 905 nm emittiert. Das vom Sender 36A ausgestrahlte Laserlicht trifft auf ein Objekt, das sich vor dem Fahrzeug 10 befindet, und das reflektierte Licht wird vom Empfänger 36B empfangen. Der Abstand zwischen dem Reflexionspunkt und dem Empfänger 36B wird auf Basis der Zeit bestimmt, die von der Lichtemission des Senders 36A bis zum Lichtempfang durch den Empfänger 36B verstrichen ist.
-
Der Motor 36C erlaubt es dem Sender 36A und dem Empfänger 36B, sich um seine vertikale Achse (UP-Achse), die als Drehachse dient, zu drehen. Der Motor 36C kann zum Beispiel ein Servomotor sein. Der Motor 36C ermöglicht es dem Sender 36A und dem Empfänger 36B, horizontal abzutasten, so dass sich der Bereich zur Messung des Abstands zu einem Objekt im Bereich vor dem Fahrzeug 10 in horizontaler Richtung ausdehnt. Anstelle des Motors 36C kann ein elektromagnetischer Spiegel verwendet werden, um die horizontale Abtastung durchzuführen.
-
Der Sender 36A und der Empfänger 36B können auch Zeilensensoren bzw. Linientaster sein, die sich in vertikaler Richtung (Höhenrichtung) erstrecken. Beispielsweise sind mehrere Lichtquellen (z.B. Laserelemente) des Senders 36A in vertikaler Richtung ausgerichtet und mehrere Lichtempfangselemente des Empfängers 36B sind ebenfalls in vertikaler Richtung ausgerichtet. Der Sender 36A und der Empfänger 36B sind radial in vertikaler Richtung angeordnet, so dass Laserlicht radial abgestrahlt und das reflektierte Licht empfangen werden kann. Eine solche Anordnung ermöglicht die Erfassung der Entfernungsdaten durch vertikale Abtastung.
-
Wie oben beschrieben, tastet der LiDAR-Sensor 36 das Laserlicht in horizontaler und vertikaler Richtung aus dem Fahrzeug heraus, also dreidimensional, ab und empfängt das reflektierte Licht, wie in 4 dargestellt. Auf Basis des Bestrahlungswinkels und des Lichtempfangswinkels (einschließlich des horizontalen und vertikalen Winkels) und der Zeit, die von der Laserlichtbestrahlung bis zum Lichtempfang verstrichen ist, können dreidimensionale Informationen über die Reflexionspunkte, d.h. die Entfernung vom Fahrzeug zu den Reflexionspunkten, als Entfernungsdaten dreidimensional gewonnen werden. Dann werden dreidimensionale Punkte, wie in 15 dargestellt, durch zweidimensionale Erfassung der Reflexionspunkte einschließlich der dreidimensionalen Informationen bestimmt. In 15 sind die Reflexionspunkte mit Kreisen gekennzeichnet.
-
Jeder Reflexionspunkt enthält zusätzlich zu den dreidimensionalen Informationen auch seine Reflexionsdaten. Wie im Folgenden beschrieben wird, wird bei der Erkennung eines Halteziels 70 eine Reflexionsverteilung von clusterförmigen dreidimensionalen Punkten mit einer Reflexionsverteilung eines Referenzclusters 80 verglichen, der das Halteziel 70 darstellt.
-
Die Kamera 34 nimmt ein Bild mit der gleichen Ansicht wie der LiDAR-Sensor 36 auf. Die Kamera 34 enthält einen Bildsensor, wie z.B. einen CMOS-Sensor oder einen CCD-Sensor. Das von der Kamera 34 aufgenommene Bild (aufgenommenes Bild) wird für die autonome Fahrsteuerung verwendet. Beispielsweise wird das von der Kamera 34 aufgenommene Bild analysiert, um im Bild enthaltene Objekte zu erkennen und das Attribut der Objekte zu erkennen, wie nachfolgend beschrieben.
-
5 veranschaulicht eine Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug gemäß der vorliegenden Ausführungsform. Die Antriebssteuervorrichtung umfasst die Kamera 34, den LiDAR-Sensor 36, eine dynamische Karte 22, ein Navigationssystem 24, einen Lenkmechanismus 26, einen Bremsmechanismus 27, einen Antriebsmechanismus 28 und eine Steuereinheit 40. Die Antriebssteuervorrichtung ist am Fahrzeug 10 montiert.
-
Die dynamische Karte 22 ist eine dreidimensionale Karte, die beispielsweise Standorte und dreidimensionale Konfigurationen von Straßen, Fußwegen, umgebenden Strukturen, Verkehrssignalen und Haltestellenlinien speichert. Das Navigationssystem 24 führt die Positionsbestimmung mit Hilfe eines künstlichen Satelliten durch, wobei z.B. ein GNSS (Global Navigation Satellite System) verwendet wird. Wie im Folgenden beschrieben wird, werden das Navigationssystem 24 und die dynamische Karte 22 verwendet, um die Position des Fahrzeugs mit einer Genauigkeit innerhalb eines Bereichs von Positionierungsfehlern des künstlichen Satelliten abschätzen zu können.
-
Der Lenkmechanismus 26 dient z.B. zur Manipulation eines Lenkrads und beinhaltet z.B. einen Lenkmotor. Wenn von der Steuereinheit 40 ein Lenkbefehl an den Lenkmotor ausgegeben wird, wird der Lenkwinkel des Fahrzeugs 10 gesteuert.
-
Der Bremsmechanismus 27 dient z.B. zur Manipulation eines Bremsmechanismus und umfasst z.B. einen Aktuator für einen Hauptzylinder, der den Öldruck der Bremse steuert. Nach Erhalt eines Bremsbefehls von der Steuereinheit 40 durch den Aktuator wird das Fahrzeug 10 abgebremst.
-
Der Antriebsmechanismus 28 wird verwendet, um die Antriebskraft einer rotierenden elektrischen Maschine zu steuern, die eine Antriebsquelle des Fahrzeugs 10 ist, und umfasst z.B. einen Wechselrichter, der die Antriebskraft der rotierenden elektrischen Maschine steuert. Wenn ein Fahrbefehl von der Steuereinheit 40 an den Wechselrichter ausgegeben wird, wird die Antriebskraft des Fahrzeugs 10 gesteuert.
-
Die Steuereinheit 40 kann z.B. eine elektronische Steuereinheit (ECU) des Fahrzeugs 10 sein und besteht aus einem Computer. Die Steuereinheit 40 enthält einen Ein-/Ausgabe-Controller 41, der die Ein-/Ausgabe von Daten steuert. Die Steuereinheit 40 enthält ferner als Bedienelemente eine CPU 42, eine GPU (Graphics Processing Unit) 43 und einen DLA (Deep Learning Accelerator) 44. Die Steuereinheit 40 umfasst außerdem als Speichereinheiten ein ROM 45, ein RAM 46 und ein Festplattenlaufwerk 47 (HDD). Diese Strukturelemente sind an einen internen Bus 48 gekoppelt.
-
Zumindest eine der Speichereinheiten ROM 45 und Festplatte 47 speichert ein Programm zur Ausführung einer autonomen Fahrsteuerung einschließlich einer präzisen Anlege- bzw. Andocksteuerung. Zumindest eines von dem ROM 45 und der Festplatte 47 speichert ferner ein Programm zur Ausführung eines Startbestimmungsablaufs für eine präzise Andocksteuerung, wie in 13 dargestellt.
-
Zur Ausführung von Programmen der autonomen Fahrsteuerung und des Startbestimmungsablaufs für eine präzise Andocksteuerung enthält die Steuereinheit 40 funktionale Blöcke, wie in 6 dargestellt, einschließlich eines Bilddatenanalysators 50, eines LiDAR-Datenanalysators 52, eines Fahrzeugstandortschätzers 54, einer Startbestimmungseinheit 56 für eine präzise Andocksteuerung (in den Zeichnungen als SPA abgekürzt), einer Referenzcluster-Speichereinheit 58 und eines autonomen Fahrreglers 60. Der Betrieb dieser funktionalen Blöcke wird im Folgenden beschrieben.
-
Halteziel
-
7 bis 12, 18 und 19 zeigen die Halteziele 70 und die entsprechenden Referenz-Cluster 80. Das Halteziel 70 und die an dem Fahrzeug angebrachte Antriebssteuervorrichtung 10 bilden ein Antriebssteuersystem für ein autonom fahrendes Fahrzeug gemäß der vorliegenden Ausführungsform.
-
7, 8, 9, 11, 12, 18 und 19 zeigen jeweils eine vertikale Achse V und eine horizontale Achse H. Die vertikale Achse V ist parallel zur Fahrzeughöhenachse UP des Fahrzeugs, und die horizontale Achse H verläuft in derselben Ebene (innerhalb der horizontalen Ebene) wie die Längsachse FR und die Breitenachse LH.
-
Unter Bezugnahme auf 7 ist das Halteziel 70 eine sogenannte Bushaltestelle und ist ein Ziel, das eine Halteposition des Fahrzeugs 10 anzeigt. Die Außenfläche (freiliegende Fläche) des Halteziels 70 kann eine Streifenkonfiguration mit sich wiederholenden Mustern einer Mehrzahl von Bereichen aufweisen, in denen benachbarte Bereiche unterschiedliche Reflexionsgrade in Bezug auf Laserlicht aufweisen.
-
Die Außenfläche (freiliegende Fläche) des Halteziels 70 umfasst als Streifenkonfiguration hochreflektierende Bereich 72 mit einem relativ hohen Reflexionsgrad in Bezug auf das vom LiDAR-Sensor 36 emittierte Infrarot-Laserlicht und schwachreflektierende Bereich 74 mit einem relativ niedrigen Reflexionsgrad, die z.B. abwechselnd in wiederholter Weise angeordnet sind. Mit anderen Worten, die Außenfläche (freiliegende Fläche) umfasst eine Mehrzahl von Paaren, die jeweils den hochreflektierenden Bereich 72 und den schwachreflektierenden Bereich 74 enthalten.
-
Die Streifenkonfiguration, die aus zwei Arten von Zonen gebildet wird, dem hochreflektierenden Bereich 72 und dem schwachreflektierenden Bereich 74, kann einen signifikanten Unterschied im Reflexionsgrad zwischen den Bereichen annehmen (d.h. sie kann einen hohen Kontrast aufweisen). Dies erleichtert die Erkennung des Halteziels von einem entfernten Ort aus.
-
Die freiliegende Fläche des Halteziels 70 kann z.B. eine horizontale Streifenkonfiguration aufweisen. Genauer gesagt umfasst die freiliegende Fläche den hochreflektierenden Bereich 72 und den schwachreflektierenden Bereich 74, die sich beide in horizontaler Richtung erstrecken und abwechselnd in vertikaler Richtung angeordnet sind.
-
Typischerweise hat eine Bushaltestelle eine vertikale Abmessung LI, die größer ist als eine horizontale Abmessung R1, wie in 7 dargestellt. Die horizontale Streifenkonfiguration, bei der Streifenmuster in Längsrichtung eingesetzt werden, hat eine größere Anzahl von Mustern als die Anzahl von Mustern in der vertikalen Streifenkonfiguration, bei der Streifenmuster in Querrichtung eingesetzt werden, und kann für jeden Streifen eine größere Breite (Streifenbreite) aufweisen.
-
Das Halteziel mit einer erhöhten Anzahl von Streifenmustern kann leicht aus den umliegenden Objekten extrahiert werden. Außerdem kann das Halteziel 70 mit einer größeren Streifenbreite von einem entfernten Ort aus erkannt werden.
-
Die Streifenbreite wird unter Berücksichtigung der Spezifikationen des LiDAR-Sensors 36 (siehe 6) und des Startpunktes der präzisen Andocksteuerung bestimmt. So wird z.B. aus der vertikalen Winkelauflösung θ des LiDAR-Sensors 36 und dem Abstand r in Bezug auf das Halteziel 70, bei dem die präzise Andocksteuerung beginnt, ein Raum z zwischen den Laserlichtstrahlen in vertikaler Richtung im Abstand r nach folgender Gleichung bestimmt: z = 2r × tan(θ/2).
-
Um die Reflexionspunkte im hochreflektierenden Bereich 72 und im schwachreflektierenden Bereich 74 des Halteziels 70 aus dem Abstand r zu erhalten, muss die Streifenbreite den Mindestwert wmin haben, der gleich oder größer als z ist. Unter der Annahme, dass die vertikale Winkelauflösung θ 0,1° beträgt und der Abstand r vom Fahrzeug 10 (genauer gesagt vom LiDAR-Sensor 36) zum Halteziel 70, wo die präzise Andocksteuerung beginnt, 100 m beträgt, z.B. z ≒ 17 cm. Der Mindestwert wmin der Streifenbreite beträgt daher 17 cm. Der hochreflektierende Bereich 72 und der schwachreflektierende Bereich 74 können eine gleiche Streifenbreite haben, und die Streifenbreiten können auch unter den Mustern gleich sein.
-
Der Maximalwert Wmax der Streifenbreite wird auf Basis der Höhe L1 einer Musterebene des Halteziels 70, in der die Streifenkonfiguration gebildet werden kann, und der Anzahl m der Wiederholungen von Mustern, die durch Paare des hochreflektierenden Bereichs 72 und des schwachreflektierenden Bereichs 74 gebildet werden, bestimmt. Zum Beispiel haben die Streifenbreite w, die Höhe L1 der Musterebene und die Anzahl m der Musterwiederholungen eine Beziehung von 2w × m ≦ L1. Angenommen, die Musterwiederholungszahl ist 5 und die Höhe L1 der Musterebene beträgt 2m, w ≦ 20 cm, so beträgt der Maximalwert Wmax der Streifenbreite 20 cm.
-
Die Streifenbreite des hochreflektierenden Bereichs 72 und des schwachreflektierenden Bereichs 74 kann für jedes Paar aus hochreflektierendem Bereich 72 und schwachreflektierendem Bereich 74 variieren oder für alle Muster gleich sein. Wenn es jedoch aufgrund der Auflösung des LiDAR-Sensors 36 schwierig ist, den Unterschied der Streifenbreiten zu erkennen, können die Streifenbreiten aller hochreflektierenden Bereiche 72 und der schwachreflektierenden Bereiche 74 gleich sein.
-
Die Halteziel 70 besteht z.B. aus einer Harzplatte, an der ein Bandreflektor (reflektierendes Band) angebracht ist. Anstelle der Harzplatte kann auch ein Harzreflektor verwendet werden. Ein Bereich des Halteziels 70, an dem der Bandreflektor angebracht ist, ist der hochreflektierende Bereich 72, und ein Bereich ohne den Bandreflektor ist der schwachreflektierende Bereich 74.
-
Der Reflexionsgrad des hochreflektierenden Bereichs 72 und der Reflexionsgrad des schwachreflektierenden Bereichs 74 werden beispielsweise auf Basis der Reflexionsgraddifferenz im Abstand r zum Halteziel 70 bestimmt, wo die präzise Andocksteuerung beginnt. Die Reflexionsgraddifferenz zwischen benachbarten Reflexionsgradbereichen, wie z.B. die Reflexionsgraddifferenz zwischen dem hochreflektierenden Bereich 72 und dem schwachreflektierenden Bereich 74 in dem in 7 dargestellten Beispiel, sollte z.B. 10% oder mehr betragen, wenn der LiDAR-Sensor 36 infrarotes Laserlicht zum Halteziel 70 in der Entfernung r aussendet.
-
Jeder der reflektierenden Bereiche (der hochreflektierende Bereich 72 und der schwachreflektierende Bereich 74 in dem in 7 dargestellten Beispiel) kann in einer anderen Farbe als Schwarz sein, von dem bekannt ist, dass es ein hohes Absorptionsvermögen für Infrarotstrahlen hat. Wenn der LiDAR-Datenanalysator 52 (siehe 6) das Reflexionsvermögen ≒ 0% bestimmt, wie im Folgenden beschrieben wird, besteht die Möglichkeit, dass das Halteziel 70 in eine Mehrzahl von Clustern segmentiert ist. Wenn zum Beispiel der Reflexionsgrad des schwachreflektierenden Bereichs 74 um 0% liegt, ist es möglich, dass die hochreflektierenden Bereiche 72 in verschiedene Cluster gruppiert werden. Die hochreflektierenden Bereiche 72 und die schwachreflektierenden Bereiche 74, die andere Farben als Schwarz haben, verhindern die oben beschriebene Segmentierung des Halteziels 70 in eine Mehrzahl von Clustern.
-
Das Halteziel 70 kann eine kreiszylindrische Form haben, wie in 7 dargestellt. Die kreiszylindrische Form des Halteziels 70 verhindert die Variation in einem Projektionsbereich, die durch den Abbildungswinkel des Halteziels 70 verursacht wird. Sowohl der hochreflektierende Bereich 72 als auch der schwachreflektierende Bereich 74 können über den gesamten Umfang der Seitenfläche des Kreiszylinders angeordnet werden.
-
8 zeigt eine Reflexionsverteilung, die erhalten wird, wenn das in 7 dargestellte Halteziel 70 mit einem Infrarot-Laser bestrahlt wird. Dies entspricht der Form des Halteziels 70, d.h. der frontalen Form des Halteziels 70 vom LiDAR-Sensor 36 aus gesehen, und der Reflexionsverteilung in der Ebene, wenn das Infrarot-Laserlicht dreidimensional (horizontal und vertikal) vom LiDAR-Sensor 36 abgetastet wird. Die Reflexionsverteilung und die in 8 dargestellte Form werden in der Referenzcluster-Speichereinheit 58 (siehe 6) als Referenzcluster 80, der das Halteziel darstellt, vorgespeichert.
-
8 zeigt die Reflexionspunkte durch Kreise; ein nicht schraffierter Kreis stellt einen Reflexionspunkt mit einem relativ hohen Reflexionsgrad dar und ein schraffierter Kreis stellt einen Reflexionspunkt mit einem relativ niedrigen Reflexionsgrad dar. Ein hochreflektierender Bereich 82 im Referenzcluster 80 entspricht dem hochreflektierenden Bereich 72 im Halteziel 70. In ähnlicher Weise entspricht ein schwachreflektierender Bereich 84 im Referenzcluster 80 dem schwachreflektierenden Bereich 74 im Halteziel 70.
-
Somit hat der Referenzcluster 80 auch eine Streifenkonfiguration mit einer Wiederholung von Mustern einer Mehrzahl von Bereichen, wobei der Reflexionsgrad in Bezug auf das Laserlicht zwischen benachbarten Bereichen unterschiedlich ist. 8 enthält beispielsweise eine Streifenkonfiguration mit den hochreflektierenden Bereichen 82 und den schwachreflektierenden Bereichen 84, die abwechselnd wiederholt angeordnet sind. Genauer gesagt sind im Cluster 80 die horizontal verlaufenden hochreflektierenden Bereiche 82 und die horizontal verlaufenden schwachreflektierenden Bereiche 84 abwechselnd wiederholt in vertikaler Richtung angeordnet.
-
Der Referenzcluster 80 hat auch, dem in 7 dargestellten Halteziel 70 entsprechend, die Oberflächenform einer Seitenfläche des Kreiszylinders von vorne gesehen. In Bezug auf 7 z.B. stellt die Oberflächenform, von vorne gesehen, eine Oberflächenform der Seitenfläche von 0° bis 180° des Kreiszylinders dar, wie durch einen Bereich A1 angedeutet.
-
Wie oben beschrieben, reduziert die kreiszylindrische Form des Halteziels 70 die Variation der Projektionsfläche in Abhängigkeit vom Abbildungswinkel des Halteziels 70. Daher ist die Oberflächenform des Halteziels 70 von 0° bis 180° der kreiszylindrischen Seitenfläche, d.h. die Oberflächenform der kreiszylindrischen Seitenfläche von vorne gesehen, für den Referenzcluster 80 des Halteziels 70 selbst ausreichend; es ist z.B. nicht notwendig, die Form des Referenzclusters 80 für jeden Abbildungswinkel zu ändern.
-
9 zeigt ein weiteres Beispiel des Halteziels 70 der vorliegenden Ausführungsform. In diesem Beispiel hat das Halteziel 70 die Form einer prismatischen Säule. Das Halteziel 70 ist z.B. ein rechteckiges Parallelepiped und hat eine Ebene mit einer relativ größeren Fläche (eine Ebene parallel zur Achse H1), die dem Fahrzeug 10 zugewandt ist.
-
Wenn ein solches Halteziel 70 in Form einer prismatischen Säule auf einen Fußweg gesetzt wird, variiert die Projektionsbreite (W1, W2) des Halteziels 70 in Abhängigkeit vom Winkel (Abbildungswinkel) des LiDAR-Sensors 36 in Bezug auf das Halteziel 70, wie in 10 dargestellt. Daher werden mehrere Referenzcluster 80 mit unterschiedlichen Projektionsbreiten entsprechend dem Abbildungswinkel in der Referenzcluster-Speichereinheit 58 gespeichert (siehe 6).
-
11 zeigt ein Beispiel des Halteziels 70 mit einer daran befestigten Zeittabellentafel 76. Die Zeittabellentafel 76 zeigt Zeiten an, die die geplante Ankunftszeit des Fahrzeugs 10 angeben. Die Zeittabellentafel 76 ist so angeordnet, dass der hochreflektierende Bereich 72 und der schwachreflektierende Bereich 74 des Halteziels 70 vermieden wird. Die Position der Zeittabellentafel 76 ist so festgelegt, dass der hochreflektierende Bereich 72 und der schwachreflektierende Bereich 74 die Zeittabellentafel 76 entlang einer Richtung, in der sich der Fußweg erstreckt, nicht überlappen.
-
12 zeigt ein weiteres Beispiel für das Halteziel 70 der vorliegenden Ausführungsform. In diesem Beispiel umfasst das Halteziel 70 in seinem mittleren Teil in Höhenrichtung einen schmalen Teil 78 mit einem relativ kleineren Durchmesser im Vergleich zu den Bereichen darüber und darunter. Eine solche einzigartige Form macht es leicht, das Halteziel 70 von umliegenden Strukturen, Fahrgästen und anderen Objekten zu unterscheiden.
-
Wenn sich z.B. das Fahrzeug 10 dem Halteziel 70 nähert, kann die Lage des Halteziels 70 durch Verwendung des schmalen Teils 78 mit einem relativ kleineren Durchmesser als Referenz mit höherer Genauigkeit erkannt werden als durch Verwendung eines Teils mit einem relativ größeren Durchmesser als Referenz. Außerdem kann der schmale Teil 78 auf ein Höhenniveau eingestellt werden, das dem des LiDAR-Sensors 36 des Fahrzeugs 10 entspricht.
-
Der Durchmesser R2 des schmalen Teils 78 wird unter Verwendung des Abstands r vom Fahrzeug 10 (genauer gesagt vom LiDAR-Sensor 36), in dem die präzise Andocksteuerung beginnt, zum Halteziel 70, und der horizontalen Auflösung α des LiDAR-Sensors 36 als R2 ≧ 2r × tan(α/2) bestimmt.
-
Während 7, 9, 11 und 12 die Streifenkonfiguration des Halteziels 70 einschließlich des hochreflektierenden Bereichs 72 und des schwachreflektierenden Bereichs 74 veranschaulichen und der entsprechende Referenzcluster 80 die Streifenkonfiguration mit dem hochreflektierenden Bereich 82 und dem schwachreflektierenden Bereich 84 enthält, sind das Halteziel 70 und der Referenzcluster 80 nicht auf diese Beispiele beschränkt.
-
Da das Halteziel 70 und der Referenzcluster 80 lediglich eine Streifenkonfiguration mit sich wiederholenden Mustern einer Mehrzahl von Regionen aufweisen müssen, wobei benachbarte Regionen unterschiedliche Reflexionsgrade in Bezug auf das Laserlicht aufweisen, können sie eine Streifenkonfiguration aus dreifarbigen Streifen haben, wie z.B. in 18 dargestellt. In diesem Beispiel hat das Halteziel 70 eine Streifenkonfiguration mit einem Zwischenreflexionsbereich 73 zwischen dem hochreflektierenden Bereich 72 und dem schwachreflektierenden Bereich 74. Das Verhältnis zwischen den Reflexionsgraden dieser Bereiche ist wie folgt: hochreflektierender Bereich 72 > Zwischenreflexionsbereich 73 > schwachreflektierender Bereich 74. Dementsprechend hat der Referenzcluster 80 auch eine Streifenkonfiguration mit einem Zwischenreflexionsbereich zwischen dem hochreflektierenden Bereich 82 und dem schwachreflektierenden Bereich 84.
-
Bei dem Halteziel 70 kann ein einzelnes Muster einen identischen Reflexionsbereich mehrfach enthalten. Zum Beispiel kann, wie in 19 dargestellt, das Halteziel eine Streifenkonfiguration mit sich wiederholenden Mustern haben, die jeweils aus vier Reflexionsbereichen einschließlich des hochreflektierenden Bereichs 72, des Zwischenreflexionsbereichs 73, des schwachreflektierenden Bereichs 74 und des Zwischenreflexionsbereichs 73 in dieser Reihenfolge gebildet sind. Der Referenzcluster 80 kann dementsprechend eine Streifenkonfiguration mit sich wiederholenden Mustern aufweisen, die jeweils aus vier Reflexionsbereichen einschließlich des hochreflektierenden Bereichs 82, des Zwischenreflexionsbereichs 73, des schwachreflektierenden Bereichs 84 und der des Zwischenreflexionsbereichs 73 in dieser Reihenfolge gebildet sind.
-
Autonome Fahrsteuerung
-
Unter Bezugnahme auf 6 wird die durch die Antriebssteuervorrichtung des Fahrzeugs 10 ausgeführte autonome Fahrsteuerung beschrieben. Da die autonome Fahrsteuerung bekannt ist, bezieht sich die folgende Beschreibung insbesondere auf Merkmale im Zusammenhang mit dem Startbestimmungsablauf für eine präzise Andocksteuerung, der im Folgenden beschrieben wird.
-
Die dynamische Karte 22, bei der es sich um eine dreidimensionale Karte handelt, und das Navigationssystem 24 werden verwendet, um eine Standortbestimmung des Fahrzeugs 10 durchzuführen. Das Navigationssystem 24, bei dem es sich um ein Satellitenpositionierungssystem handelt, überträgt dem Fahrzeugstandortschätzer 54 Informationen über den Breiten- und Längengrad des Fahrzeugs 10. Darüber hinaus überträgt die dynamische Karte 22 an den Fahrzeugstandortschätzer 54 Kartendaten eines Standortes, der den Informationen über den Breiten- und Längengrad des Fahrzeugs 10 entspricht. Folglich wird der Standort des Fahrzeugs 10 innerhalb eines Fehlerbereichs der Satellitenpositionierung (z.B. ±10 cm) geschätzt.
-
Der Fahrzeugstandortschätzer 54 erfasst außerdem dreidimensionale Punktgruppendaten (Abtastdaten) des Fahrzeugs 10 und seines peripheren Bereichs vom LiDAR-Sensor 36. 15 zeigt ein Beispiel für dreidimensionale Punktgruppendaten. Der Standort des Fahrzeugs 10 wird mit einem Fehler geschätzt, der geringer ist als ein Fehler der Satellitenpositionierung, indem die dreidimensionalen Punktgruppendaten und die dreidimensionalen Kartendaten von der dynamischen Karte 22 abgeglichen werden.
-
Der Bilddatenanalysator 50 nimmt ein in 14 dargestelltes Bild auf, das von der Kamera 34 erfasst wird. Der Bilddatenanalysator 50 erkennt ferner Objekte innerhalb des Bildes nach einem bekannten Deep Learning Verfahren wie SSD (Single Shot Multibox Detector) und YOLO (You Only Look Once) unter Verwendung von überwachtem Lernen und erkennt deren Attribute (Fahrzeuge, Passagiere, Strukturen und dergleichen). Zum Beispiel erkennt der Bilddatenanalysator 50, wie in 17 dargestellt, aus dem erfassten Bild das Halteziel 70, die Fahrzeuge 90, eine Gehwegfläche 92 und eine Fahrspur 94.
-
Der LiDAR-Datenanalysator 52 erfasst die dreidimensionalen Punktgruppendaten (siehe 15) vom LiDAR 36. Der LiDAR-Datenanalysator 52 führt ferner ein Clustering bzw. eine Clusteranalyse durch, um die dreidimensionalen Punkte zu zumindest einem Cluster zu gruppieren.
-
Obgleich 15 die Fahrzeuge und die Strukturen mit gestrichelten Linien zeigt, so dass die Übereinstimmung zwischen der Punktgruppe und dem Objekt nachvollzogen werden kann, werden diese gestrichelten Linien nicht wirklich dargestellt. Der LiDAR-Datenanalysator 52 segmentiert daher die dreidimensionalen Punkte zur Clusterbildung in bestimmte Punktgruppen. Für das Clustering können bekannte Verfahren verwendet werden; so wird z.B. das euklidische Clustering bzw. die euklidische Clusteranalyse verwendet, das/die den euklidischen Abstand jedes Reflexionspunktes nutzt, um Punkte mit ähnlichen euklidischen Abständen zu einem Cluster zu gruppieren. In dem in 16 dargestellten Beispiel werden beispielsweise die dreidimensionalen Punkte durch Clustering zu den Clustern CL1 bis CL13 gruppiert.
-
Der autonome Fahrregler 60 verwendet das vom Bilddatenanalysator 50 analysierte erfasste Bild und die im Bild enthaltenen Objektinformationen, die vom LiDAR-Datenanalysator 52 analysierten geclusterten dreidimensionalen Punktgruppendaten und die vom Fahrzeugstandortschätzer 54 geschätzten Fahrzeugstandortinformationen, um die Fahrsteuerung des Fahrzeugs 10 durchzuführen.
-
Durch Überlagern des aufgenommenen Bildes und der dreidimensionalen Punktgruppendaten können beispielsweise Informationen über ein Objekt ermittelt werden, wie z.B. welche Art von Attribut es hat und wie weit es vom Fahrzeug 10 entfernt ist. Mit diesen sich überlagernden Informationen steuert der autonome Fahrregler 60 den Lenkmechanismus 26, den Bremsmechanismus 27 und den Antriebsmechanismus 28.
-
Bei einer präzisen Andocksteuerung werden beispielsweise der Lenkwinkel und die Geschwindigkeit des Fahrzeugs 10 auf Basis des Abstands zum Halteziel 70 bestimmt, und der autonome Fahrregler 60 sendet einen entsprechenden Lenk-, Brems- und Fahrbefehl an den Lenkmechanismus 26, den Bremsmechanismus 27 bzw. den Antriebsmechanismus 28. Diese Steuerung ermöglicht es dem Fahrzeug 10 schließlich, neben dem Halteziel 70 anzuhalten.
-
Startbestimmungsablauf für eine präzise Andocksteuerung
-
13 veranschaulicht einen Startbestimmungsablauf für eine präzise Andocksteuerung gemäß der vorliegenden Ausführungsform. Die präzise Andocksteuerung eines Fahrzeugs wird durch die Erkennung des Halteziels 70 ausgelöst. Entsprechend dem dargestellten Ablauf wird die Bestimmung des Starts der präzisen Andocksteuerung davon abhängig gemacht, ob das Halteziel 70 erkannt wurde oder nicht.
-
Wie weiter unten beschrieben wird, wird bei der Erkennung des Halteziels 70 entsprechend dem dargestellten Ablauf die Analyse der dreidimensionalen Punktgruppendaten mit dem LiDAR-Sensor 36 anstelle der Bilderkennung anhand des von der Kamera 34 aufgenommenen Bildes verwendet, um das Halteziel 70 zu erkennen.
-
Der in 13 dargestellte Ablauf beginnt, wenn das Fahrzeug 10 in einen „Bereich in der Nähe der Bushaltestelle“ einfährt, d.h. einen Bereich in der Nähe des Halteziels 70. Der Bereich in der Nähe der Bushaltestelle kann ein Gebiet innerhalb eines Radius von 500 m um das Halteziel 70 sein.
-
Beim autonomen Fahren werden z.B. ein Ziel und eine Route zu diesem Ziel im Voraus festgelegt. Die Lage des Halteziels 70 entlang der Route wird weiter mit Hilfe der dynamischen Karte 22 bestimmt. Darüber hinaus kann auf Basis der ermittelten Position des Halteziels 70 (seine Position auf der dynamischen Karte) und der oben beschriebenen Abschätzung der Fahrzeugposition die Entfernung zwischen dem Fahrzeug 10 und dem Halteziel 70 geschätzt werden.
-
Da es sich bei dieser Schätzung jedoch um eine grobe Standortschätzung handelt, die Fehler auf Basis der Genauigkeit der Positionsinformationen der dynamischen Karte 22 und Fehler der Satellitenpositionierung einschließt, wird der Bereich in der Nähe der Bushaltestelle in einer Größenordnung festgelegt, die größer ist als die Größenordnung dieser Fehler. Wenn z.B. die Fehler der dynamischen Karte 22 und der Satellitenpositionierung in der Größenordnung von 10 cm liegen, wird der Bereich in der Nähe der Bushaltestelle in der Größenordnung von 100 m festgelegt, so dass diese Fehler unberücksichtigt bleiben können.
-
Nach dem Start des Startbestimmungsablaufs für die präzise Andocksteuerung erfasst der LiDAR-Datenanalysator 52 dreidimensionale Punktgruppendaten vom LiDAR-Sensor 36 (S10). Der LiDAR-Datenanalysator 52 führt ferner eine Clusterung der erfassten dreidimensionalen Punktgruppendaten durch (S12). Die geclusterten dreidimensionalen Punktgruppendaten werden an die Startbestimmungseinheit 56 für eine präzise Andocksteuerung übertragen.
-
Die Startbestimmungseinheit 56 für eine präzise Andocksteuerung 56 vergleicht Formen und Reflexionsverteilungen zwischen zumindest einem durch den LiDAR-Datenanalysator 52 erfassten Cluster und dem Referenzcluster 80, der das Halteziel 70 darstellt, um zu bestimmen, ob der zumindest eine Cluster das Halteziel 70 enthält oder nicht. Insbesondere bestätigt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung die Anzahl n der erhaltenen Cluster (S14) und extrahiert den ersten Cluster (k=1) aus der Mehrzahl von Clustern (S16). Zum Beispiel wird der Cluster CL1 in 16 extrahiert.
-
Die Startbestimmungseinheit 56 für eine präzise Andocksteuerung vergleicht dann den k-ten Cluster CL_k mit dem Referenzcluster 80 (siehe 8), der in der Referenzcluster-Speichereinheit 58 gespeichert ist, um festzustellen, ob diese Cluster übereinstimmen oder nicht (S18 bis S24).
-
Der Grad der Übereinstimmung auf Basis dieses Vergleichs kann mit einem bekannten Verfahren wie z.B. dem Musterabgleich bestimmt werden. Konkret wird der Referenz-Cluster 80 als Vorlage verwendet.
-
Zunächst werden die Formen zwischen dem Cluster CL k und dem Referenzcluster 80 (S18 und S20) verglichen. Bei diesem Vergleich und beim Vergleich der Reflexionsverteilungen in der späteren Phase kann der Referenzcluster 80 korrigiert werden. Zum Beispiel vergrößert oder verkleinert die Startbestimmungseinheit 56 für eine präzise Andocksteuerung basierend auf dem Abstand zwischen dem Cluster CL_k und dem LiDAR-Sensor 36, wenn die dreidimensionalen Punktgruppendaten erfasst wurden, den Referenzcluster 80. Zu diesem Zeitpunkt werden die Reflexionspunkte, die in den Streifenbreiten des hochreflektierenden Bereichs 82 bzw. des schwachreflektierenden Bereichs 84 des Referenzclusters 80 enthalten sein können, vergrößert oder verkleinert.
-
Wenn in Schritt S20 die Form des Clusters CL k und die Form des Referenzclusters 80 nicht übereinstimmen, wird festgestellt, dass der Cluster CL_k nicht dem Halteziel 70 entspricht. Daher wird nach der Bestimmung, ob der Cluster-Zähler k den Maximalwert n erreicht oder nicht (S26), der Cluster-Zähler k, der den Maximalwert n nicht erreicht, inkrementiert (S28) und der nächste Cluster wird als Vergleichsziel gesetzt.
-
Wenn in Schritt S20 festgestellt wird, dass die Form des Clusters CL_k und die Form des Referenzclusters 80 übereinstimmen, werden die zweidimensionalen Reflexionsverteilungen dieser Cluster weiter verglichen (S22 und S24). Zum Beispiel wird das Anordnungsmuster der Reflexionspunktbereiche mit einem relativ hohen Reflexionsgrad und der Reflexionspunktbereiche mit einem relativ niedrigen Reflexionsgrad im Cluster CL_k und das Anordnungsmuster des hochreflektierenden Bereichs 82 und des schwachreflektierenden Bereich 84 im Referenzcluster 80 verglichen.
-
Wenn nach dem Vergleich der Reflexionsverteilung festgestellt wird, dass der Cluster CL_k und der Referenzcluster 80 nicht übereinstimmen, wird festgestellt, dass der Cluster CL_k nicht dem Halteziel 70 entspricht. Daher wird nach der Feststellung, ob der Cluster-Zähler k den Maximalwert n erreicht oder nicht (S26), der Cluster-Zähler k, der den Maximalwert n nicht erreicht, inkrementiert (S28), und der nächste Cluster wird als Vergleichsziel festgelegt.
-
Wenn in Schritt S24 festgestellt wird, dass die Reflexionsverteilung des Clusters CL_k und die Reflexionsverteilung des Referenzclusters 80 übereinstimmen, gibt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung einen Startbefehl für die präzise Andocksteuerung an den autonomen Fahrregler 60 aus (S34). Dadurch ändert sich die Fahrsteuerung für das Fahrzeug 10 von der normalen Fahrsteuerung zur präzisen Anlege- bzw. Andocksteuerung auf das Halteziel 70.
-
Wenn in Schritt S26 festgestellt wird, dass alle Cluster, Cluster CL_1 bis CL_n, in den dreidimensionalen Punktgruppendaten nicht mit dem Referenzcluster 80 übereinstimmen, bestimmt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung, ob das Fahrzeug 10 den Bereich in der Nähe der Bushaltestelle passiert hat oder nicht (S36). Diese Bestimmung wird z.B. mit Hilfe der oben beschriebenen Fahrzeugstandortschätzung durchgeführt.
-
Wenn in Schritt S36 festgestellt wird, dass das Fahrzeug 10 im Bereich der Haltestellenumgebung bleibt, setzt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung die Anzahl n der Cluster und den Clusterzähler k (z.B. n = 0 und k = 1) zurück (S30). Darüber hinaus erfasst der LiDAR-Datenanalysator 52 neue dreidimensionale Punktgruppendaten vom LiDAR-Sensor 36, um die zu analysierenden dreidimensionalen Punktgruppendaten zu aktualisieren (S32). Die aktualisierten dreidimensionalen Punktgruppendaten werden durch den LiDAR-Datenanalysator 52 wie oben beschrieben geclustert (S12).
-
Wenn in Schritt S36 festgestellt wird, dass das Fahrzeug 10 den Bereich in der Nähe der Bushaltestelle passiert hat, bedeutet dies, dass das Halteziel 70 nicht über den gesamten Bereich des Bereichs in der Nähe der Bushaltestelle erfasst (erkannt) wurde. In diesem Fall führt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung eine Fehlerverarbeitung durch (S38). Beispielsweise benachrichtigt die Startbestimmungseinheit 56 für eine präzise Andocksteuerung die Insassen im Fahrzeug oder einen entfernt befindlichen Bediener mit einer Meldung, dass das Halteziel 70 nicht erkannt werden konnte.
-
Wie oben beschrieben, ermöglicht die Antriebssteuervorrichtung der vorliegenden Ausführungsform die Erkennung des Halteziels 70 allein mit dem LiDAR-Sensor 36, d.h. ohne Einsatz der Bilderkennung durch die Kamera 34.
-
Die Antriebssteuervorrichtung der vorliegenden Ausführungsform ist in der Lage, sowohl die Erkennung des Halteziels 70 durch die Kamera 34 als auch die Erkennung des Halteziels 70 durch den LiDAR-Sensor 36 zu ermöglichen. Daher kann neben der Erkennung des Halteziels 70 durch den LiDAR-Sensor 36 allein, wie in 13 dargestellt, auch die Erkennung des Halteziels 70 durch die Kamera 34 zur Erhöhung der Erkennungsgenauigkeit des Halteziels 70 genutzt werden.
-
Beispielsweise kann die Erkennung des Halteziels 70 durch den LiDAR-Sensor 36 und die Erkennung des Halteziels 70 durch die Kamera 34 mittels einer UND-Verknüpfung oder einer ODER-Verknüpfung verwendet werden. Bei Verwendung der UND-Verknüpfung kann z.B. die oben beschriebene Fehlerverarbeitung ausgeführt werden, wenn das Halteziel 70 von zumindest einem von dem LiDAR-Sensor 36 oder der Kamera 34 nicht erkannt werden kann. Wird dagegen die ODER-Verknüpfung verwendet, kann die präzise Andocksteuerung gestartet werden, wenn das Halteziel 70 von zumindest einem von dem LiDAR-Sensor 36 oder der Kamera 34 erkannt werden kann.
-
Während im obigen Beispiel die freiliegende Seite des Halteziels 70 eine Streifenkonfiguration aufweist, kann dies die Möglichkeit aufwerfen, dass ein Fahrgast, der z.B. ein Hemd mit horizontalen Streifenmustern trägt, mit dem Halteziel 70 verwechselt wird. In einem solchen Fall wird die Cluster-Verfolgung der autonomen Fahrtechnologie verwendet, um festzustellen, ob sich der Cluster, der als Halteziel 70 erkannt wird, bewegt oder nicht. Wenn festgestellt wird, dass er sich nicht bewegt, wird der Cluster als das Halteziel 70 bestimmt. Ein Bestimmungsablauf, der eine solche Verfolgung verwendet, kann zu dem Startbestimmungsablauf für eine präzise Andocksteuerung hinzugefügt werden, der in 13 dargestellt ist.
-
Zusätzlich zum Halteziel 70 kann ein Hilfsziel entlang des Bordsteins des Fußweges angeordnet sein. Das Hilfsziel kann, ähnlich wie das Halteziel 70, eine Konfiguration aufweisen, die vom LiDAR-Sensor 36 erkannt wird. Insbesondere kann das Hilfsziel eine horizontale Streifenkonfiguration mit sich wiederholenden Mustern des hochreflektierenden Bereichs 72 und des schwachreflektierenden Bereichs 74 aufweisen, die abwechselnd in vertikaler Richtung angeordnet sind.
-
Die Erkennung des Halteziels 70 und des Hilfsziels, die entlang des Bordsteins angeordnet sind, ermöglicht die Erkennung der Grenzlinie zwischen dem Fußweg und der Fahrbahn. Beispielsweise kann eine gerade Linie, die das Halteziel 70 und das Hilfsziel verbindet, zur Erkennung des Bordsteins verwendet werden, der die Grenzlinie zwischen dem Gehweg und der Fahrbahn darstellt.
-
Die vorliegende Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt und schließt alle Änderungen und Modifikationen ein, ohne vom technischen Umfang oder dem durch die Ansprüche definierten Umfang der vorliegenden Erfindung abzuweichen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 2019178781 [0001]
- JP 2017 [0007]
- JP 196962 A [0007]