DE102016116029A1 - Klassifikation von durch 3D-Sensoren erfassten Objekten - Google Patents
Klassifikation von durch 3D-Sensoren erfassten Objekten Download PDFInfo
- Publication number
- DE102016116029A1 DE102016116029A1 DE102016116029.6A DE102016116029A DE102016116029A1 DE 102016116029 A1 DE102016116029 A1 DE 102016116029A1 DE 102016116029 A DE102016116029 A DE 102016116029A DE 102016116029 A1 DE102016116029 A1 DE 102016116029A1
- Authority
- DE
- Germany
- Prior art keywords
- cluster
- track
- vehicle
- classifiers
- autonomous driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000001133 acceleration Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000013439 planning Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Abstract
Description
- TECHNISCHES GEBIET
- Die hierin vorgeschlagenen Ausführungsformen betreffen im Allgemeinen autonome Betriebssysteme für Fahrzeuge, und insbesondere die Klassifikation von durch 3D-Sensoren in autonomen Betriebssystemen erfassten Objekten.
- HINTERGRUND
- Manche Fahrzeuge umfassen ein autonomes Betriebssystem mit einem Betriebsmodus, in welchem das Fahrzeug mit minimaler oder keinerlei Eingabe eines menschlichen Fahrers entlang einer Fahrtroute gesteuert wird. Bei diesen Fahrzeugen ist das autonome Betriebssystem derart konfiguriert, dass es Informationen über die Umgebung des Fahrzeugs, einschließlich der Gegenwart von Objekten, erfasst, und die erfassten Informationen verarbeitet, um zu planen, wie das Fahrzeug entlang der Fahrtroute gesteuert werden muss, um den Objekten auszuweichen.
- In realen Verkehrssituationen ist es als Teil dieser Erfassung und Planung erwünscht, dass das autonome Betriebssystem die Objekte in der Umgebung des Fahrzeugs klassifiziert, um nicht nur andere Fahrzeuge, sondern neben anderen Objekten auch Fußgänger und Fahrräder zu berücksichtigen. Die Verbesserung der Klassifikation der Objekte in der Umgebung des Fahrzeugs durch das autonome Betriebssystem ist daher Gegenstand laufender Forschungen.
- KURZFASSUNG
- Hierin sind Systeme und Verfahren für autonomes Fahren offenbart. Gemäß einem Aspekt umfasst ein Verfahren für autonomes Fahren das Erzeugen von 3D-Punken, die Objekte in der Umgebung des Fahrzeugs darstellen, mit einem 3D-Sensor. Das Verfahren umfasst ferner, jeweils mithilfe einer Rechenvorrichtung, das Identifizieren einer zeitlichen Folge von 3D-Punkte-Clustern, die dasselbe Objekt in der Umgebung des Fahrzeugs als einen Track darstellen, anhand der 3D-Punkte, das Identifizieren von cluster-basierten Klassifikatoren des Objekts auf Basis von identifizierten lokalen Merkmalen für die Cluster in dem Track, das Identifizieren von track-basierten Klassifikatoren des Objekts auf Basis von identifizierten globalen Merkmalen für den Track, das Kombinieren der cluster-basierten Klassifikatoren und der track-basierten Klassifikatoren zum Klassifizieren des Objekts, wobei die cluster-basieren Klassifikatoren auf Basis der Informationsmenge über das Cluster, durch welches sie identifiziert werden, gewichtet werden, und wobei die Gewichtung mit zunehmender Informationsmenge steigt, sowie das Steuern des Fahrzeugs entlang einer Fahrtroute auf Basis der Objektklassifikation.
- Diese und weitere Aspekte werden nachstehend im Detail beschrieben.
- KURZE BESCHREIBUNG DER ZEICHNUNG
- Die verschiedenen Merkmale und Vorteile, sowie weitere Verwendungen der vorliegenden Ausführungsformen werden durch Bezugnahme auf die folgende detaillierte Beschreibung verdeutlicht, sowie durch die Zeichnung, in welcher:
-
1 eine schematische Darstellung eines Fahrzeugs mit einem autonomen Betriebssystem ist, dessen Betrieb durch einen 3D-Sensor unterstützt wird; -
2 eine schematische Darstellung der Systemarchitektur eines Erfassungsmoduls50 für das autonome Betriebssystem ist, das ein Erfassungsmodul und ein Planungsmodul aufweist; -
3 ein Flussdiagramm ist, das die Vorgänge eines Prozesses für den Klassifikator-Thread in dem Erfassungsmodul zeigt; -
4A und4B Beispielschätzungen der Hauptrichtung eines 3D-Punkte-Clusters zeigen, das ein Fahrzeug darstellt; -
5 Beispiele von Spinbildern von 3D-Punkte-Clustern zeigt, die verschiedene Objekte darstellen; -
6A –C Beispiele von virtuellen orthographischen Bildern eines 3D-Punke-Clusters zeigen, das ein Fahrzeug darstellt; -
7 ein Beispiel eines graphischen Modells ist, das die probabilistischen Unabhängigkeiten zwischen den lokalen Merkmalen der 3D-Punkte-Cluster eines Tracks und den globalen Merkmalen des Tracks kodiert; -
8 Aspekte eines Beispiels eines Gewichtungsfaktors für einen cluster-basierten Klassifikator zeigt; und -
9 Aspekte einer Klassifikatorzuversicht für den Track im Zeitablauf zeigt. - DETAILLIERTE BESCHREIBUNG
- Diese Offenbarung lehrt ein Fahrzeug, das ein autonomes Betriebssystem umfasst, das bei Betrieb Objekte in der Umgebung des Fahrzeugs, die durch zeitliche Folgen von 3D-Punkte-Clustern dargestellt werden, klassifiziert, und das Fahrzeug auf Basis der Objektklassifikation entlang einer Route steuert. Das autonome Betriebssystem klassifiziert die Objekte sowohl auf Basis eines track-basierten Klassifikators als auch auf cluster-basierten Klassifikatoren, gewichtet die cluster-basierten Klassifikatoren jedoch auf Basis der Informationsmenge über die Cluster, durch welche sie identifiziert werden.
-
1 zeigt ein Fahrzeug10 mit einem autonomen Betriebssystem20 , dessen Betrieb durch einen LIDAR-Sensor22 und einen oder mehrere optionale Hilfssensoren24 unterstützt wird. Der LIDAR-Sensor22 und die Hilfssensoren24 sind an dem Fahrzeug10 angebracht und derart positioniert, dass sie Sichtfelder in die Umgebung des Fahrzeugs10 haben. Wenngleich das Fahrzeug10 als ein nicht beschränkendes Beispiel einer mobilen Plattform vorgesehen ist, ist zu verstehen, dass das autonome Betriebssystem20 auch in anderen mobilen Plattformen verwirklicht werden könnte. Zudem ist zu verstehen, dass diese Beschreibung prinzipiell auf andere 3D-Sensoren anwendbar ist, wenngleich der LIDAR-Sensor22 als ein nicht beschränkendes Beispiel eines 3D-Sensors vorgesehen ist. - Der LIDAR-Sensor
22 ist derart konfiguriert, dass er die Umgebung des Fahrzeugs10 scannt und Signale erzeugt, die 3D-Punkte, welche die Objekte in der Umgebung des Fahrzeugs10 darstellen, umfassen aber nicht auf diese beschränkt sind. - Im Allgemeinen kann der LIDAR-Sensor
22 einen Sender und einen Empfänger umfassen. Der Sender kann ein Bestandteil oder eine Gruppe von Bestandteilen sein, die derart betreibbar sind, dass sie Lasersignale (z. B., Laserlichtenergie) senden. Der Sender kann beispielsweise ein Laser sein, ein Laserentfernungsmesser, ein LIDAR-, und/oder ein Laserscanner. Die Lasersignale können beliebige geeignete Charakteristika aufweisen. Bei einer oder mehreren Anordnungen können die Lasersignale aus einem beliebigen Bereich des elektromagnetischen Spektrums stammen, wie aus dem ultravioletten, dem sichtbaren, oder nahinfraroten Bereich des elektromagnetischen Spektrums. Die Lasersignale können augensicher sein. - Die Lasersignale können in die Umgebung des Fahrzeugs
10 ausgesendet werden, wo sie auf Objekte in der Umgebung auftreffen, die sich im Pfad der Lasersignale befinden. Die Lasersignale können beispielsweise in einer Serie von 360-Grad-Spins um eine vertikale (Z) Achse des Fahrzeugs10 ausgesendet werden. Im Allgemeinen wird ein Teil des Lasersignals zu dem LIDAR-Sensor22 zurückgeworfen (z. B., durch Reflexion), wenn die Lasersignale auf ein Objekt auftreffen. Der zurückgeworfene Teil des Lasersignals kann an dem LIDAR-Sensors22 durch dessen Empfänger aufgenommen werden, der aus einem oder mehreren Photodetektoren, Festkörper-Photodetektoren, Photodioden oder Photovervielfachern oder einer beliebigen Kombination dieser bestehen, oder diese umfassen kann. - Der auf das Erfassen des zurückgeworfenen Lasersignals ansprechende LIDAR-Sensor
22 kann derart konfiguriert sein, dass er Signale ausgibt, die Objekte oder deren Nicht-Vorhandensein in der Umgebung des Fahrzeugs10 darstellen. Der LIDAR-Sensor22 kann ein globales Positionierungssystem (GPS) oder ein anderes Positionierungssystem zur Identifikation der Position umfassen, sowie eine Trägheitsmesseinheit (IMU) zur Identifikation seiner Stellung. Gemäß dieser Konfiguration können die Signale 3D-Punkte umfassen, die die Lage der Punkte im Raum darstellen, von welchen die zurückgeworfenen Lasersignale empfangen werden, und somit die Lage der Punkte der Objekte im Raum, auf die die Lasersignale aufgetroffen sind. Der LIDAR-Sensor22 kann die Lage der Punkte der Objekte im Raum auf Basis des Abstands von dem LIDAR-Sensor22 zu den Punkten bestimmen, ebenso wie die Position und die Stellung des LIDAR-Sensors22 in Zusammenhang mit den zurückgeworfenen Lasersignalen. Der Abstand zu den Punkten kann beispielsweise anhand der zurückgeworfenen Lasersignale unter Verwendung des Laufzeitverfahrens (TOF) bestimmt werden. Die Signale können auch die Stellen im Raum darstellen, von denen keine zurückgeworfenen Lasersignale empfangen werden, und somit das Nicht-Vorhandensein von Punkten von Objekten an diesen Stellen im Raum, auf welche die Lasersignale andernfalls aufgetroffen wären. - Die Signale können ferner andere Aspekte der zurückgeworfenen Lasersignale darstellen, die wiederum andere Eigenschaften von Punkten von Objekten darstellen können, auf welche die einfallenden Lasersignale aufgetroffen sind. Diese Aspekte der zurückgeworfenen Lasersignale können beispielsweise deren Intensität oder Reflexionsvermögen oder eine beliebige Kombination dieser darstellen.
- Die Hilfssensoren
24 können ebenso derart konfiguriert sein, dass sie die Umgebung des Fahrzeugs10 scannen und Signale erzeugen, die Objekte oder deren Nicht-Vorhandensein in der Umgebung des Fahrzeugs10 darstellen. - Die Hilfssensoren
24 können individuelle oder kollektive Sichtfelder haben, die üblich sind für das Sichtfeld des LIDAR-Sensors22 in der Umgebung des Fahrzeugs10 . Im Allgemeinen können die Hilfssensoren24 beispielsweise aus einem oder mehreren Bildsensoren, die derart konfiguriert sind, dass sie Licht oder andere elektromagnetische Energie aus der Umgebung des Fahrzeugs10 erfassen, bestehen oder diese umfassen. Diese Bildsensoren können aus Photodetektoren, Festkörper-Photodetektoren, Photodioden oder Photovervielfachern oder einer beliebigen Kombination dieser bestehen, oder diese umfassen. Die Umgebung kann gegebenenfalls durch den Sender des LIDAR-Sensors22 beleuchtet werden. Die Hilfssensoren24 können derart konfiguriert sein, dass sie als Reaktion auf das Erfassen von Licht oder anderer elektromagnetischer Energie Signale ausgeben, die Objekte oder deren Nicht-Vorhandensein in der Umgebung des Fahrzeugs10 darstellen. - Das Fahrzeug
10 umfasst eine Rechenvorrichtung30 , mit der der LIDAR-Sensor22 und die Hilfssensoren24 durch eine oder mehrere Kommunikationsverbindungen32 kommunikativ verbunden sind. Obwohl die Rechenvorrichtung30 und einer oder beide von dem LIDAR-Sensor22 und den Hilfssensoren24 dem autonomen Betriebssystem20 zugeordnet sein können, ist vorgesehen, dass einige oder alle von diesen auch den Betrieb anderer Systeme des Fahrzeugs10 unterstützen könnten. - Die Rechenvorrichtung
30 kann einen Prozessor40 umfassen, der kommunikativ mit einem Speicher42 gekoppelt ist. Der Prozessor40 kann eine beliebige Vorrichtung umfassen, die in der Lage ist, maschinenlesbare Anweisungen auszuführen, die auf einem nicht-flüchtigen computerlesbaren Medium, z. B. dem Speicher42 , gespeichert sind. Der Prozessor40 kann einen Controller, eine integrierte Schaltung, einen Mikrochip, einen Computer, und/oder eine beliebige andere Rechenvorrichtung. Der Speicher42 kann jede Art eines computerlesbaren Mediums umfassen, das dazu geeignet ist, Daten und Algorithmen zu speichern. Der Speicher42 kann beispielsweise einen RAM, einen ROM, einen Flash-Speicher, eine Festplatte, und/oder eine beliebige Vorrichtung umfassen, die maschinenlesbare Anweisungen speichern kann. - Die Rechenvorrichtung
30 kann außerdem eine Eingabe-/Ausgabe-Schnittstelle44 umfassen, um die Kommunikation zwischen dem Prozessor40 und dem LIDAR-Sensor22 sowie den Hilfssensoren24 zu erleichtern. Wenngleich die Rechenvorrichtung30 schematisch so dargestellt ist, dass sie einen einzigen Prozessor40 und einen einzigen Speicher42 umfasst, kann die Rechenvorrichtung40 in der Praxis eine Mehrzahl von Bestandteilen umfassen, die jeweils einen oder mehrere Speicher42 und/oder Prozessoren40 aufweisen, die mit einem oder mehreren der anderen Bestandteile kommunikativ gekoppelt sind. Die Rechenvorrichtung30 kann eine separate selbstständige Einheit sein oder kann als ein Teil eines zentralen Steuersystems für das Fahrzeug10 konfiguriert sein. - Die verschiedenen Algorithmen und Daten für das autonome Betriebssystem
20 und die anderen Systeme des Fahrzeugs10 können gesamtheitlich oder teilweise im Speicher42 der Rechenvorrichtung30 vorliegen. Bei Betrieb des autonomen Betriebssystems20 werden die von dem LIDAR-Sensor22 und den Hilfssensoren24 ausgegebenen Signale in dem Speicher42 gespeichert. Wie nachstehend noch detaillierter beschrieben wird, umfassen die Algorithmen und Daten für das autonome Betriebssystem20 ein Erfassungsmodul50 und ein Planungsmodul52 . - Wenngleich die verschiedenen Algorithmen und Daten für das autonome Betriebssystem
20 der Einfachheit wegen mit Bezugnahme auf die Rechenvorrichtung30 in dem Fahrzeug10 beschrieben werden, ist zu verstehen, dass diese gesamtheitlich oder teilweise in einem Speicher einer von dem Fahrzeug10 separaten Rechenvorrichtung vorliegen können. In diesen Fällen kann das Fahrzeug10 außerdem ein integriertes mobiles Kommunikationssystem60 mit verschieden konfigurierter Kommunikationshardware zum kabellosen Übertragen von Daten zwischen der Rechenvorrichtung30 und einem mobilen Netzwerk, wie einem zellularen Netzwerk, umfassen. Das mobile Kommunikationssystem60 und das mobile Netzwerk ermöglichen es der Rechenvorrichtung30 zusammen, kabellos mit anderen Vorrichtungen zu kommunizieren, die mit dem mobilen Netzwerk verbunden sind, wie z. B. einem entfernten Server, der ebenso aus einer Rechenvorrichtung mit einem oder mehreren Prozessoren und einem oder mehreren Speichern bestehen kann, oder diese umfassen kann, oder einem anderen Fahrzeug, das ebenso ein Objekterfassungssystem mit einer Rechenvorrichtung mit einem oder mehreren Prozessoren und einem oder mehreren Speichern umfassen kann. - Das mobile Kommunikationssystem
60 des Fahrzeugs10 kann einen integrierten mobilen Netzwerk-Sender-Empfänger62 umfassen, der derart konfiguriert ist, dass er Daten über das mobile Netzwerk sendet und empfängt. Der mobile Netzwerk-Sender-Empfänger62 kann über eine mobile Netzwerk-Sender-Empfänger-Kommunikationsverbindung64 kommunikativ mit der Rechenvorrichtung30 verbunden sein, wobei die Eingabe-/Ausgabe-Schnittstelle44 die Kommunikation zwischen dem Prozessor40 und dem Speicher42 und dem mobilen Netzwerk-Sender-Empfänger62 erleichtert. Der mobile Netzwerk-Sender-Empfänger62 umfasst einen Sender zum kabellosen Übermitteln von Daten von der Rechenvorrichtung30 zu dem mobilen Netzwerk und einen Empfänger für kabelloses Übermitteln von Daten von dem mobilen Netzwerk zu der Rechenvorrichtung30 . - Nachfolgend werden die gesamten Vorgänge des Durchführens der Objekterfassung in dem Erfassungsmoduls
50 des autonomen Betriebssystems20 des Fahrzeugs10 mit Bezugnahme auf2 eingebracht. - Wie gezeigt ist, hat das Erfassungsmodul
50 des autonomen Betriebssystems20 einen Wahrnehmungs- und Tracking-Thread und einen Klassifikator-Thread. In dem Wahrnehmungs- und Tracking-Thread werden 3D-Punkte und andere von dem LIDAR-Sensor22 ausgegebene Signale, die Objekte in der Umgebung des Fahrzeugs10 darstellen, empfangen, wenn der LIDAR-Sensor22 die Umgebung des Fahrzeugs10 scannt. Es kann außerdem ein digitales Kennfeld empfangen werden, das ein 3D-Straßennetz mit Positionen für jede Fahrbahn und die zugehörigen Straßenverkehrsvorschriften enthält (z. B., Geschwindigkeitsbegrenzungen, die Vorrangigkeit jeder Straße an Kreuzungen und Kreisverkehren, und Haltelinienpositionen). - In dem Wahrnehmungs- und Tracking-Thread werden die 3D-Punkte, die die Objekte in der Umgebung des Fahrzeugs
10 darstellen, über mehrere Zeitschritte empfangen, die beispielsweise jeweils einem 360-Grad-Spin um eine vertikale (Z) Achse des Fahrzeugs10 entsprechen. Für jeden der Zeitschritte können die 3D-Punkte ausgewertet werden, um zwischen 3D-Punkten zu unterscheiden, die Hindernisse darstellen, und 3D-Punkte, die andere Objekte wie den Boden darstellen, und in Cluster von 3D-Punken gesammelt werden, die die jeweiligen Objekte in der Umgebung des Fahrzeugs10 darstellen. Bei der Clusterbildung kann beispielsweise die Clusterbildung nach Markov's Random Fields angewandt werden. - Ein vorgegebenes 3D-Punkte-Cluster, das ein Objekt in der Umgebung des Fahrzeugs
10 an einem Zeitschritt darstellt, wird 3D-Punkte-Clustern an vorherigen Zeitschritten zugeordnet, die dasselbe Objekt in der Umgebung des Fahrzeugs10 darstellen. Über mehrere Zeitschritte hinweg wird ein so genannter Track erzeugt, der eine zeitliche Folge von 3D-Punkte-Clustern ist, die jeweils dasselbe Objekt in der Umgebung des Fahrzeugs10 darstellen. Das Erzeugen eines Tracks kann beispielsweise durch oder mit Partikel- und Kalman-Filterung realisiert werden. Nach der Erzeugung werden die Tracks durch neue 3D-Punkte-Cluster aktualisiert, die das Objekt in der Umgebung des Fahrzeugs10 in nachfolgenden Iterationen darstellen. - Der Wahrnehmungs- und Tracking-Thread und der Klassifikator-Thread laufen parallel und kommunizieren durch gleichlaufende Ergebnis- und Anforderungswarteschlangen. Die Ergebniswarteschlange wird dazu verwendet, Klassifikationsergebnisse des Klassifikator-Threads an den Wahrnehmungs- und Tracking-Thread zu übermitteln, während die Anforderungswarteschlange durch den Wahrnehmungs- und Tracking-Thread mit Tracks gefüllt wird, für welche Klassifikationsergebnisse benötigt werden.
- Bei dieser Konfiguration kann das Erfassungsmodul
50 ein Anytime-System anwenden, bei dem die Ergebnisse des Klassifkator-Threads priorisiert werden können und in den Wahrnehmungs- und Tracking-Thread integriert werden können, um die Ausgabe für die Echtzeit-Entscheidung an das Planungsmodul52 trotz des Analyseaufwands des Klassifikator-Threads sicherzustellen. - Um das Anytime-System zu implementieren, kann jedem Track in dem Wahrnehmungs- und Tracking-Thread vor Einbringen in die Anforderungswarteschlange eine Punktzahl zur Priorisierung gegeben werden. Den Tracks mit 3D-Punkte-Clustern vor und in nächster Nähe des Fahrzeugs
10 kann beispielsweise die höchste Priorität gegeben werden. In diesen Fällen, kann die Punktzahl, die jedem Track gegeben wird, einfach der Abstand von dem Fahrzeug10 zu den 3D-Punkte-Clustern eines Tracks zuzüglich einer Penalty (z. B., 50 Meter) für den Rückstand zu dem Fahrzeug sein, wobei die Tracks mit niedrigeren Punktzahlen gegenüber jenen mit höheren Punktzahlen priorisiert werden. Alternativ oder zusätzlich können Tracks mit einem 3D-Punkte-Cluster in bestimmten Interessensbereichen in der Umgebung des Fahrzeugs10 , oder Tracks, deren 3D-Punkte-Cluster beispielsweise ein Objekt mit ungewisserer Klassifikation darstellt, gegenüber anderen Tracks priorisiert werden. - Der Klassifikator-Thread nimmt den Track mit der höchsten Priorität aus der Anforderungswarteschlange, identifiziert eine Reihe von Merkmalen der 3D-Punkte-Cluster des Tracks, identifiziert die Klassifikatoren für die 3D-Punkte-Cluster des Tracks und klassifiziert das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt auf Basis von dessen wahrscheinlichster Objektklasse, wie nachstehend detaillierter erklärt ist, und gibt die Klassifikatoren und eine Objektklassenkennung, die die resultierende Klassifikation des Objekts wiedergibt, in die Ergebniswarteschlange ein.
- Nachdem der Wahrnehmungs- und Tracking-Thread einen Track erzeugt hat, werden die 3D-Punkte-Cluster durch die Ergebnisse des Klassifikator-Threads aus der Ergebniswarteschlange aktualisiert. Anschließend werden alle nicht verarbeiteten Tracks aus der Anforderungswarteschlange gelöscht, und die 3D-Punkte-Cluster des nächsten Tracks werden eingegeben. Anschließend sendet der Wahrnehmungs- und Tracking-Thread jeden der Tracks an das Planungsmodul
52 . Jeder der Tracks hat eine zugehörige Verlaufsinformation, so dass frühere Ergebnisse des Klassifikator-Threads für Tracks verwendet werden können, die in einer gegebenen Iteration nicht berücksichtigt wurden. - Im Allgemeinen kann für einen Track τ mit Merkmalen xτ, ein Klassifikator als einer-vs-alle-Klassen-Log-Odds ausgedrückt werden , wobei Y die Ojektklassenkennung ist und c eine diskrete Objektklasse ist. Wie nachstehend detaillierter beschrieben ist, können diese Log-Odds (logarithmierte Cahnce) in eine Wahrscheinlichkeit umgewandelt werden, wobei der Vektor, der Wahrscheinlichkeiten für jede Objektklasse umfasst, folgender ist , unter Verwendung der Kurzform , wobei die vorgegebenen Objektklassen jeweils die Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv) und Hintergrund (cbg) sind. Dieser Vektor wird zusammen mit der wahrscheinlichsten Objektklasse des von den 3D-Punkte-Clustern des Tracks dargestellten Objekts sowie einer typischen Trackinginformation wie die Position, die Geschwindigkeit, und die Größe des Objekts an das Planungsmodul
52 weitergegeben. - Beim autonomen Betrieb des Fahrzeugs
10 durch dessen autonomes Betriebssystem20 ermöglichen es die Klassifikationsergebnisse des Klassifikator-Threads dem Planungsmodul52 vorteilhafterweise das Spektrum der realen Verkehrssituationen zu berücksichtigen, mit denen sonst menschliche Fahrer konfrontiert sind, wie z. B. Interaktionen mit Fußgängern, Fahrrädern und anderen Fahrzeugen. Die Berücksichtigung von Interaktionen zwischen dem Fahrzeug10 und Fußgängern und Fahrrädern ist besonders wichtig, da es erwünscht ist, die Sicherheit der Insassen des Fahrzeugs10 , der Fußgänger und der Fahrradfahrer, angesichts des Potentials für große Geschwindigkeitsunterschiede und relative seitliche Bewegungen zwischen dem Fahrzeug10 und den Fußgängern und Fahrrädern und der relativen Ungeschütztheit der Fußgänger und Fahrradfahrer, sicherzustellen. Unter anderem kann die richtige Klassifikation dieser und anderer Objekte in der Umgebung des Fahrzeugs10 beispielsweise Informationen für das Planungsmodul52 bereitstellen, die bei der Bestimmung verwendet werden, wie viel Spielraum den Objekten gegeben wird, während diese überholt werden, oder bei der Bestimmung, ob diese Objekte überhaupt überholt werden. - In
3 sind die Vorgänge eines Prozesses100 des Klassifikator-Threads i dem Erfassungsmodul50 des autonomen Betriebssystems20 des Fahrzeugs10 gezeigt. - Wie nachstehend beschrieben ist, endet der Prozess
100 in der Kombination der cluster-basierten Klassifikatoren, die basierend auf den lokalen Merkmalen der 3D-Punkte-Cluster eines Tracks identifiziert werden, oder der Clustermerkmalen, und eines track-basierten Klassifikator basierend auf den globalen Merkmalen für den Track selbst, oder den ganzheitlichen Merkmalen. - Im Allgemeinen basieren die Clustermerkmale auf den 3D-Punkte-Clustern des Tracks, die sich von einem Zeitschritt t zu dem nächsten unter anderem mit sich ändernden Abständen, Standpunkten und Orientierung des LIDAR-Sensors
22 ändern. Die Clustermerkmale können beispielsweise vollständig oder teilweise dem Erscheinungsbild der 3D-Punkte-Cluster des Tracks entsprechen. Für den Track gibt es von den Zeitschritten 1 bis T einen lokalen oder einen Clustermerkmalssatz z1:T. Im Allgemeinen sind die ganzheitlichen Merkmale zusammenfassende Statistiken auf höherer Ebene des Objekts, das durch die 3D-Punkte-Cluster des Tracks dargestellt wird. Die ganzheitlichen Merkmale können beispielsweise vollständig oder teilweise der Bewegung des durch die 3D-Punkte-Cluster des Tracks dargestellten Objekts entsprechen. Für den Track gibt es einen einzigen globalen, oder ganzheitlichen Merkmalssatz ω. Sowohl bei dem Clustermerkmalssatz z1:T als auch dem einzigen ganzheitlichen Merkmalssatz ω, entspricht der Merkmalssatz für den Track bei T xT = z1:T, ω. - Bei Vorgang
102 werden die lokalen Merkmale für die 3D-Punkte-Cluster eines Tracks, oder die Clustermerkmale, identifiziert, und bei Vorgang104 werden die globalen Merkmale für den Track selbst, oder die ganzheitlichen Merkmale, identifiziert. Bei dem Prozess100 entspricht für den Track jeder der resultierenden Merkmalssätze einem Klassifikator, so dass T cluster-basierte Klassifikatoren und ein track-basierter Klassifikator in die letztendliche Klassifikation des Objekts einbezogen sind. - Die lokalen Merkmale der 3D-Punkte-Cluster eines Tracks, oder die Clustermerkmale, können beispielsweise durch Spinbilder und Merkmalen eines Orientierungsgradienten-Histogramms (HOG), die von virtuellen orthographischen Bildern der 3D-Punkte-Cluster des Tracks abgeleitet werden, identifiziert werden. Im Allgemeinen erfordert diese Identifikation, dass die 3D-Punkte-Cluster des Tracks einheitlich orientiert sind, was durch Schätzen der Hauptrichtung jeder der 3D-Punkte-Cluster des Tracks erreicht werden kann.
- Wenn das Fahrzeug
10 auf relativ flachem Untergrund fährt, während der LIDAR-Sensor22 die Umgebung des Fahrzeugs10 scannt, kann Z als Aufwärtsrichtung angenommen werden, und die Hauptrichtung kann in der XY-Ebene gefunden werden. Um die Hauptrichtung eines vorgegebenen 3D-Punkte-Clusters zu schätzen, können die 3D-Punkte auf die XY-Ebene projiziert werden, und eine Stichprobenübereinstimmung (RANSAC) kann bei allen 3D-Punkten durchgeführt werden, um die Richtung zu bestimmen, in die die meisten 3D-Punkte ausgerichtet sind (z. B., innerhalb von 10 cm). Es kann beispielsweise ein Grenzwert von 50% der 3D-Punkte verwendet werden. Eine Beispielschätzung der Hauptrichtung eines 3D-Punkte-Clusters, das ein Fahrzeug in Seitenansicht darstellt, ist in4A gezeigt, wobei die Hauptrichtung PD jene ist, in die die meisten 3D-Punkte ausgerichtet sind. - Es wurde festgestellt, dass diese Schätzung der Hauptrichtung eines 3D-Punkte-Clusters im Allgemeinen gut für 3D-Punkte-Cluster funktioniert, die Fahrzeuge und Fahrräder in Seitenansicht darstellen, sowie für 3D-Punkte-Cluster, die Fußgänger darstellen. Wie aus dem Vergleich der Schätzung der Hauptrichtung PD eines 3D-Punkte-Clusters, das ein in
4A gezeigtes Fahrzeug in Seitenansicht darstellt, und der Schätzung der Hauptrichtung PD eines 3D-Punkte-Clusters, das ein in4B gezeigtes Fahrzeug aus Hinteransicht darstellt, hervorgeht, versagt diese Schätzung der Hauptrichtung einer 3D-Punkte-Clusters manchmal bei 3D-Punkten, die ein Fahrzeug aus Hinteransicht darstellen, da die Hauptrichtung, in die die 3D-Punkte ausgerichtet sind, senkrecht zu der tatsächlichen Orientierung des Fahrzeugs verläuft. Wenn jedoch dieselbe Schätzung der Hauptrichtung eines 3D-Punkte-Clusters sowohl für das Lernen als auch die Klassifikation verwendet wird, kann der Lerner bei der Klassifikation die lokalen Merkmale für die 3D-Punkte-Cluster eines Tracks in beiden Ansichten berücksichtigen. - In
5 sind Beispiele von Spinbildern für einen Baum, ein Fahrrad, eine Limousine und einen Kombi gezeigt. Um das Beispiel und andere Spinbilder zu erzeugen, kann eine virtuelle Bildebene um die Z-Achse um die 3D-Punkte gedreht werden, die am nächsten an der Mitte oben, der Mitte vorne und der Seite eines vorgegebenen der 3D-Punkte-Cluster des Tracks liegen, die ein Objekt darstellen, während alle auf dem Weg liegenden 3D-Punkte in Ablagen gesammelt werden. - In den
6A –C sind jeweils Beispiele von virtuellen orthographischen Bildern eines 3D-Punkte-Clusters gezeigt, die ein Fahrzeug in Front-, Seiten- und Oberansicht des 3D-Punkte-Clusters darstellen. Jedes virtuelle orthographische Bild ist eine orthographische Projektion des entlang der Hauptrichtung der 3D-Punkte orientierten und auf deren Begrenzungsbox zentrierten 3D-Punkte-Clusters. - Weitere lokale Merkmale der 3D-Punkte-Cluster eines Tracks, oder der Clustermerkmale, können für die 3D-Punkte-Cluster eines Tracks identifiziert werden. Die geschätzte Hauptrichtung eines 3D-Punkte-Clusters kann beispielsweise verwendet werden, um eine Begrenzungsbox des 3D-Punkte-Cluster auszurichten, und die lokalen Merkmale können beispielsweise die Höhe, die Breite und die Länge der Begrenzungsbox des 3D-Punkte-Cluster, sowie das Volumen der Begrenzungsbox des 3D-Punkte-Clusters umfassen. Zusätzlich oder alternativ kann der Schwerpunkt der Begrenzungsbox des 3D-Punkte-Cluster identifiziert werden, und die lokalen Merkmale können beispielsweise einen Abstand des Schwerpunkts der Begrenzungsbox von dem LIDAR-Sensor
22 , oder andernfalls von dem Fahrzeug10 umfassen. - Die globalen Merkmale eines Tracks, oder die ganzheitlichen Merkmale, können beispielsweise eine Geschwindigkeit der 3D-Punkte-Cluster des Tracks sein oder umfassen, die eine Geschwindigkeit des durch die 3D-Punkte-Cluster des Tracks dargestellten Objekts darstellt. Dementsprechend können die globalen Merkmale eines Tracks beispielsweise eine Höchstgeschwindigkeit der 3D-Punkte-Cluster des Tracks umfassen. Alternativ oder zusätzlich können die globalen Merkmale eines Tracks beispielsweise eine Beschleunigung des der 3D-Punkte-Cluster des Tracks sein oder umfassen, die eine Beschleunigung des durch die der 3D-Punkte-Cluster des Tracks dargestellten Objekts darstellt. Dementsprechend können die globalen Merkmale eines Tracks beispielsweise eine maximale Beschleunigung der 3D-Punkte-Cluster des Tracks umfassen. Diese und weitere globale Merkmale eines Tracks können beispielsweise unter Verwendung eines Kalman-Filters an den Schwerpunkten der 3D-Punkte-Cluster des Tracks identifiziert werden.
- Bei Vorgang
108 wird gelernt, welche lokalen Merkmale, oder Clustermerkmale, und welche globalen Merkmale, oder ganzheitlichen Merkmale, für die zu den Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv), und Hintergrund (cbg) gehörenden Objekte vorhersagend sind.7 ist ein Beispiel eines graphischen Modells, das die probalistischen Unabhängigkeiten zwischen den lokalen Merkmalen der 3D-Punkte-Cluster eines Tracks, oder den Clustermerkmale, und den globalen Merkmalen des Tracks, oder den ganzheitlichen Merkmalen, kodiert. Das Lernverfahren bei Vorgang108 kann einen Entscheidungsbaum-basierten Gentle ADABoost implementieren. - Bei Vorgang
110 werden cluster-basierte Klassifikatoren auf Basis der lokalen Merkmale der 3D-Punkte-Cluster eines Tracks, oder der Clustermerkmale, identifiziert, und bei Vorgang112 wird ein track-basierter Klassifikator auf Basis der globalen Merkmale für den Track selbst, oder der ganzheitlichen Merkmale, identifiziert. - Der cluster-basierte Klassifikator und der track-basierte Klassifikator können im Allgemeinen Vorhersagen sein, zu welcher der Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv), und Hintergrund (cbg) das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt gehört.
- Bei einem Beispiel können der cluster-basierte Klassifikator und der track-basierte Klassifikator als ein einer-vs-alle-Log-Odds ausgedrückt werden, dass das Objekt einer der Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv), und Hintergrund (cbg) angehört. Gemäß diesem Beispiel kann im Allgemeinen ein starker Klassifikator H durch die Summe von K schwachen Klassifikatoren h gegeben sein, , wobei die schwachen Klassifikatoren h Regressionsbäume von begrenzter Tiefe sind, die die lokalen Merkmale und die globalen Merkmale zur Teilung verwenden. Hierdurch werten reale Werte ausgegeben, und es kann anstelle einer diskreten Ausgabe sign(H(x, c)) direkt die Summe der schwachen Klassifikatoren h verwendet werden. Im Höchstbetrag konvergiert die Summe der schwachen Klassifikatoren h zu den Log-Odds L(x, c). Unter Verwendung des Gentle AdaBoost, wie in OpenCV implementiert, können diese Log-Odds sowohl für die cluster-basierten Klassifikatoren als auch den track-basierten Klassifikator für die Objektklassen (cp), Fahrrad (cb), Fahrzeug (cv) identifiziert werden.
- Bei Vorgang
112 werden die cluster-basierten Klassifikatoren und der track-basierte Klassifikator kombiniert, um das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt auf Basis seiner wahrscheinlichsten Objektklasse anhand der kombinierten cluster-basierten Klassifikatoren und track-basierten Klassifikatoren zu klassifizieren. - Um die Log-Odds für einen Track der Länge T für eine bestimmte Objektklasse c zu identifizieren, gibt es T + 1 Klassifikatorergebnisse der T cluster-basierten Klassifikatorn und des einzelnen track-basierten Klassifikators. Wie nachstehend beschrieben wird, können diese beispielsweise unter Verwendung einer Variation des normalisierten Diskreten Bayes-Filter (DBF), der die cluster-basierten Klassifikatoren auf Basis der Informationsmenge über das 3D-Punkte-Cluster, durch welches sie identifiziert werden, gewichtet, kombiniert werden.
- Um die Notation zu vereinfachen, wird die Kombination für eine Objektklasse c beschrieben, und die Objektklassennotation wird nachstehend weggelassen. Dementsprechend ist das Log-Odds-Verhältnis L(x). Wie nachstehend verwendet, ist L0 das Log vor Odds, und entspricht
L C / 0 L H / 0 - Wenngleich das Beispiel des graphischen Modells in
7 eine bedingte Unabhängigkeit zwischen den lokalen Merkmalen der 3D-Punkte-Cluster eines Tracks, oder den Clustermerkmalen, und den globalen Merkmalen eines Tracks, oder den ganzheitlichen Merkmale, annimmt, wird nachstehend ein differenzierteres Modell beschrieben. Zunächst gilt jedoch unter Annahme dieser bedingten Unabhängigkeit zur Identifikation der Log-Odds L(ω, z1:T) angesichts aller lokalen Merkmale der 3D-Punkte-Cluster eines Tracks und der globalen Merkmale eines Tracks für alle Zeitschritte (von 1 bis T) des Tracks, und unter Verwendung der Bayes-Regel: -
- Dies hat trotz allem noch die Wirkung, dass alle cluster-basierten Klassifikatoren gleich gewichtet werden. Wenngleich dies korrekt wäre, wenn die cluster-basierten Klassifikatoren in allen Fällen präzise vorhersagen würden, welcher der Objektklassen das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt angehört, ist festgestellt worden, dass die Vorhersagegenauigkeit der cluster-basierten Klassifikatoren mit zunehmender Informationsmenge über das 3D-Puntke-Cluster, durch das sie identifiziert werden, erheblich zunimmt. In den meisten Fällen ist die Informationsmenge über das 3D-Punkte-Cluster, durch das ein vorgegebener cluster-basierter Klassifikator identifiziert wird, die Menge der 3D-Punkte in dem Cluster oder steht damit in Zusammenhang. In diesem Fall oder anderen Fällen können zunehmende Informationsmengen über diese 3D-Punkte-Cluster das Ergebnis von größerer Nähe zwischen dem Fahrzeug
10 und dem durch das 3D-Punkte-Cluster dargestellten Objekt sein. - Dementsprechend kann ein Gewichtungsfaktor αt auf die cluster-basierten Klassifikatoren angewendet werden, um die cluster-basierten Klassifikatoren je nachdem mit abnehmenden Informationsmengen über das 3D-Punkte-Cluster, durch welches sie identifiziert werden, herabzugewichten, oder die cluster-basierten Klassifikatoren durch zunehmende Informationsmengen über das 3D-Punkte-Cluster, durch welches sie identifiziert werden, heraufzugewichten:
- Wie mit zusätzlicher Bezugnahme auf
8 gezeigt ist, kann sich der Gewichtungsfaktor αt für einen vorgegebenen cluster-basierten Klassifikator mit zunehmenden Informationsmengen über das 3D-Punkte-Cluster, durch welches er identifiziert wird, erhöhen, gemäß: , wobei nt die Anzahl der 3D-Punkte in dem Cluster zu der Zeit t ist, und nα ein Parameter ist, der steuert, wie schnell α mit Anzahl der 3D-Punkte steigt. In8 gilt nα = 250, und es ist ersichtlich, dass 0 ≤ α ≤ 1 und α = 0,5 wenn nt = nα. - Zusätzlich oder alternativ können Grenzwerte für die Informationsmengen über das 3D-Punkte-Cluster, durch welches ein vorgegebener cluster-basierter Klassifikator identifiziert wird, definiert und umgesetzt werden. Diese Grenzwerte können beispielsweise für die Menge der 3D-Punkte in dem Cluster (z. B., 25 3D-Punkte), die Nähe zwischen dem Fahrzeug
10 und dem durch das 3D-Punkte-Cluster dargestellten Objekt (z. B., 30 Meter), oder beides, definiert und umgesetzt werden, und wenn die Grenzwerte nicht erfüllt werden, können die cluster-basierten Klassifikatoren beispielsweise durch Einstellen der mit dem cluster-basierten Klassifikator in Zusammenhang stehenden Log-Odds auf null mit null gewichtet werden. - Zurückkommend auf die Diskussion der Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv) und Hintergrund (cbg), kann für jeden Track und Zeitschritt mit den Merkmalen ω, z1:T, der vorstehende Klassifikationsrahmen auf die Objektklassen Fußgänger (cp), Fahrrad (cb) und Fahrzeug (cv) angewendet werden, wodurch für die einer-vs-alle Log-Odds gilt
L(ω, z1:T; cp), L(ω, z1:T; cb), L(ω, z1:T; cv) (Gl. 8) - Mit diesen Ergebnissen des Klassifikators kann das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt als zu der wahrscheinlichsten Objektklasse gehörend klassifiziert werden. Bei Vorgang
114 kann das Planungsmodul52 auf Basis der Klassifikation des Objekts planen, wie das Fahrzeug10 entlang einer Fahrtroute gesteuert werden muss, um dem Objekt auszuweichen, und das autonome Betriebssystem20 des Fahrzeugs10 kann das Fahrzeug10 gemäß dem Plan entlang der Route steuern. -
9 zeigt die Klassifikatorzuversicht im Zeitablauf für einen Beispieltrack in einem Fall, in dem das durch die 3D-Punkte-Cluster des Tracks dargestellte Objekt ein Fahrrad ist. Die durchgezogenen Linien zeigen die Zuversicht für die kombinierten Ergebnisse des Klassifikators für jede der Objektklassen Fußgänger (cp), Fahrrad (cb), Fahrzeug (cv), und Hintergrund (cbg), während die gestrichelten Linien die Zuversicht für die cluster-basierten Klassifikatoren zeigen und die Strich-Punkt-Linien die Zuversicht für die track-basierten Klassifikatoren zeigen. Für die ersten 120 Zeitschritte beteiligt sich nur der track-basierte Klassifikator an der Klassifikation des Objekts, da zu wenige 3D-Punkte in den Cluster vorhanden sind (d. h., weniger als 25). Das Objekt wird zunächst für die ersten 40 Zeitschritte als Fahrrad klassifiziert, und wird anschließend für die nächsten 80 Zeitschritte bei einem Abstand von 82 Meter fälschlicherweise als ein Auto klassifiziert, bis es bei einem Abstand von 40 Meter genug 3D-Punkte gibt, um die cluster-basierten Klassifikatoren verwenden zu können, zu welchem Zeitpunkt sich die Objektklasse Fahrrad (cb) schnell durchsetzt und in den kombinierten Ergebnissen des Klassifikators trotz mehrerer falscher Cluster-klassifikationen später bestehen bleibt. - Obwohl die angeführten Charakteristika und Bedingungen der Erfindung im Zusammenhang mit bestimmten Ausführungsformen beschrieben worden sind, ist zu verstehen, dass die Erfindung nicht auf die offenbarten Ausführungsformen beschränkt ist, sondern vielmehr darauf ausgelegt ist, verschiedene Modifikationen und äquivalente Anordnungen innerhalb des Grundgedankens und des Schutzumfangs der beigefügten Ansprüche zu umfassen, wobei dem Schutzumfang die weitestmögliche Interpretation beizumessen ist, um alle gesetzlich zulässigen Modifikationen und äquivalenten Strukturen einzuschließen.
Claims (10)
- Verfahren für autonomes Fahren, aufweisend: Erzeugen von 3D-Punkten, die Objekte in der Umgebung des Fahrzeugs darstellen, mit einem 3D-Sensor; und Mithilfe einer Rechenvorrichtung: Identifizieren einer zeitlichen Folge von 3D-Punkte-Clustern, die dasselbe Objekt in der Umgebung des Fahrzeugs als einen Track darstellen, anhand der 3D-Punkte; Identifizieren von cluster-basierten Klassifikatoren des Objekts auf Basis von identifizierten lokalen Merkmalen für die Cluster in dem Track; Identifizieren von track-basierten Klassifikatoren des Objekts auf Basis von identifizierten globalen Merkmalen für den Track; Kombinieren der cluster-basierten Klassifikatoren und der track-basierten Klassiflkatoren zum Klassifizieren des Objekts, wobei die cluster-basieren Klassifikatoren auf Basis der informationsmenge über das Cluster, durch welches sie identifiziert werden, gewichtet werden, und wobei die Gewichtung mit zunehmender Informationsmenge steigt; und Steuern des Fahrzeugs entlang einer Fahrtroute auf Basis der Objektklassifikation.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei die Informationsmenge über das Cluster die Menge der 3D-Punkte in dem Cluster ist, anhand derer die cluster-basierten Klassifikatoren identifiziert werden.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei der cluster-basierte Klassifikator mit null gewichtet wird, wenn die Informationsmenge über das Cluster von einem cluster-basierten Klassifikator als unterhalb eines Grenzwerts liegend identifiziert wird.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei jeder der cluster-basierten Klassifikatoren eine Vorhersage umfasst, welcher von einer Mehrzahl von Objektklassen das Objekt angehört.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei jeder der cluster-basierten Klassifikatoren zumindest eines von einem einer-vs-alle Log-Odds, dass das Objekt einer von einer Mehrzahl von Klassen angehört, und/oder einer Wahrscheinlichkeit, dass da Objekt einer von einer Mehrzahl von Klassen angehört, umfasst.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei jeder der track-basierten Klassifikatoren eine Vorhersage umfasst, welcher von einer Mehrzahl von Objektklassen das Objekt angehört.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei jeder der track-basierten Klassifikatoren zumindest eines von einem einer-vs-alle Log-Odds, dass das Objekt einer von einer Mehrzahl von Klassen angehört, und/oder einer Wahrscheinlichkeit, dass da Objekt einer von einer Mehrzahl von Klassen angehört, umfasst.
- Verfahren für autonomes Fahren nach Anspruch 1, wobei die Kombination der track-basierten Klassifikatoren und der gewichteten cluster-basierten Klassifikatoren eine Wahrscheinlichkeit umfasst, welcher von einer Mehrzahl von Objektklassen das Objekt angehört.
- Verfahren für autonomes Fahren nach Anspruch 1, ferner aufweisend, mit der Rechenvorrichtung: Identifizieren der lokalen Merkmale auf Basis der Cluster in dem Track, wobei die lokalen Merkmale auf dem Erscheinungsbild der Cluster in dem Track basieren; und Identifizieren der globalen Merkmale auf Basis des Tracks, wobei die globalen Merkmale auf der Bewegung der Cluster in dem Track basieren.
- Verfahren für autonomes Fahren nach Anspruch 1, ferner aufweisend, mit der Rechenvorrichtung: Für jedes Cluster in dem Track: Identifizieren einer Begrenzungsbox des Clusters; und Identifizieren von zumindest einem von der Höhe, der Breite und der Länge der Begrenzungsbox, dem Volumen der Begrenzungsbox, und einem Abstand zu einem identifizierten Schwerpunkt der Begrenzungsbox als lokale Merkmale des Clusters; und Für den Track: Identifizieren von zumindest einem von einer Geschwindigkeit des Clusters in dem Track und einer Beschleunigung des Clusters in dem Track als ein globales Merkmal des Tracks.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/852,806 | 2015-09-14 | ||
US14/852,806 US9576185B1 (en) | 2015-09-14 | 2015-09-14 | Classifying objects detected by 3D sensors for autonomous vehicle operation |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016116029A1 true DE102016116029A1 (de) | 2017-03-23 |
DE102016116029B4 DE102016116029B4 (de) | 2019-05-16 |
Family
ID=58017693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016116029.6A Expired - Fee Related DE102016116029B4 (de) | 2015-09-14 | 2016-08-29 | Klassifikation von durch 3D-Sensoren erfassten Objekten |
Country Status (3)
Country | Link |
---|---|
US (1) | US9576185B1 (de) |
JP (1) | JP6298128B2 (de) |
DE (1) | DE102016116029B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3795942A1 (de) * | 2019-09-19 | 2021-03-24 | sentronics metrology GmbH | Vorrichtung und verfahren zur inspektion von flachen objekten und zum erfassen von grenzschichten dieser objekte |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10121082B2 (en) * | 2015-10-07 | 2018-11-06 | Honda Motor Co., Ltd. | System and method for providing laser camera fusion for identifying and tracking a traffic participant |
CA2998956C (en) * | 2015-11-26 | 2023-03-21 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
US9961261B2 (en) | 2016-06-20 | 2018-05-01 | Gopro, Inc. | Image alignment using a virtual gyroscope model |
US10740658B2 (en) * | 2016-09-08 | 2020-08-11 | Mentor Graphics Corporation | Object recognition and classification using multiple sensor modalities |
JP7281412B2 (ja) * | 2017-03-30 | 2023-05-25 | エージーシー グラス ユーロップ | 自動運転車のためのガラス |
US10710579B2 (en) * | 2017-06-01 | 2020-07-14 | Waymo Llc | Collision prediction system |
US11042155B2 (en) | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
WO2019035363A1 (ja) | 2017-08-18 | 2019-02-21 | 株式会社小糸製作所 | 認識センサおよびその制御方法、自動車、車両用灯具、オブジェクト識別システム、オブジェクトの識別方法 |
US10713940B2 (en) | 2017-10-31 | 2020-07-14 | Waymo Llc | Detecting and responding to traffic redirection for autonomous vehicles |
US10401862B2 (en) | 2017-10-31 | 2019-09-03 | Waymo Llc | Semantic object clustering for autonomous vehicle decision making |
CN108460791A (zh) * | 2017-12-29 | 2018-08-28 | 百度在线网络技术(北京)有限公司 | 用于处理点云数据的方法和装置 |
CN108230379B (zh) * | 2017-12-29 | 2020-12-04 | 百度在线网络技术(北京)有限公司 | 用于融合点云数据的方法和装置 |
WO2019176877A1 (ja) | 2018-03-15 | 2019-09-19 | 株式会社小糸製作所 | オブジェクト識別システム、自動車、車両用灯具、オブジェクトの種類の識別方法 |
EP3779871A4 (de) | 2018-04-05 | 2021-05-19 | Koito Manufacturing Co., Ltd. | Arithmetische verarbeitungsvorrichtung, objektidentifikationssystem, objektidentifikationsverfahren, automobil- und fahrzeugbeleuchtungskörper |
WO2019194256A1 (ja) * | 2018-04-05 | 2019-10-10 | 株式会社小糸製作所 | 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具 |
CN110555449B (zh) * | 2018-05-30 | 2023-03-24 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
US10845818B2 (en) * | 2018-07-30 | 2020-11-24 | Toyota Research Institute, Inc. | System and method for 3D scene reconstruction of agent operation sequences using low-level/high-level reasoning and parametric models |
US10754338B2 (en) | 2018-08-14 | 2020-08-25 | GM Global Technology Operations LLC | Controlling an autonomous vehicle based upon labels assigned to objects represented in sensor data |
US10984540B2 (en) * | 2018-10-15 | 2021-04-20 | Tusimple, Inc. | Tracking and modeling processing of image data for LiDAR-based vehicle tracking system and method |
US10878580B2 (en) | 2018-10-15 | 2020-12-29 | Tusimple, Inc. | Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method |
US10878282B2 (en) * | 2018-10-15 | 2020-12-29 | Tusimple, Inc. | Segmentation processing of image data for LiDAR-based vehicle tracking system and method |
US10983530B2 (en) * | 2018-10-31 | 2021-04-20 | Wipro Limited | Method and system for determining an accurate position of an autonomous vehicle |
JP7288460B2 (ja) | 2018-11-30 | 2023-06-07 | 株式会社小糸製作所 | 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置 |
EP3889639A4 (de) | 2018-11-30 | 2022-01-05 | Koito Manufacturing Co., Ltd. | Entfernungsmessungssensor, fahrzeugleuchte und entfernungsmessverfahren |
US10891518B1 (en) | 2018-12-14 | 2021-01-12 | Waymo Llc | Auto labeler |
CN109726692A (zh) * | 2018-12-29 | 2019-05-07 | 重庆集诚汽车电子有限责任公司 | 基于深度学习的高清摄像头3d目标检测系统 |
CN111837136A (zh) * | 2019-02-19 | 2020-10-27 | 深圳市大疆创新科技有限公司 | 基于本地感测的自主导航以及相关联的系统和方法 |
US11630209B2 (en) | 2019-07-09 | 2023-04-18 | Waymo Llc | Laser waveform embedding |
US11597406B2 (en) * | 2020-02-19 | 2023-03-07 | Uatc, Llc | Systems and methods for detecting actors with respect to an autonomous vehicle |
CN113870347A (zh) * | 2020-06-30 | 2021-12-31 | 北京市商汤科技开发有限公司 | 目标车辆的控制方法、装置、电子设备及存储介质 |
JP7001795B1 (ja) * | 2020-11-13 | 2022-01-20 | 株式会社ネクスティエレクトロニクス | シミュレーション用のデータ生成装置、方法及びコンピュータプログラム |
CN114387305A (zh) * | 2021-12-30 | 2022-04-22 | 驭势科技(北京)有限公司 | 拖车队列跟踪方法、装置、计算机设备及存储介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3516856B2 (ja) * | 1998-01-30 | 2004-04-05 | 富士重工業株式会社 | 車外監視装置 |
JP4239689B2 (ja) | 2003-05-30 | 2009-03-18 | スズキ株式会社 | 車両用警報システム及び車両用警報発生方法 |
US7522066B2 (en) | 2006-02-23 | 2009-04-21 | Rockwell Automation Technologies, Inc. | Systems and methods that evaluate distance to potential hazards utilizing overlapping sensing zones |
US7720260B2 (en) * | 2006-09-13 | 2010-05-18 | Ford Motor Company | Object detection system and method |
EP2107503A1 (de) * | 2008-03-31 | 2009-10-07 | Harman Becker Automotive Systems GmbH | Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit |
KR100946723B1 (ko) | 2008-04-12 | 2010-03-12 | 재단법인서울대학교산학협력재단 | 차량의 조향 방법 및 그 장치 |
US8744122B2 (en) * | 2008-10-22 | 2014-06-03 | Sri International | System and method for object detection from a moving platform |
FR2953313B1 (fr) * | 2009-11-27 | 2012-09-21 | Thales Sa | Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification |
WO2012117528A1 (ja) * | 2011-03-01 | 2012-09-07 | トヨタ自動車株式会社 | 状態推定装置 |
CN102685382B (zh) * | 2011-03-18 | 2016-01-20 | 安尼株式会社 | 图像处理装置和方法、及移动体防碰撞装置 |
US8605998B2 (en) * | 2011-05-06 | 2013-12-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping |
DE102011101246A1 (de) | 2011-05-11 | 2012-11-15 | Conti Temic Microelectronic Gmbh | Redudante objektdetektion für fahrerassistenzsysteme |
FR2981772B1 (fr) * | 2011-10-21 | 2017-12-22 | Thales Sa | Procede de reconstruction 3d d'un objet d'une scene |
DE102012014300A1 (de) | 2012-07-19 | 2013-01-17 | Daimler Ag | Verfahren zur Objekterkennung in einer Umgebung eines Kraftwagens sowie Fahrerassistenzsystem zur Objekterkennung in einer Umgebung eines Kraftwagens |
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
US8473144B1 (en) * | 2012-10-30 | 2013-06-25 | Google Inc. | Controlling vehicle lateral lane positioning |
US9110163B2 (en) * | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
US8989944B1 (en) * | 2013-11-26 | 2015-03-24 | Google Inc. | Methods and devices for determining movements of an object in an environment |
US9091558B2 (en) * | 2013-12-23 | 2015-07-28 | Automotive Research & Testing Center | Autonomous driver assistance system and autonomous driving method thereof |
US9664779B2 (en) * | 2014-07-03 | 2017-05-30 | GM Global Technology Operations LLC | Object classification for vehicle radar systems |
-
2015
- 2015-09-14 US US14/852,806 patent/US9576185B1/en active Active
-
2016
- 2016-08-29 DE DE102016116029.6A patent/DE102016116029B4/de not_active Expired - Fee Related
- 2016-09-12 JP JP2016177291A patent/JP6298128B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3795942A1 (de) * | 2019-09-19 | 2021-03-24 | sentronics metrology GmbH | Vorrichtung und verfahren zur inspektion von flachen objekten und zum erfassen von grenzschichten dieser objekte |
EP3795940A1 (de) * | 2019-09-19 | 2021-03-24 | sentronics metrology GmbH | Vorrichtung und verfahren zur inspektion von flachen objekten und zum erfassen von grenzschichten dieser objekte |
Also Published As
Publication number | Publication date |
---|---|
US20170075356A1 (en) | 2017-03-16 |
US9576185B1 (en) | 2017-02-21 |
JP2017056935A (ja) | 2017-03-23 |
DE102016116029B4 (de) | 2019-05-16 |
JP6298128B2 (ja) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016116029B4 (de) | Klassifikation von durch 3D-Sensoren erfassten Objekten | |
US10152649B2 (en) | Detecting visual information corresponding to an animal | |
DE102018129295A1 (de) | Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen | |
DE112013007129B4 (de) | Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren | |
DE112018007287T5 (de) | Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung | |
DE102021112349A1 (de) | Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters | |
DE102011117585B4 (de) | Systeme und Verfahren zum Verfolgen von Objekten | |
DE102017204404B3 (de) | Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug | |
DE102017217056A1 (de) | Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug | |
DE112012002885T5 (de) | Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung | |
DE102015109270A1 (de) | Strassenbelagszustandsdetektion mit rekursivem adaptivem lernen und validierung | |
DE112021006101T5 (de) | Systeme und Verfahren zur Objektdetektion mit LiDAR-Dekorrelation | |
DE102010005290A1 (de) | Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem | |
DE102018108361A1 (de) | Laubwerkerfassungstrainingssysteme und -verfahren | |
DE102018133441A1 (de) | Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs | |
CN111209808B (zh) | 一种基于分层处理的无人机图像语义分割识别方法 | |
DE112021005607T5 (de) | Systeme und Verfahren für kamera-LiDAR-fusionierte Objektdetektion | |
DE102018121008A1 (de) | Kreuzverkehrserfassung unter verwendung von kameras | |
DE112016003241T5 (de) | Verfahren, Steuereinheit und System zum Erkennen und Verfolgen verletzlicher Verkehrsteilnehmer | |
DE112021006299T5 (de) | Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten | |
DE112022001403T5 (de) | Lichtinterferenzdetektion während der fahrzeugnavigation | |
DE102021132199A1 (de) | Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz | |
DE112021000482T5 (de) | Erkennung von fremdkörpern in einem fahrzeugweg | |
DE112020003845T5 (de) | Vorrichtung, messungsvorrichtung, entfernungsmessungssystem und verfahren | |
DE102022130540A1 (de) | Systeme und verfahren zur vermeidung von fehldetektionen von verfolgten objekten in der umgebenden umgebung eines fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA INC., ERLANGER, KY., US Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA INC., ERLANGER, KY., US |
|
R082 | Change of representative |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R081 | Change of applicant/patentee |
Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., PLANO, TEX., US |
|
R082 | Change of representative |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE |
|
R081 | Change of applicant/patentee |
Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP Free format text: FORMER OWNER: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, AICHI-KEN, JP |
|
R082 | Change of representative |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE |
|
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |