DE102019217225A1 - Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung - Google Patents

Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung Download PDF

Info

Publication number
DE102019217225A1
DE102019217225A1 DE102019217225.3A DE102019217225A DE102019217225A1 DE 102019217225 A1 DE102019217225 A1 DE 102019217225A1 DE 102019217225 A DE102019217225 A DE 102019217225A DE 102019217225 A1 DE102019217225 A1 DE 102019217225A1
Authority
DE
Germany
Prior art keywords
machine learning
learning system
sensing element
object recognition
element data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019217225.3A
Other languages
English (en)
Inventor
Marlon Ramon Ewert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019217225.3A priority Critical patent/DE102019217225A1/de
Priority to US17/083,839 priority patent/US20210142216A1/en
Priority to CN202011228740.2A priority patent/CN112784868A/zh
Publication of DE102019217225A1 publication Critical patent/DE102019217225A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Trainieren eines maschinellen Lernsystems (200) für eine Objekterkennungsvorrichtung (200), mit den Schritten:- Bereitstellen von Sensierelementdaten; und- Trainieren eines maschinellen Lernsystems mit den bereitgestellten Sensierelementdaten, wobei wenigstens ein Objekt aus den Sensierelementdaten erkannt wird, wobei Signalstärken der Sensierelementdaten zusammen mit einem dem Objekt zugeordneten Reflexions- und/oder Absorptionsfaktor verwendet werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung. Die Erfindung betrifft ferner ein Verfahren zum Durchführen einer Objekterkennung unter Verwendung eines trainierten maschinellen Lernsystems. Die Erfindung betrifft ferner eine Objekterkennungsvorrichtung aufweisend ein maschinelles Lernsystem, das mit Hilfe eines Verfahrens zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung trainiert ist. Die Erfindung betrifft ferner ein Computerprogrammprodukt.
  • Stand der Technik
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das zumindest teilweise ohne Fahrer auskommt. Das Fahrzeug fährt dabei autonom, indem es beispielsweise einen Straßenverlauf, andere Verkehrsteilnehmer, Hindernisse, usw. selbständig erkennt und die entsprechenden Steuerbefehle im Fahrzeug berechnet sowie diese an die Aktuatoren im Fahrzeug weiterleitet, wodurch ein Fahrverlauf des Fahrzeugs in korrekter Weise beeinflusst wird. Ein menschlicher Fahrer ist bei einem vollautonomen Fahrzeug nicht am Fahrgeschehen beteiligt.
  • Aktuell verfügbare Fahrzeuge sind noch nicht in der Lage, vollautonom zu agieren. Zum einen, weil die entsprechende Technik noch nicht voll ausgereift ist. Zum anderen, weil es heutzutage noch gesetzlich vorgeschrieben ist, dass der Fahrzeugführer jederzeit selbst in das Fahrgeschehen eingreifen können muss. Bereits heute ist absehbar, dass in einigen Jahren voll autonome Fahrzeugsysteme auf den Markt kommen werden, sobald die genannten Hürden überwunden sind.
  • Fahrerassistenzsysteme sind elektronische Zusatzeinrichtungen in Kraftfahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen, wobei oftmals Sicherheitsaspekte, aber auch eine Steigerung von Fahrkomfort im Vordergrund stehen. Fahrerassistenzsysteme greifen teilautonom oder autonom in Antrieb, Steuerung (z.B. Gas, Bremse) oder Signalisierungseinrichtungen des Fahrzeugs ein und warnen durch geeignete Mensch-Maschine-Schnittstellen den Fahrer kurz vor oder während kritischer Situationen.
  • Offenbarung der Erfindung
  • Eine Aufgabe der Erfindung ist es, ein verbessertes Verfahren zur Objekterkennung bereitzustellen.
  • Die Aufgabe wird gemäß einem ersten Aspekt gelöst mit einem Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung, mit den Schritten:
    • - Bereitstellen von Sensierelementdaten; und
    • - Trainieren eines maschinellen Lernsystems mit den bereitgestellten Sensierelementdaten, wobei wenigstens ein Objekt aus den Sensierelementdaten erkannt wird, wobei Signalstärken der Sensierelementdaten zusammen mit einem dem Objekt zugeordneten Reflexions- und/oder Absorptionsfaktor verwendet werden.
  • Unter Sensierelementdaten werden vorliegend im Unterschied zum Stand der Technik die nicht nachverarbeiteten Daten eines Sensierelements, wie bspw. ein Umfeldsensorsystem, verstanden. Dies bedeutet insbesondere, dass in den Sensierelementdaten Informationen über Signalstärken bzw.
  • Reflexionseigenschaften der reflektierenden Objekte vorhanden sind. Dadurch werden durch Berücksichtigung von Signalstärken bzw. Reflexionseigenschaften berücksichtigt, wodurch eine Objekterkennung wesentlich verbessert sein kann. Beispielsweise kann die Objekterkennungsvorrichtung dadurch zwischen Objekten in Form eines Baums oder eines Laternenmasts unterscheiden. Erreicht wird dies dadurch, dass metallische Oberflächen oder eine Wand oder ein Mensch, usw. unterschiedliche Reflexions- bzw. Absorptionseigenschaften aufweisen, die dadurch leicht voneinander unterschieden werden können. Im Ergebnis wird dadurch ein Trainieren des maschinellen Lernsystems basierend auf Reflexionseigenschaften der reflektierenden Objekte durchgeführt.
  • Auf diese Weise wird eine Offline-Trainingsphase bereitgestellt, die als Ergebnis ein trainiertes maschinelles Lernsystem in Form einer Erkennungseinrichtung für eine nachfolgende Verwendung in einem Umfeldsensorsystem zur Objekterkennung bereitstellt.
  • Gemäß einem zweiten Aspekt wird die Aufgabe gelöst mit Verfahren zum Durchführen einer Objekterkennung unter Verwendung eines nach einem vorgeschlagenen Verfahren trainierten maschinellen Lernsystems.
  • Gemäß einem dritten Aspekt wird die Aufgabe gelöst mit einer Objekterkennungsvorrichtung, aufweisend ein maschinelles Lernsystem, das mit Hilfe eines vorgeschlagenen Verfahrens trainiert ist.
  • Gemäß einem vierten Aspekt wird die Aufgabe gelöst mit einem Computerprogrammprodukt umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein vorgeschlagenes Verfahren auszuführen oder das auf einem maschinenlesbaren Speichermedium gespeichert ist.
  • Bevorzugte Weiterbildungen des Verfahrens sind Gegenstand von abhängigen Ansprüchen.
  • Eine vorteilhafte Weiterbildung des Verfahrens zeichnet sich dadurch aus, dass das maschinelle Lernsystem in einer definierten Umgebung trainiert wird, wobei von der emittierenden Sensoreinrichtung ein bekanntes Objekt angestrahlt und vom Objekt reflektierte Strahlung empfangen wird, wobei das Objekt basierend auf der reflektierten Strahlung des Objekts erkannt wird. Dadurch wird eine Art „statisches Lernen“ realisiert, bei dem unterschiedliche Reflexionen von unterschiedlichen Oberflächen gelernt werden können. Auf diese Weise können zum Beispiel spezifische Typen von Objekten zum Trainieren des maschinellen Lernsystems genutzt werden.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens zeichnet sich dadurch aus, dass zum Bereitstellen der Sensierelementdaten die emittierende Sensoreinrichtung in Relation zu den Objekten statisch bleibt oder bewegt wird. Auf diese Weise kann ein Bildfluss erkannt werden, wodurch sich Objekte verfolgen lassen und dadurch ein Lerneffekt verbessert ist.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass zum Ermitteln des Objekts aus den Sensierelementdaten zusätzlich oder alternativ eine Merkmalskarte verwendet wird, wobei ein Reflexions- und/oder ein Absorptionsfaktor von Objekten in der Merkmalskarte hinterlegt sind. Mittels der hochgenauen Merkmalskarte können z.B. Objekte relativ zum Fahrzeug geortet werden. Dies ist mittels einer GNSS-basierten Sensoreinrichtung möglich, die ihre Position in der Welt hochgenau kennt oder über eine Feature-Map-basierte Positionslösung. Positionen von Objekten lassen sich dadurch räumlich besser zuordnen. Dadurch kann ein Wissen über eine Position eines Objekts mit einem Wissen über Eigenschaften des Objekts kombiniert werden. Vorteilhaft ist auf diese Weise ein Training der Objekterkennungsvorrichtung auch im laufenden Betrieb möglich.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens zeichnet sich daraus, dass das Trainieren des maschinellen Lernsystems mittels bei unterschiedlichen Wetterlagen bereitgestellten Sensierelementdaten durchgeführt wird. Dadurch können Objekte bei unterschiedlichen Wetterlagen noch facettenreicher abgebildet und dadurch noch besser erkannt werden.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens zeichnet sich daraus, dass Störungen der Sensierelementdaten gefiltert werden. Auf diese Weise sind Daten von Objekten ohne Störungen bekannt, weil aus den Daten der Sensierelemente Störungen herausgefiltert wurden. Vorteilhaft können dadurch Störungen von echten Objekten unterschieden werden, was einen Lernfortschritt des maschinellen Lernsystems vorteilhaft beschleunigen kann. Auf diese Weise kann das Erkennen von Objekten noch besser und genauer erfolgen.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens zeichnet sich dadurch aus, dass eine Auswahl der Daten der erkannten Objekte zum Trainieren eines nachgeschalteten maschinellen Lernsystems verwendet wird. Dadurch kann eine Beschleunigung eines bekannten Algorithmus erfolgen, wobei mittels des nachgelagerten maschinellen Lernsystems ganz gezielt Bereiche in Bilddaten für eine Bereitstellung einer Art Zuordnungseinrichtung verwendet werden. Zum Beispiel kann das nachgelagerte maschinelle Lernsystem dahingehend trainiert werden, die Zuordnungseinrichtung zu realisieren. Vorteilhaft können dadurch Objekte (z.B. Verkehrsteilnehmer) noch schneller und zuverlässiger erkannt werden, weil ein Bereich des Bildes, in dem sich diese befinden können, vorab eingeschränkt wurde.
  • In einer Variante des Verfahrens sind Reflexionsdaten wenigstens eines Objekts in der Merkmalskarte hinterlegt. Dadurch kann z.B. für definierte Objekte ein zugeordneter bestimmten Reflexions- und Absorptionsfaktor für einen bestimmten Sensortyp in der Merkmalskarte hinterlegt werden. Im Regelbetrieb der emittierenden Sensoreinrichtung kann dadurch eine Erkennungsgenauigkeit von Objekten vorteilhaft erhöht sein.
  • Die Erfindung wird im Folgenden mit weiteren Merkmalen und Vorteilen anhand von mehreren Figuren im Detail beschrieben. Gleiche oder funktionsgleiche Elemente haben dabei gleiche Bezugszeichen.
  • Offenbarte Verfahrensmerkmale ergeben sich analog aus entsprechenden offenbarten Vorrichtungsmerkmalen und umgekehrt. Dies bedeutet insbesondere, dass sich Merkmale, technische Vorteile und Ausführungen betreffend das Verfahren in analoger Weise aus entsprechenden Ausführungen, Merkmalen und Vorteilen betreffend die Objekterkennungsvorrichtung ergeben und umgekehrt.
  • In den Figuren zeigt:
    • 1 eine prinzipielle Darstellung einer Ausführungsform des vorgeschlagenen Verfahrens;
    • 2 ein Blockschaltbild einer vorgeschlagenen Objekterkennungsvorrichtung;
    • 3a, 3b eine prinzipielle Darstellung einer weiteren Ausführungsform des vorgeschlagenen Verfahrens in unterschiedlichen Stadien; und 4 einen prinzipiellen Ablauf des vorgeschlagenen Verfahrens.
  • Beschreibung von Ausführungsformen
  • Ein Kerngedanke der Erfindung ist es, eine Vorrichtung und ein Verfahren zur verbesserten Objekterkennung mithilfe eines emittierenden, d.h. aktiven Umfeldsensors, beispielsweise zur Verwendung in einem automatisierten bzw. autonomen Fahrzeug bereitzustellen (z.B. Radar, Lidar, Ultraschall, usw.). Unter „Sensierelementdaten“ werden im Folgenden Signalstärken von einzelnen Pixel von Sensierelementen verstanden.
  • Dazu wird mindestens ein maschinelles Lernsystem, vorzugsweise in Form eines neuronalen Netzwerks verwendet, um Objekte aus Umfeldsensordaten zu extrahieren. Jedoch wird beim vorgeschlagenen Verfahren nicht, wie konventionell vorgesehen, jeder Pixel bzw. Bildpunkt des Umfeldsensors gleichermaßen bewertet, sondern es werden zusätzlich auch noch unterschiedliche Charakteristika von unterschiedlichen Oberflächen unterschiedlicher Objekte (z.B. Reflexionsfaktor, Absorptionsfaktor) zum Trainieren des maschinellen Lernsystems einbezogen, um die Objekterkennung zu verbessern. Das maschinelle Lernsystem ist vorzugsweise als ein künstliches neuronales Netzwerk ausgebildet und repräsentiert im trainierten Zustand einen „intelligenten Algorithmus“ mit gelernten Parametern bzw. Gewichten.
  • SensierelementdatenSensierelementdatenDas dazu vorgesehene maschinelle Lernsystem für die verbesserte Objekterkennung wird, basierend auf den Sensierelementdaten, für unterschiedliche Oberflächen und Reflexionen an den Oberflächen der Objekte trainiert. Im Ergebnis bedeutet dies, dass das maschinelle Lernsystem basierend auf den folgenden Eingangsdaten trainiert wird:
    • - Sensierelementdaten mindestens eines Umfeldsensors
    • - Definierte Umgebung des Umfeldsensors mit definierten Strukturen und Objekten, welche unterschiedliche Reflexionsfaktoren und Reflexionscharakteristika besitzen. Dabei sind die Lagen und Positionen der Objekte relativ zum Umfeldsensor bzw. die Lagen und Oberflächeneigenschaften an diesen Objekten innerhalb der Umfeldsensordaten bzw. im maschinellen Lernsystem bekannt.
  • Das maschinelle Lernsystem bzw. die künstliche Intelligenz lernt also gewissermaßen eine Objekterkennung basierend auf den Reflexionen an definierten Strukturen und Objekten relativ zum Umfeldsensor, anstatt, wie heute üblich, durch ein Taggen der Objekte in den Bilddaten der Umfeldsensoren, was in der Regel eine umständliche und aufwendige manuelle Tätigkeit erfordert.
  • In einer Variante des vorgeschlagenen Verfahrens wird eine emittierende Sensoreinrichtung 100 (z.B. Lidarsensor, Radarsensor, Ultraschallsensor) innerhalb einer definierten Umgebung trainiert. Beispielsweise befindet sich innerhalb eines Lidarbildes ein weiterer Verkehrsteilnehmer, wobei die Lage und Position des Verkehrsteilnehmers innerhalb der Lidardaten bzw. im Bereich des Sensors relativ zum Lidarsensor bekannt sind.
  • Das maschinelle Lernsystem lernt nunmehr die Objekterkennung basierend auf den Reflexionen genau des Objekts an genau dieser Position. Nach dem Lernvorgang ist das maschinelle Lernsystem in der Lage, aus den gewöhnlichen Reflexionen der Lidarstrahlen die charakteristischen Objektmerkmale eines weiteren Verkehrsteilnehmers zu extrahieren. Dies geschieht basierend auf den Rohsensordaten des Sensierelements des Lidarsensors.
  • 1 zeigt ein prinzipielles Blockschaltbild einer Konfiguration einer Objekterkennungsvorrichtung 400 bzw. eines Trainings eines maschinellen Lernsystems 200 zum Bereitstellen einer Objekterkennungsvorrichtung 400. Man erkennt, dass eine oder mehrere emittierende Sensoreinrichtungen 100 Sensierelemente 10a... 10n (Pixelelemente) aufweisen, mit denen von Objekten reflektierte Strahlung empfangen wird. Am Ausgang der Sensoreinrichtung 100 werden die derart empfangenen Daten mit ihrer Signalstärke, d.h. unter Berücksichtigung von Reflexions- bzw. Absorptionsfaktoren der Objekte an das maschinelle Lernsystem 200 übermittelt, welches trainiert wird, um im Ergebnis eine Erkennungseinrichtung 20 zur nachfolgenden Verwendung in der Sensoreinrichtung 100 bereitzustellen. Mit dem Ergebnis des trainierten maschinellen Lernsystems 200 in Form der Erkennungseinrichtung 20 ist die Objekterkennungsvorrichtung 400 für einen operativen Normalbetrieb (z.B. in einem autonomen Fahrzeug) konfiguriert.
  • Ein gestrichelter Pfeil zwischen der Sensoreinrichtung 100 und der Erkennungseinrichtung 20 deutet die Verwendung der Objekterkennungsvorrichtung 400 mit den von der Sensoreinrichtung 100 erfassten Daten an.
  • In einer Ausführungsform des vorgeschlagenen Verfahrens werden vom maschinellen Lernsystem 200 nicht nur die Objektcharakteristika gelernt, sondern es werden auch unterschiedliche Reflexionsarten bzw. Streuungen und Signalstärken der reflektierten Strahlen zum Erkennen unterschiedlicher Objekte gelernt.
  • Beispielsweise werden metallische Oberflächen von einer als Radarsensor ausgebildeten emittierenden Sensoreinrichtung 100 so gelernt, dass die Objekterkennungsvorrichtung 400 (z.B. eines Radarsensors) anschließend in der Lage ist, die metallischen Oberflächen korrekt zu detektieren. Zum Beispiel können dadurch Absorptionen an bestimmten Oberflächen kompensiert oder erkannt werden und es können daraus trotzdem bestimmte Objektcharakteristika abgeleitet werden, die in weiteren Umfeldsensoren oder in einer Umfeldsensorobjektfusionseinrichtung für eine verbesserte Objekterkennung verwendet werden können.
  • In weiteren Ausführungsformen erfolgt das Training des maschinellen Lernsystems 200 entweder statisch oder dynamisch. Bei einem statischen Training des maschinellen Lernsystems 200 befindet sich die emittierende Sensoreinrichtung 100 zur Bereitstellung der Sensierelementdaten an einer festen Position, während die zu lernenden Objekte um die emittierende Sensoreinrichtung 100 herum ebenfalls statisch angeordnet sind.
  • Bei einem dynamischen Training des maschinellen Lernsystems 200 werden hingegen entweder die emittierende Sensoreinrichtung 100 oder die zu trainierenden Objekte im Umfeld der emittierenden Sensoreinrichtung 100 dynamisch bewegt. Dies hat als wesentlichen Vorteil, dass innerhalb des maschinellen Lernsystems 200 auch ein Bildfluss von Objekten bzw. deren Reflexionen mitgelernt werden können.
  • In einer weiteren Variante des vorgeschlagenen Verfahrens kann für das Training des maschinellen Lernsystems 200 zusätzlich oder alternativ eine Merkmalskarte (engl. feature map) 110 verwendet werden (siehe 2). Beispielsweise bewegt sich in diesem Fall ein autonomes Fahrzeug mit bestimmten Umfeldsensoren in einem Stadtgebiet. Anhand der hochgenauen Position und Orientierung des Fahrzeugs (bereitgestellt z.B. mittels eines GNSS-basierten Sensors), und den auf der Merkmalskarte 110 befindlichen Objekten und deren Lagen relativ zum Fahrzeug bzw. den Umfeldsensoren erfolgt das Training des maschinellen Lernsystems 200 betreffend die Objekterkennung. Die Daten, Strukturen und Objekte der Merkmalskarte 110 werden dabei in das Umfeldsensor-Koordinatensystem transformiert, sodass die Sensoreinrichtung 100 jedesmal weiß, an welcher Position im eigenen Bild ein bestimmtes Objekt zu erwarten ist.
  • Mit den Daten der emittierenden Sensoreinrichtung 100 wird nun das eigene maschinelle Lernsystem 200 basierend auf den Relativpositionen der umliegenden Objekte und deren charakteristischen Reflexionen trainiert. Ein prinzipielles Blockschaltbild dieser Variante zeigt 2, wo erkennbar ist, dass Daten zum Trainieren des maschinellen Lernsystems 200 nunmehr auch von der Merkmalskarte 110 beigesteuert werden.
  • In weiteren Varianten des vorgeschlagenen Verfahrens wird das maschinelle Lernsystem 200 für eine verbesserte Objekterkennung bei unterschiedlichen Wetterlagen, unterschiedlichen Szenarien, sowie in unterschiedlichen Fahrzeugvarianten, usw. trainiert.
  • In einer weiteren Variante des vorgeschlagenen Verfahrens ist vorgesehen, dass das maschinelle Lernsystem 200 für unterschiedliche Objekte trainiert wird.
  • In Varianten der Objekterkennungsvorrichtung 400 kann vorgesehen sein, dass zum Bereitstellen der Reflexions- bzw. Absorptionsdaten von Objekten eine Tabelle mit Reflexions- bzw. Absorptionsfaktoren benutzt wird, die dann gemeinsam mit den Bilddaten verwendet wird. Alternativ kann vorgesehen sein, dass die Erkennungseinrichtung 20 hart codiert ist.
  • In einer Variante des vorgeschlagenen Verfahrens kann auch vorgesehen sein, dass zum Erkennen des Objekts aus den Sensierelementdaten Daten von bekannten Objekten verwendet werden, deren reflektierte Signalstärken bekannt sind.
  • In einer weiteren Variante des vorgeschlagenen Verfahrens wird das maschinelle Lernsystem 200 verwendet, um eine verbesserte Objekterkennung zu realisieren, indem Störungen im Sensierelement 10a ... 10n, die zu einer schlechten Objekterkennung führen würden, herausgefiltert werden. Beispielsweise wird das entsprechende maschinelle Lernsystem 200 darauf trainiert, Streuungen oder Störungen in den Sensierelementdaten herauszufiltern, bevor die eigentliche Objekterkennung mit den gefilterten Sensierelementdaten durchgeführt wird. Dazu kann beispielsweise aus einer vorangegangenen Messung einer bekannten Oberfläche eine erwartete Signalstärke mit einer gemessenen Signalstärke eines ähnlichen Objekts verglichen werden, wobei die Abweichung als eine Streuung interpretiert und deshalb verworfen wird.
  • In einer Variante der Objekterkennungsvorrichtung 400 wird die Merkmalskarte 110 auch im Regelbetrieb des Fahrzeugs verwendet, um die Objekterkennung zu verbessern (nicht dargestellt). Beispielsweise wird das Fahrzeug hochgenau lokalisiert (beispielsweise mittels eines GNSS-Sensors) und die umliegenden Strukturen in das entsprechende Umfeldsensor-Koordinatensystem transformiert. Die emittierende Sensoreinrichtung 100 „weiß“ nun, an welcher Bildposition bestimmte Objekte zu erwarten sind, wodurch das maschinelle Lernsystem 200 nunmehr in der Lage ist, diese Objekte mithilfe eines vorher auf diesen Objekten durchgeführten Trainings noch zuverlässiger zu erkennen.
  • Bei dieser Variante ist es weiterhin denkbar, dass innerhalb der Merkmalskarte 110 die Strukturen und Gebäude an einer bestimmten Position in der Welt mit bestimmten Reflexionsfaktoren für bestimmte Umfeldsensortypen hinterlegt sind. Auf diese Weise „weiß“ die Objekterkennungsvorrichtung 400 bereits vor der Erkennung eines Objekts, mit welchen Reflexionen und Störungen an diesem Objekt zu rechnen sind, und bezieht diese Informationen in die eigene Objekterkennung mittels des trainierten maschinellen Lernsystems 20 mit ein.
  • In einer weiteren Variante des vorgeschlagenen Verfahrens wird das maschinelle Lernsystem 200, welches aus den Rohsensorbilddaten Objekte erkennt, verwendet, um relevante Bildbereiche mit bestimmten Objekttypen zu erkennen. In einem nachgelagerten maschinellen Lernsystem 300 wird anschließend, wie heute üblich, die Objekterkennung basierend auf den Umfeldsensordaten durchgeführt, wobei auf die Bildbereiche mit bestimmten Objekttypen aus dem vorgeschalteten maschinellen Lernsystem 200 Bezug genommen wird. Auf diese Weise wird eine vorhandene Objekterkennung, welche auf Tags in Bilddaten trainiert wurde, mithilfe der relevanten Bildbereiche des vorgelagerten und vorgeschlagenen maschinellen Lernsystems 200 verbessert.
  • Eine prinzipielle Darstellung einer Konfiguration einer Objekterkennungsvorrichtung 400 für eine Lernphase ist in 3a dargestellt. Man erkennt, dass in diesem Fall sowohl das maschinelle Lernsystem 200 als auch das nachgeschaltete maschinelle Lernsystem 300 zum Trainieren der Erkennungseinrichtung 20 und der Zuordnungseinrichtung 21 verwendet werden.
  • Eine prinzipielle Darstellung einer Konfiguration der Objekterkennungsvorrichtung von 3a für eine nachfolgende Ausführungsphase ist in 3b dargestellt. Man erkennt, dass in diesem Fall die Ausgangsdaten der Sensoreinrichtung 100 an die Erkennungseinrichtung 20 und an die Zuordnungseinrichtung 21 zugeführt werden. Im Regelbetrieb der Objekterkennungsvorrichtung 400 sind somit die Erkennungseinrichtung 20 und die Zuordnungseinrichtung 21 hintereinandergeschaltet, die dann zur Objekterkennung aufeinander Bezug nehmen.
  • Die eemittierende Sensoreinrichtung 100 kann ein Radar-, Lidar- oder Ultraschallsensor sein.
  • 4 zeigt einen prinzipiellen Ablauf eines vorgeschlagenen Verfahrens zum Trainieren eines maschinellen Lernsystems 200 für eine Objekterkennungsvorrichtung 400.
  • In einem Schritt 500 werden Sensierelementdaten bereitgestellt.
  • In einem Schritt 510 wird ein Trainieren eines maschinellen Lernsystems mit den bereitgestellten Sensierelementdaten durchgeführt, wobei wenigstens ein Objekt aus den Sensierelementdaten erkannt wird, wobei zum Erkennen des Objekts Signalstärken der Sensierelementdaten zusammen mit einem zugeordneten Reflexions- und/oder Absorptionsfaktor des Objekts verwendet wird.
  • Die erfindungsgemäß konfigurierte Objekterkennungsvorrichtung 400 kann in einem autonomen Fahrzeug, einem Flugzeug, einer Drohne, einem Wasserfahrzeug, usw. eingesetzt werden. Dabei ist denkbar, dass die Objekterkennungsvorrichtung 400 direkt in der emittierenden Sensoreinrichtung 100 angeordnet ist oder auch extern davon in einer eigenen Verarbeitungseinrichtung (z.B. Steuergerät, nicht dargestellt).
  • Vorteilhaft kann eine Objekterkennung mittels der erfindungsgemäß konfigurierten Objekterkennungsvorrichtung 400 noch zuverlässiger und genauer durchgeführt werden. Indem die Objekterkennung direkt auf den Sensierelementdaten samt Signalstärken durchgeführt wird, können auch Störungen oder Reflexionen aus den Bilddaten herausgerechnet werden, bevor die eigentliche Objekterkennung durchgeführt wird.
  • Durch die verbesserte Objekterkennung mittels eines derart konfigurierten Umfeldsensors kann eine Sicherheit im Straßenverkehr vor allem im Betrieb autonomer Fahrzeuge deutlich erhöht sein.
  • Das Verfahren ist vorzugsweise als ein Computerprogramm ausgebildet, das Programmcodemittel zum Ausführen des Verfahrens auf den maschinellen Lernsystemen 200, 300 aufweist. Dabei können die genannten maschinellen Lernsysteme 200, 300 beispielsweise auf einem Zentralsteuergerät oder in der Cloud ausgebildet sein.
  • Obwohl die Erfindung vorgehend anhand von konkreten Ausführungsbeispielen beschrieben worden ist, kann der Fachmann vorgehend auch nicht oder nur teilweise offenbarte Ausführungsformen realisieren, ohne vom Kern der Erfindung abzuweichen.

Claims (14)

  1. Verfahren zum Trainieren eines maschinellen Lernsystems (200) für eine Objekterkennungsvorrichtung (200), mit den Schritten: - Bereitstellen von Sensierelementdaten; und - Trainieren eines maschinellen Lernsystems mit den bereitgestellten Sensierelementdaten, wobei wenigstens ein Objekt aus den Sensierelementdaten erkannt wird, wobei Signalstärken der Sensierelementdaten zusammen mit einem dem Objekt zugeordneten Reflexions- und/oder Absorptionsfaktor verwendet werden.
  2. Verfahren nach Anspruch 1, wobei das maschinelle Lernsystem (200) in einer definierten Umgebung trainiert wird, wobei von der emittierenden Sensoreinrichtung (100) ein bekanntes Objekt angestrahlt und vom Objekt reflektierte Strahlung empfangen wird, wobei das Objekt basierend auf der reflektierten Strahlung des Objekts erkannt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei zum Bereitstellen der Sensierelementdaten die emittierende Sensoreinrichtung (100) in Relation zu den Objekten statisch bleibt oder bewegt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Ermitteln des Objekts aus den Sensierelementdaten zusätzlich oder alternativ eine Merkmalskarte (110) verwendet wird, wobei ein Reflexions- und/oder ein Absorptionsfaktor von Objekten in der Merkmalskarte (110) hinterlegt sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Trainieren des maschinellen Lernsystems (200) mittels bei unterschiedlichen Wetterlagen bereitgestellten Sensierelementdaten durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei Störungen der Sensierelementdaten gefiltert werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Auswahl der Daten der erkannten Objekte zum Trainieren eines nachgeschalteten maschinellen Lernsystems (300) verwendet wird.
  8. Verfahren zum Durchführen einer Objekterkennung unter Verwendung eines nach einem der vorhergehenden Ansprüche trainierten maschinellen Lernsystems.
  9. Verfahren nach Anspruch 8, wobei zur Objekterkennung eine Merkmalskarte (110) verwendet wird, in der Absorptions- und oder Reflexionsfaktoren von Objekten hinterlegt sind.
  10. Verfahren nach Anspruch 8 oder 9, wobei das trainierte maschinelle Lernsystem (200) verwendet wird, um relevante Bildbereiche der Sensierelementdaten mit Objekttypen zu vergleichen, wobei in einem nachgelagerten maschinellen Lernsystem (300) eine Objekterkennung basierend auf den Sensierelementdaten durchgeführt wird, wobei auf die relevanten Bildbereiche Bezug genommen wird.
  11. Objekterkennungsvorrichtung (400), aufweisend ein maschinelles Lernsystem (200), das mit Hilfe eines Verfahrens nach einem der vorhergehenden Ansprüche trainiert ist.
  12. Objekterkennungsvorrichtung (400) nach Anspruch 11, wobei die Objekterkennungsvorrichtung (400) auf einer emittierenden Sensoreinrichtung (100) oder extern davon angeordnet ist.
  13. Objekterkennungsvorrichtung (400) aufweisend eine emittierende Sensoreinrichtung (100) und eine Merkmalskarte (110), wobei in der Merkmalskarte (110) Daten betreffend Reflexions- und/oder Absorptionsfaktoren von Objekten hinterlegt sind.
  14. Computerprogrammprodukt umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 10 auszuführen oder das auf einem maschinenlesbaren Speichermedium gespeichert ist.
DE102019217225.3A 2019-11-07 2019-11-07 Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung Pending DE102019217225A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019217225.3A DE102019217225A1 (de) 2019-11-07 2019-11-07 Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung
US17/083,839 US20210142216A1 (en) 2019-11-07 2020-10-29 Method of training a machine learning system for an object recognition device
CN202011228740.2A CN112784868A (zh) 2019-11-07 2020-11-06 用于训练用于对象识别设备的机器学习系统的方法、执行方法、对象识别设备及计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019217225.3A DE102019217225A1 (de) 2019-11-07 2019-11-07 Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung

Publications (1)

Publication Number Publication Date
DE102019217225A1 true DE102019217225A1 (de) 2021-05-12

Family

ID=75583795

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019217225.3A Pending DE102019217225A1 (de) 2019-11-07 2019-11-07 Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung

Country Status (3)

Country Link
US (1) US20210142216A1 (de)
CN (1) CN112784868A (de)
DE (1) DE102019217225A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950905A (zh) * 2021-02-01 2021-06-11 航天科技控股集团股份有限公司 一种基于物联网的加油站的预警系统及预警方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747307B2 (en) * 2013-11-18 2017-08-29 Scott Kier Systems and methods for immersive backgrounds
US10218882B2 (en) * 2015-12-31 2019-02-26 Microsoft Technology Licensing, Llc Feedback for object pose tracker
US10828959B2 (en) * 2017-09-15 2020-11-10 International Business Machines Corporation Controlling in-vehicle air quality
US20190176684A1 (en) * 2017-12-07 2019-06-13 Uber Technologies, Inc. Location Based Vehicle Headlight Control
US11150650B2 (en) * 2018-07-16 2021-10-19 Here Global B.V. Method, apparatus, and system for operating a vehicle based on vulnerable road user data
US11861458B2 (en) * 2018-08-21 2024-01-02 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
US11153721B2 (en) * 2018-12-27 2021-10-19 Intel Corporation Sensor network enhancement mechanisms

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950905A (zh) * 2021-02-01 2021-06-11 航天科技控股集团股份有限公司 一种基于物联网的加油站的预警系统及预警方法

Also Published As

Publication number Publication date
US20210142216A1 (en) 2021-05-13
CN112784868A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
EP3814720B1 (de) Lokalisierungssystem und verfahren zum betreiben desselben
DE102016007899B4 (de) Verfahren zum Betreiben einer Einrichtung zur Verkehrssituationsanalyse, Kraftfahrzeug und Datenverarbeitungseinrichtung
EP3526546B1 (de) Verfahren und system zur lokalisierung eines fahrzeugs
WO2016150590A1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
EP2402827A1 (de) Verfahren und Vorrichtung für eine Funktionsprüfung einer Objekt-Erkennungseinrichtung eines Kraftwagens
EP3671546A1 (de) Verfahren und system zum bestimmen von landmarken in einer umgebung eines fahrzeugs
DE102019105337A1 (de) Ultraschallmesssystem im Fahrzeug zur Erkennung und Klassifizierung von Objekten im Umfeld des Fahrzeugs mit Hilfe eines Deep-Learning Verfahrens
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102019216206A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs
EP3063732A1 (de) Situationsanalyse für ein fahrerassistenzsystem
DE102019115330A1 (de) Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
DE102018210375A1 (de) Fahrerassistenzsystem, Fahrzeug, Verfahren zum Betreiben des Fahrerassistenzsystems, Computerprogramm und computerlesbares Speichermedium
DE102019209457A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102017206344A1 (de) Fahrerassistenzsystem für ein Fahrzeug
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102019217225A1 (de) Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung
DE102018121866A1 (de) Verfahren zur Tiefenabschätzung von zweidimensionalen Sensordaten
DE102018128535A1 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
WO2017174227A1 (de) Verfahren zur bestimmung einer pose eines wenigstens teilautomatisiert fahrenden fahrzeugs mittels speziell ausgewählter und von einem backend-server übertragener landmarken
DE102018216561A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000