DE102018203137A1 - Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs - Google Patents

Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs Download PDF

Info

Publication number
DE102018203137A1
DE102018203137A1 DE102018203137.1A DE102018203137A DE102018203137A1 DE 102018203137 A1 DE102018203137 A1 DE 102018203137A1 DE 102018203137 A DE102018203137 A DE 102018203137A DE 102018203137 A1 DE102018203137 A1 DE 102018203137A1
Authority
DE
Germany
Prior art keywords
value
value range
range
neural network
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018203137.1A
Other languages
English (en)
Inventor
Christoph Schorn
Jaroslaw Topp
Stefan GEHRER
Lydia Gauerhof
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018203137.1A priority Critical patent/DE102018203137A1/de
Priority to CN201910154846.3A priority patent/CN110222813A/zh
Publication of DE102018203137A1 publication Critical patent/DE102018203137A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (30) zum Betreiben eines zumindest teilautonomen Fahrzeugs (10), umfassend die Schritte: Ermitteln einer Ausgangsgröße eines tiefen neuronalen Netzes. Die Ausgangsgröße des tiefen neuronalen Netzes wird abhängig von der erfassten Eingangsgröße und einer Mehrzahl die das tiefe neuronale Netz charakterisierenden Größen und wenigstens einer Aktivierungsfunktion (20) ermittelt. Die Aktivierungsfunktion (20) bildet Werte eines ersten Wertebereichs (21), die zwischen einem ersten vorgebbaren Wert (e) des ersten Wertebereichs (21) und einem zweiten vorgebbaren Wert (a) des ersten Wertebereichs (21) liegen, auf einen zweiten Wertebereich (22) linear ab. Ansteuern des Fahrzeugs (10) abhängig von der ermittelten Ausgangsgröße des tiefen neuronalen Netzes. Die Erfindung betrifft ferner ein Computerprogramm und eine Vorrichtung zum Ausführen des Verfahrens (30) und ein maschinenlesbares Speicherelement (12), auf dem das Computerprogramm gespeichert ist.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines zumindest teilautonomen Fahrzeugs. Ebenso betrifft die Erfindung ein Computerprogramm und ein maschinenlesbares Speicherelement.
  • Stand der Technik
  • Die DE 10 2016 212 700 A1 offenbart ein Verfahren zur Steuerung eines Fahrzeugs. Das Verfahren umfasst die Schritte: Wenn sich das Fahrzeug einem Ort nähert, Bereitstellen eines ortsbezogenen Modells, das ein typisches Verhalten eines verletzlichen Verkehrsteilnehmers an dem Ort abbildet. Bestimmen eines Kontextes, in dem sich der verletzliche Verkehrsteilnehmer momentan befindet. Der Kontext kann aus Messwerten einer Umfelderfassung bezüglich des verletzlichen Verkehrsteilnehmers gebildet werden. Ermitteln einer Vorhersage des Verhaltens des verletzlichen Verkehrsteilnehmers mit dem ortsbezogenen Modell unter Verwendung des bestimmten Kontextes, und Bestimmen einer Reaktion auf die ermittelte Vorhersage durch die Steuerungseinheit des Fahrzeugs.
  • Vorteile der Erfindung
  • Während des Betriebes eines neuronalen Netzes können Signalstörungen innerhalb des neuronalen Netzes auftreten, die zu einer Falschklassifikation oder falschen Vorhersagen führen können. Dies kann bei sicherheitskritischen Anwendungen schwerwiegende Folgen haben. Beispielsweise wenn das Verhalten des verletzlichen Verkehrsteilnehmers mittels des durch eine Signalstörung beeinträchtigten neuronalen Netzes falsch vorhergesagt wird. Das Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 hat demgegenüber den Vorteil, dass das neuronale Netz eine Aktivierungsfunktion aufweist, die Auswirkungen von Signalstörungen während des Betriebes des neuronalen Netzes reduzieren kann.
  • Vorteilhafte Weiterbildungen sind Gegenstand der unabhängigen Ansprüche.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt betrifft die Erfindung ein Verfahren zum Betreiben eines zumindest teilautonomen Fahrzeugs mit den Merkmalen des unabhängigen Anspruchs 1. Dieser Anspruch gibt unter anderem an, dass eine Aktivierungsfunktion Werte eines ersten Wertebereichs, die zwischen einem ersten vorgebbaren Wert des ersten Wertebereichs und einem zweiten vorgebbaren Wert des ersten Wertebereichs liegen, auf einen zweiten Wertebereich, insbesondere linear, abbildet. Ferner bildet die Aktivierungsfunktion Werte kleiner als der erste vorgebbare Wert des ersten Wertebereichs auf einen ersten vorgebbaren Wert des zweiten Wertebereichs und Werte größer als der zweite vorgebbare Wert des ersten Wertebereichs auf einen zweiten vorgebbaren Wert des zweiten Wertebereichs ab.
  • Der erste Wertebereich kann der Definitionsbereich der Aktivierungsfunktion sein. Unter einem linearen Abbilden von Werte eines ersten Wertebereichs auf einen zweiten Wertebereich kann verstanden werden, dass Werte aus dem ersten Wertebereich mittels einer linear ansteigenden Funktion auf den zweiten Wertebereich abgebildet werden, insbesondere, dass Werte des ersten Wertebereichs auf Werte des zweiten Wertebereichs, die proportional zu den Werten des ersten Wertebereichs sind, abgebildet werden.
  • Mit einer höheren Wahrscheinlichkeit sind Pfade mit einer geringen Aktivierung durch Störungen betroffen, als Pfade mit hohen Aktivierungen, da typischerweise in einem tiefen neuronalen Netz die Mehrzahl der Pfade eine geringe Aktivierung aufweisen. Ferner hat bei einem dieser Pfade mit einer geringen Aktivierung die Störung eine größere Auswirkung auf das tiefe neuronale Netz, da die Veränderung der Aktivierung durch die Störung zu einer höheren Aktivierung führen kann. Damit kann dieser Pfad mehr Einfluss auf das Ergebnis des tiefen neuronalen Netzes einnehmen und verfälschen, weil der Pfad ursprünglich durch eine geringe Aktivierung einen geringen Einfluss auf die Ermittlung der Ausgangsgröße des tiefen neuronalen Netzes hatte. Der vorteilhafte Effekt dieser Ausführungsform ist daher, dass mittels der Aktivierungsfunktion Störungen, die zu einer erhöhten Aktivierung führen, abgeschwächt werden können. Damit kann die Auswirkung einer Störung innerhalb des tiefen neuronalen Netzes eingedämmt bzw. korrigiert oder kompensiert werden und sich nicht negativ auf die Ermittlung der Ausgangsgröße des tiefen neuronalen Netzes auswirken. Deshalb führt diese Aktivierungsfunktion zu einer Erhöhung der Robustheit des tiefen neuronalen Netzes gegenüber Störungen. Der Vorteil der linearen Abbildung ist, dass einfacher Gradienten beim Anlernen des tiefen neuronalen Netzes ermittelt werden können und die Störung durch die lineare Abbildung keine Verstärkung erfahren kann.
  • Unter einer Störung kann ein systematisches oder zufälliges Eingreifen in das tiefe neuronale Netz verstanden werden, dass zu einer unerwünschten Beeinträchtigung oder zu einem fehlerhaften Verhalten, insbesondere Ermitteln einer falschen Ausgangsgröße, des tiefen neuronalen Netzes führen kann.
  • Besonders vorteilhaft ist, wenn Werte kleiner als der zweite vorgebbare Wert des ersten Wertebereichs mittels einer Rectified-Linear-Unit-(ReLu) Aktivierungsfunktion auf den zweiten Wertebereich abgebildet werden.
  • Vorteilhaft an dieser Ausführungsform ist, dass mittels der ReLu-Aktivierungsfunktion große negative Werte auf den Wert 0 abgebildet werden, wodurch Störungen im negativen Wertebereich abgeschnitten und nicht bei der Ermittlung der Ausgangsgröße des tiefen neuronalen Netzes berücksichtigt werden.
  • In einer vorteilhaften Weiterentwicklung des Verfahrens werden Werte größer als ein dritter vorgebbarer Wert des ersten Wertebereichs auf einen dritten vorgebbaren Wert des zweiten Wertebereichs, der kleiner als der zweite vorgebbare Wert des zweiten Wertebereichs ist, abgebildet. Der dritte vorgebbare Wert des ersten Wertebereichs ist größer als der zweite vorgebbare Wert des ersten Wertebereichs.
  • Der Vorteil dieser Weiterentwicklung ist, dass ungewöhnlich große Werte auf einen kleinen Wert, insbesondere 0, abgebildet werden können. Damit kann eine höhere Robustheit gegenüber Störungen bereitgestellt werden, weil schwerwiegende Störungen hiermit stark unterdrückt und deren Einfluss auf die Ausgangsgröße minimiert werden. Ferner wird damit ein weiterer Mechanismus bereitgestellt, um zu verhindern, dass sich Störungen in dem tiefen neuronalen Netz ausbreiten können.
  • In einem weiteren Aspekt betrifft die Erfindung ein Computerprogramm, welches eingerichtet ist, eines der vorherigen genannten Verfahren auszuführen, also Anweisungen umfasst, die einen Computer veranlassen, eines dieser genannten Verfahren mit all seinen Schritten auszuführen, wenn das Computerprogramm auf dem Computer abläuft, ein maschinenlesbares Speichermodul, auf welchem das Computerprogramm gespeichert ist und eine Vorrichtung, insbesondere den Computer, die eingerichtet ist, eines der genannten Verfahren auszuführen.
  • Ausführungsbeispiele der vorliegenden Erfindung sind in den beiliegenden Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Dabei zeigen:
  • Figurenliste
    • 1 eine schematische Darstellung eines zumindest teilautonomen Fahrzeugs;
    • 2 eine schematische Darstellung einer Aktivierungsfunktion;
    • 3 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • 1 zeigt eine schematische Darstellung eines zumindest teilautonomen Roboters, der im Ausführungsbeispiel gegeben ist durch ein zumindest teilautonomes Fahrzeug (10). In einem weiteren Ausführungsbeispiel kann der zumindest teilautonome Roboter ein Service-, Montage- oder stationärer Produktionsroboter sein. Das zumindest teilautonome Fahrzeug (10) kann eine Erfassungseinheit (11) umfassen. Die Erfassungseinheit (11) kann zum Beispiel eine Kamera sein, welche eine Umgebung des Fahrzeugs (10) erfasst. Die Erfassungseinheit (11) kann mit einem maschinellen Lernsystem (12) verbunden sein. Das maschinelle Lernsystem (12) ermittelt abhängig von einer bereitgestellten Eingangsgröße, z.B. mittels der Erfassungseinheit (11), und in Abhängigkeit einer Mehrzahl der das maschinelle Lernsystem charakterisierenden Größen eine Ausgangsgröße.
  • Die Ausgangsgröße kann an eine Aktorsteuerungseinheit (13) weitergeleitet werden. Die Aktorsteuerungseinheit (13) kann in Abhängigkeit der Ausgangsgröße des maschinellen Lernsystems (12) einen Aktor ansteuern. Der Aktor kann beispielsweise ein Motor des Fahrzeugs (10) sein.
  • In einem weiteren Ausführungsbeispiel umfasst die Aktorsteuerungseinheit (13) ein Freigabesystem. Das Freigabesystem entscheidet, ob ein Objekt, z.B. ein erfasster Roboter oder eine erfasste Person, Zugang zu einem Bereich hat, abhängig von der Ausgangsgröße des maschinellen Lernsystems (12). Vorzugsweise kann der Aktor abhängig von einer Entscheidung des Freigabesystems angesteuert werden.
  • Ferner umfasst das Fahrzeug (10) eine Recheneinheit (14) und ein maschinenlesbares Speicherelement (15).
  • Auf dem Speicherelement (15) kann ein Computerprogramm gespeichert sein, welches Befehle umfasst, die beim Ausführen der Befehle auf der Recheneinheit (14) dazu führen, dass die Recheneinheit (14) das erfindungsgemäße Verfahren ausführen kann. Denkbar ist auch, dass ein Downloadprodukt oder ein künstlich generiertes Signal, die jeweils das Computerprogramm umfassen können, nach Empfangen an einem Empfänger des Fahrzeugs (10), die Recheneinheit (14) veranlassen können, das erfindungsgemäße Verfahren auszuführen.
  • Das maschinelle Lernsystem (12) kann ein tiefes neuronales Netz umfassen. Das tiefe neuronale Netz ermittelt abhängig von einer Mehrzahl die das tiefe neuronale Netz charakterisierenden Größen und wenigstens einer vorgebbaren Aktivierungsfunktion eine Ausgangsgröße des maschinellen Lernsystems (12).
  • 2 zeigt eine schematische Darstellung einer Aktivierungsfunktion (20). Diese Aktivierungsfunktion (20) bildet einen ersten Wertebereich (21) auf einen zweiten Wertebereich (22) ab. Der erste Wertebereich (21) kann in 4 unterschiedliche Abschnitte (B1,B2,B3,B4) unterteilt werden.
  • Werte eines ersten Abschnittes (B1) des ersten Wertebereichs (21) werden linear auf Werte des zweiten Wertebereichs (22) abgebildet. Der erste Abschnitt (B1) kann zwischen zwei vorgebbaren Werten (e, a) des ersten Wertebereichs (21) liegen. Beispielsweise kann der erste vorgebbare Wert (e) des ersten Wertebereichs (21) e = 0 und der zweite vorgebbare Wert (a) des ersten Wertebereichs (21) a = 6 gewählt werden.
  • Werte eines zweiten Abschnittes (B2) des ersten Wertebereichs (21), die kleiner sind als der ersten vorgebbare Wert (e) des ersten Wertebereichs (21), werden auf einen ersten vorgebbaren Wert (ê) des zweiten Wertebereichs (22) abgebildet.
  • Werte eines dritten Abschnittes (B3) des ersten Wertebereichs (21), die größer als der zweite vorgebbare Wert (a) des ersten Wertebereichs (21) sind, werden auf einen zweiten vorgebbaren Wert (ä) des zweiten vorgebbaren Wertebereichs (22) abgebildet.
  • Zusätzlich können Werte eines vierten Abschnittes (B4), der Werte umfasst, die größer als ein dritter vorgebbarer Wert des ersten Wertebereichs (21) sind, auf einen weiteren vorgebbaren Wert des zweiten Wertebereichs (22), vorzugsweise auf den Wert 0, abgebildet werden. Dadurch können ungewöhnlich große Aktivierungen, die mit einer hohen Wahrscheinlichkeit durch eine Störung entstanden sind, gezielt durch dieses Abbildungsverhalten des vierten Abschnittes (B4) der Aktivierungsfunktion (20) gedämpft bzw. entfernt werden.
  • 3 zeigt eine schematische Darstellung des Verfahrens (30) zum Betreiben eines zumindest teilautonomen Fahrzeugs (10) abhängig von einer Ausgangsgröße des tiefen neuronalen Netzes.
  • Das Verfahren (30) beginnt mit Schritt 31. In Schritt 31 wird das tiefe neuronale Netz derart angelernt, dass das tiefe neuronale Netz eine vorgebbare Aufgabe löst. Die vorgebbare Aufgabe kann zum Beispiel sein, dass das tiefe neuronale Netz die Eingangsgrößen, insbesondere Kamerabilder, kategorisiert bzw. klassifiziert, segmentiert oder prädiziert. Das Anlernen des tiefen neuronalen Netzes wird bevorzugt mittels eines Gradiententabstiegsverfahrens und bereitgestellten Trainingsdaten durchgeführt. Die bereitgestellten Trainingsdaten können gelabelte Kamerabilder sein. Das tiefe neuronale Netz kann unter Verwendung der Aktivierungsfunktion (20) aus 2 angelernt werden. Alternativ kann während des Anlernens eine andere Aktivierungsfunktion, z.B. eine ReLu-Aktivierungsfunktion, verwendet werden, die nach dem Anlernen durch die Aktivierungsfunktion (20) aus 2 ersetzt wird.
  • Nachdem Schritt 31 abgeschlossen wurde, folgt Schritt 32. In Schritt 32 wird eine Eingangsgröße, insbesondere die mittels der Erfassungseinheit (11) erfasst wurde, dem tiefen neuronalen Netz bereitgestellt. Anschließenden ermittelt in Schritt 33 das tiefe neuronale Netz abhängig von der bereitgestellten Eingangsgröße eine Ausgangsgröße. Beim Ermitteln der Ausgangsgröße, wird in dem tiefen neuronalen Netz zumindest eine Aktivierungsfunktion (20) nach 2 verwendet. Dadurch kann eine Störung innerhalb des tiefen neuronalen Netzes mittels dieser Aktivierungsfunktion (20) derart abgeschnitten werden, dass sich die Störung nicht durch das tiefe neuronale Netz ausbreitet.
  • Nachdem Schritt 33 abgeschlossen wurde, folgt Schritt 34. In Schritt 34 wird in Abhängigkeit von der ermittelten Ausgangsgröße des tiefen neuronalen Netzes ein Aktor, insbesondere der Motoren des Fahrzeugs (10) mittels der Aktorsteuerungseinheit (13), angesteuert.
  • Damit endet das Verfahren (30). In einer zusätzlichen oder alternativen Ausführungsform kann das Verfahren (30) mit Schritt 31, 32, 33 oder 34 erneut durchgeführt werden, optional können diese Schritte mehrfach hintereinander wiederholt werden bis ein vorgebbares Abbruchkriterium erfüllt ist.
  • Es versteht sich, dass das Verfahren nicht nur wie beschrieben vollständig in Software, sondern auch in Hardware oder in einer Mischform aus Software und Hardware implementiert sein kann.
  • Es sei angemerkt, dass das Verfahren sowohl auf Wertebereiche mit ausschließlich positiven oder ausschließlich negativ oder mit positiven und negativen Werte anwendbar ist. Des Weiteren ist das Verfahren auch auf diskrete Wertebereiche anwendbar. Hierbei werden diskrete Werte des ersten Wertebereichs (21) mittels der Aktivierungsfunktion (20) auf diskrete Werte des zweiten Wertebereichs (22) abgebildet.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016212700 A1 [0002]

Claims (6)

  1. Verfahren zum Betreiben eines zumindest teilautonomen Fahrzeugs (10), umfassend die Schritte: - Ermitteln einer Ausgangsgröße eines tiefen neuronalen Netzes, wobei die Ausgangsgröße des tiefen neuronalen Netzes abhängig von einer erfassten Eingangsgröße und einer Mehrzahl die das tiefe neuronale Netz charakterisierenden Größen und wenigstens einer Aktivierungsfunktion (20) ermittelt wird, wobei die Aktivierungsfunktion (20) Werte eines ersten Wertebereichs (21), die zwischen einem ersten vorgebbaren Wert (e) des ersten Wertebereichs (21) und einem zweiten vorgebbaren Wert (a) des ersten Wertebereichs (21) liegen, auf einen zweiten Wertebereich (22) linear abbildet, wobei die Aktivierungsfunktion (20) Werte kleiner als der erste vorgebbare Wert (e) des ersten Wertebereichs (21) auf einen ersten vorgebbaren Wert (e) des zweiten Wertebereichs (22) abbildet und Werte größer als der zweite vorgebbare Wert (a) des ersten Wertebereichs (21) auf einen zweiten vorgebbaren Wert (ä) des zweiten Wertebereichs (22) abbildet, wobei der erste vorgebbare Wert (e) des ersten Wertebereichs (21) kleiner als der zweite vorgebbare Wert (a) des ersten Wertebereichs (21) ist und der erste vorgebbare Wert (ê) des zweiten Wertebereichs (22) kleiner als der zweite vorgebbare Wert (ä) des zweiten Wertebereichs (22) ist; - Ansteuern des Fahrzeugs (10) abhängig von der ermittelten Ausgangsgröße des tiefen neuronalen Netzes.
  2. Verfahren nach Anspruch 1, wobei Werte kleiner als der zweite vorgebbare Wert (a) des ersten Wertebereichs mittels einer Rectified Linear Unit (ReLu) Aktivierungsfunktion auf den zweiten Wertebereich (22) abgebildet werden.
  3. Verfahren nach einem der vorherigen Ansprüche, wobei Werte größer als ein dritter vorgebbarer Wert des ersten Wertebereichs (21) auf einen dritten vorgebbaren Wert des zweiten Wertebereichs (22), der kleiner als der zweite vorgebbare Wert (ä) des zweiten Wertebereichs (22) ist, abgebildet werden, und wobei der dritte vorgebbare Wert des ersten Wertebereichs (21) größer als der zweite vorgebbare Wert (a) des ersten Wertebereichs (21) ist.
  4. Computerprogramm, welches Befehle umfasst, die beim Ausführen auf einem Computer diesen veranlassen, dass das Verfahren nach einem der Ansprüche 1 bis 3 ausgeführt wird.
  5. Maschinenlesbares Speicherelement (15), auf dem das Computerprogramm nach Anspruch 4 gespeichert ist.
  6. Vorrichtung (14), die eingerichtet ist, eines der Verfahren nach einem der Ansprüche 1 bis 3 auszuführen.
DE102018203137.1A 2018-03-02 2018-03-02 Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs Pending DE102018203137A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018203137.1A DE102018203137A1 (de) 2018-03-02 2018-03-02 Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs
CN201910154846.3A CN110222813A (zh) 2018-03-02 2019-03-01 运行至少部分自动化的车辆的方法、设备和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018203137.1A DE102018203137A1 (de) 2018-03-02 2018-03-02 Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102018203137A1 true DE102018203137A1 (de) 2019-09-05

Family

ID=67622594

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018203137.1A Pending DE102018203137A1 (de) 2018-03-02 2018-03-02 Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs

Country Status (2)

Country Link
CN (1) CN110222813A (de)
DE (1) DE102018203137A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022064643A (ja) * 2020-10-14 2022-04-26 株式会社豊田中央研究所 モデル学習装置、制御装置、モデル学習方法、および、コンピュータプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016212700A1 (de) 2016-07-13 2018-01-18 Robert Bosch Gmbh Verfahren und System zur Steuerung eines Fahrzeugs

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2885269B2 (ja) * 1995-02-01 1999-04-19 日本電気株式会社 適応制御ろ波器
DE102012209384A1 (de) * 2012-06-04 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Durchführen einer adaptiven Regelung einer Stellung eines Stellglieds eines Stellgebers
CN103513618B (zh) * 2012-06-18 2016-01-27 新奥科技发展有限公司 工业过程的控制方法和设备
CN105035085B (zh) * 2015-07-31 2017-08-04 奇瑞汽车股份有限公司 自动跟车方法及装置
CN106777527A (zh) * 2016-11-24 2017-05-31 上海市特种设备监督检验技术研究院 基于神经网络模型的起重机小车运行能耗分析方法
CN107330845A (zh) * 2017-06-26 2017-11-07 中山大学 一种基于卷积神经网络的数字图像隐写分析方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016212700A1 (de) 2016-07-13 2018-01-18 Robert Bosch Gmbh Verfahren und System zur Steuerung eines Fahrzeugs

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Kamiura, N. [et.al.]: An improvement in weight-fault tolerance of feedforward neural networks. In: Proceedings 10th Asian Test Symposium, 2001, S. 359-364. - ISSN 1081-7735. https://doi.org/10.1109/ATS.2001.990309 [abgerufen am 28.09.2018] *
Laboratory of Computational Neuroscience (LCN): Components of an artificial neuron, Neural Networks Tutorial with Java Applets, Ecole polytechnique fédérale de Lausanne, 2018, S. 1 – 2. URL: http://lcn.epfl.ch:80/tutorial/english/aneuron/html/components.html, Archiviert in http://www.archive.org am 03.02.2018 [abgerufen am 28.09.2018] *
Liew, Shan Sung; Khalil-Hani, Mohamed; Bakhteri, Rabia: Bounded activation functions for enhanced training stability of deep neural networks on visual pattern recognition problems. In: Neurocomputing, 216, 2016, S. 718-734. - ISSN 0925-2312. https://doi.org/10.1016/j.neucom.2016.08.037 [abgerufen am 28.09.2018] *
Liu, Dan-Ching: A Practical Guide to ReLU, S. 1-8, 29.11.2017. URL: https://medium.com/tinymind/a-practical-guide-to-relu-b83ca804f1f7 [abgerufen am 28.09.2018] *
Robinson, Rob: Machine Learning Notebook, A Simple Neural Network - Transfer Functions, An insight into various activation functions, 08.03.2017. URL: https://mlnotebook.github.io/post/transfer-functions/ [abgerufen am 28.09.2018] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022064643A (ja) * 2020-10-14 2022-04-26 株式会社豊田中央研究所 モデル学習装置、制御装置、モデル学習方法、および、コンピュータプログラム
JP7336425B2 (ja) 2020-10-14 2023-08-31 株式会社豊田中央研究所 モデル学習装置、制御装置、モデル学習方法、および、コンピュータプログラム

Also Published As

Publication number Publication date
CN110222813A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
DE102018200724A1 (de) Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
DE102018109835A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
DE102018208763A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines maschinellen Lernsystems
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
EP1715352A2 (de) Verfahren und Vorrichtung zur Fehlerdiagnose mechatronischer Systeme
DE202018104373U1 (de) Vorrichtung, die zum Betreiben eines maschinellen Lernsystems eingerichtet ist
DE112020000448T5 (de) Kameraselbstkalibrierungsnetz
DE102018214198A1 (de) System zum Bewerten eines Bildes, Betriebsassistenzverfahren und Steuereinheit für eine Arbeitsvorrichtung sowie Arbeitsvorrichtung
DE102017213510A1 (de) Verfahren und Vorrichtung zum Erzeugen eines maschinellen Lernsystems, und virtuelle Sensorvorrichtung
WO2020126597A1 (de) Verfahren, computerprogramm, maschinenlesbares speichermedium sowie vorrichtung zur datenvorhersage
DE102018203137A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs
DE102016208178A1 (de) Softwaresegmentierungsverfahren, Softwaresegmentierungsvorrichtung und fahrzeugeigene Vorrichtung
DE102019202925A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
DE102017123205A1 (de) Konfiguration einer Kraftfahrzeug-Fahrerassistenzvorrichtung mit einem neuronalen Netzwerk im laufenden Betrieb
DE102018207220A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Detektieren eines Berechnungsfehlers oder einer Fehlfunktion
DE102017223264A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Aktors
DE102013206274A1 (de) Verfahren und Vorrichtung zum Anpassen eines nicht parametrischen Funktionsmodells
DE102019130484A1 (de) Verfahren und Vorrichtung zum Anlernen eines Ensembles von neuronalen Netzen
DE102019219730A1 (de) Verfahren und Vorrichtung zur modellbasierten Analyse
DE202019103233U1 (de) Vorrichtung zum Einstellen eines Hyperparameters
DE102018222264A1 (de) Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage
DE102019205081A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines tiefen neuronalen Netzes
DE102018203092A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems
DE102021211909A1 (de) Verfahren zum Steuern eines Agenten
DE102018205869A1 (de) Verfahren, Computersystem und Computerprogramm zum Steuern eines Aktors

Legal Events

Date Code Title Description
R163 Identified publications notified