DE102018213364A1 - Auf Deep Learning basierendes selbstfahrendes Fahrzeug, auf Deep Learning basierende Selbstfahr-Steuervorrichtung und auf Deep Learning basierendes Selbstfahr-Steuerverfahren - Google Patents

Auf Deep Learning basierendes selbstfahrendes Fahrzeug, auf Deep Learning basierende Selbstfahr-Steuervorrichtung und auf Deep Learning basierendes Selbstfahr-Steuerverfahren Download PDF

Info

Publication number
DE102018213364A1
DE102018213364A1 DE102018213364.6A DE102018213364A DE102018213364A1 DE 102018213364 A1 DE102018213364 A1 DE 102018213364A1 DE 102018213364 A DE102018213364 A DE 102018213364A DE 102018213364 A1 DE102018213364 A1 DE 102018213364A1
Authority
DE
Germany
Prior art keywords
deep learning
self
control
vehicle
learning algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018213364.6A
Other languages
English (en)
Inventor
Hae Sueng Lim
Seong Hee JEONG
Jae Eun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HL Klemove Corp
Original Assignee
Mando Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mando Corp filed Critical Mando Corp
Publication of DE102018213364A1 publication Critical patent/DE102018213364A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Die vorliegenden Ausführungsbeispiele beziehen sich auf ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren, und insbesondere auf ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren, die in der Lage sind, eine Selbstfahrsteuerung in einem erforderlichen Grad in einer erforderlichen Situation durch genaues Erkennen und Unterscheiden zwischen einem Steuerzielobjekt, auf das Bezug genommen wird, während das selbstfahrende Fahrzeug fährt, und einer Struktur, auf die nicht Bezug genommen wird, zuverlässig durchzuführen.

Description

  • QUERVERWEIS AUF BEZOGENE ANMELDUNG
  • Diese Anmeldung beansprucht die Priorität der koreanischen Patentanmeldung Nr. 10-2017-0100429 , die am 8. August 2017 eingereicht wurde und die hierdurch für alle Zwecke so einbezogen wird, als ob sie hier vollständig offenbart wäre.
  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Offenbarung bezieht sich auf eine Selbstfahr-Steuertechnologie.
  • Beschreibung des Standes der Technik
  • In jüngerer Zeit wurde mit der Entwicklung der Fahrzeug-Steuertechnologie eine Selbstfahr-Steuertechnologie, bei der ein Fahrzeug ohne die Betätigung eines Fahrers selbst fährt, entwickelt.
  • Die Selbstfahr-Steuertechnologie erfasst Objekte nahe eines entsprechenden Fahrzeugs und steuert einen Fahrzustand und dergleichen des entsprechenden Fahrzeugs gemäß dem Verhalten der erfassten Objekte unter Verwendung des Erfassungsergebnisses.
  • Die gegenwärtige Selbstfahr-Steuertechnologie kann die Typen von Objekten durch Analyse von von vorausbefindlichen Objekten erfassten Signalen nicht genau klassifizieren, und somit ist eine Selbstfahrsteuerung nur unter spezifischen Bedingungen zulässig oder schwierig zu implementieren. Obgleich ein zuverlässiges autonomes Steuerziel (d. h., ein Objekt wie ein Fahrzeug oder dergleichen, das berücksichtigt wird, wenn ein entsprechendes Fahrzeug selbst fährt) erfasst wird, ist die Zuverlässigkeit der Erfassung nicht zufriedenstellend.
  • KURZFASSUNG DER ERFINDUNG
  • Bei dem vorgeschriebenen Hintergrund betreffen Ausführungsbeispiele der vorliegenden Offenbarung ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren, die in der Lage sind, eine Selbstfahrsteuerung mit einem erforderlichen Grad in einer erforderlichen Situation durchzuführen, indem genau erkannt und unterschieden wird zwischen einem Steuerzielobjekt (z. B. einem vorausfahrenden Fahrzeug, einem Fußgänger, usw.), auf das Bezug genommen wird, während ein selbstfahrendes Fahrzeug fährt, und Strukturen (zum Beispiel eine Überführung, eine Deckplatte, usw.), auf die nicht Bezug genommen wird.
  • Ausführungsbeispiele der vorliegenden Offenbarung sehen auch ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren vor, die in der Lage sind, ein Objektunterscheidungsvermögen unter Verwendung eines Sensorsignals eines Radarsensors oder dergleichen zu verbessern und ein Selbstfahren mit hoher Zuverlässigkeit zu ermöglichen.
  • Ausführungsbeispiele der vorliegenden Offenbarung sehen auch ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren vor, die in der Lage sind, eine Selbstfahrsteuerung zu ermöglichen, die sogar die Fahrgewohnheiten eines Fahrers berücksichtigen.
  • Ausführungsbeispiele der vorliegenden Offenbarung sehen auch ein auf Deep Learning basierendes selbstfahrendes Fahrzeug, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren vor, die in der Lage sind, eine Erkennung und Unterscheidung eines Steuerzielobjekts mit einer geringeren Verarbeitungslast, einer schnelleren Verarbeitungsgeschwindigkeit und einer genaueren Erkennungsdurchführung zu ermöglichen.
  • Gemäß einem Aspekt können die vorliegenden Ausführungsbeispiele eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung vorsehen, welche enthält: eine Deep-Learning-Algorithmus-Ausführungseinheit, die konfiguriert ist zum Ausgeben eines Ergebnisses des Ausführens eines Deep-Learning-Algorithmus auf ein Überwachungssignal, das durch Überwachen einer Peripherie eines Fahrzeugs erhalten wurde; eine Selbstfahr-Steuereinheit, die konfiguriert ist zum, wenn das Fahrzeug selbst fährt, Steuern des Selbstfahrens des Fahrzeugs auf der Basis des Ergebnisses der Ausführung des Deep-Learning-Algorithmus; und eine Deep-Learning-Verarbeitungseinheit, die konfiguriert ist zum Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen.
  • Gemäß einem anderen Aspekt können die vorliegenden Ausführungsbeispiele ein auf Deep Learning basierendes selbstfahrendes Fahrzeug vorsehen, welches enthält: einen Sensor, der konfiguriert ist zum Überwachen einer Peripherie des Fahrzeugs und zum Ausgeben eines Überwachungssignals; eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung, die konfiguriert ist zum Durchführen eines Deep-Learning-Algorithmus bei dem Überwachungssignal und, wenn das Fahrzeug selbst fährt, Ausgeben eines Steuersignals zum Steuern des Selbstfahrens des Fahrzeugs auf der Grundlage eines Ergebnisses der Ausführung des Deep-Learning-Algorithmus, und Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen; und eine Antriebsvorrichtung, die konfiguriert ist zum Antreiben des Fahrzeugs gemäß dem Steuersignal.
  • Gemäß noch einem anderen Aspekt können die vorliegenden Ausführungsbeispiele ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren vorsehen, welches enthält: Ausgeben eines Ergebnisses des Ausführens eines Deep-Learning-Algorithmus bei einem Überwachungssignal, das durch Überwachen einer Peripherie eines Fahrzeugs erhalten wurde, wenn das Fahrzeug selbst fährt, Steuern des Selbstfahrens des Fahrzeugs gemäß dem Ergebnis der Ausführung des Deep-Learning-Algorithmus; und Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen.
  • Figurenliste
  • Die vorgenannten und andere Aspekte, Merkmale und Vorteil der vorliegenden Offenbarung werden ersichtlicher anhand der folgenden detaillierten Beschreibung, die in Verbindung mit den begleitenden Zeichnungen gegeben wird, in denen:
    • 1 und 2 Ansichten sind, die ein auf Deep Learning basierendes selbstfahrendes Fahrzeug nach den vorliegenden Ausführungsbeispielen zeigen;
    • 3 ein Blockschaltbild eines auf Deep Learning basierenden selbstfahrenden Fahrzeugs nach den vorliegenden Ausführungsbeispielen ist;
    • 4 ein Blockschaltbild einer auf Deep Learning basierenden Selbstfahr-Steuervorrichtung nach den vorliegenden Ausführungsbeispielen ist;
    • 5 eine Ansicht ist, die einen Deep-Learning-Algorithmus zum Steuern eines auf Deep Learning basierenden Selbstfahrens nach den vorliegenden Ausführungsbeispielen zeigt;
    • 6 eine beispielhafte Ansicht eines neuralen Deep-Learning-Netzwerks eines Deep-Learning-Algorithmus zum Steuern von auf Deep Learning basierendem Selbstfahren nach den vorliegenden Ausführungsbeispielen ist;
    • 7 ein Flussdiagramm eines auf Deep Learning basierenden Selbstfahr-Steuerverfahrens nach den vorliegenden Ausführungsbeispielen ist; und
    • 8 ein Flussdiagramm einer Deep-Learning-Algorithmus-Änderungsoperation (Lernoperation) bei dem auf Deep Learning basierenden Selbstfahr-Steuerverfahren nach den vorliegenden Ausführungsbeispielen ist.
  • DETAILLIERTE BESCHREIBUNG DER EXEMPLARISCHEN AUSFÜHRUNGSBEISPIELE
  • Nachfolgend werden Ausführungsbeispiele der vorliegenden Offenbarung im Einzelnen mit Bezug auf die begleitenden Zeichnungen beschrieben. Hinsichtlich des Hinzufügens von Bezugszahlen zu Elementen in jeder Figur ist festzustellen, dass die gleichen Elemente, wenn möglich, durch die gleichen Bezugszahlen bezeichnet werden, obgleich sie in verschiedenen Zeichnungen gezeigt sind. Weiterhin wird in der folgenden Beschreibung der vorliegenden Offenbarung eine detaillierte Beschreibung von hierin enthaltenen bekannten Funktionen und Konfigurationen weggelassen, wenn bestimmt wird, dass die Beschreibung die Klarheit des Gegenstands der vorliegenden Erfindung beeinträchtigen könnte.
  • Zusätzlich können hier Begriffe wie erste, zweite, A, B, (a), (b) oder dergleichen verwendet werden, wenn sie Komponenten der vorliegenden Offenbarung beschreiben. Jeder dieser Begriffe wird nicht verwendet, um das Wesen, die Reihenfolge, die Sequenz oder die Anzahl einer entsprechenden Komponente zu definieren, sondern lediglich verwendet, um die entsprechende Komponente von anderen Komponenten zu unterscheiden. Es ist festzustellen, dass, wenn in der Beschreibung wiedergegeben ist, dass eine Komponente mit einer anderen Komponente „verbunden“, „gekoppelt“ oder „vereinigt“ ist, die erstgenannte direkt mit der zweitgenannten „verbunden“, „gekoppelt“ oder „vereinigt“ sei kann oder mit der zweitgenannten über eine andere Komponente „verbunden“, „gekoppelt“ oder „vereinigt“ sein kann.
  • Die 1 und 2 sind Ansichten, die ein auf Deep Learning basierendes Selbstfahrendes Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen zeigen.
  • Gemäß den 1 und 2 kann das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen, das ein Fahrzeug ist, das ohne eine Fahrerbetätigung selbst fährt, durch Prüfen von Straßenbedingungen automatisch fahren, selbst wenn ein Fahrer eine Bremse, ein Lenkrad, ein Gaspedal, usw. nicht steuert.
  • Das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen kann ein fahrerloses Auto enthalten.
  • Das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen kann durch Verwendung verschiedener Anwendungssteuertechnologien, die angewendet werden, um ein intelligentes Auto zu implementieren, selbst fahren.
  • Beispielsweise können eine Technologie zum automatischen Aufrechterhalten eines Abstands zwischen Fahrzeugen, ein Totpunkt-Erfassungssystem, ein autonomes Notbremssystem, ein Spurabweichungs-Warnsystem, ein Spurhalte-Unterstützungssystem, eine fortschrittliche intelligente Fahrsteuerung (ASCC) (eine Technologie, die einem Fahrzeug ermöglicht, mit einer gesetzten Geschwindigkeit zu fahren, während ein Abstand zu den vorausfahrenden Fahrzeugen eingehalten wird), eine Verkehrsstauunterstützung und dergleichen bei dem selbstfahrenden Fahrzeug 100 angewendet werden.
  • In dieser Beschreibung bezieht sich ein selbstfahrendes Fahrzeug 100 auf ein Fahrzeug, bei dem zumindest eine der vorbeschriebenen Funktionen zum automatischen Bestimmen der Geschwindigkeit oder des Lenkens ohne Fahrereingreifen angewendet wird. Das heißt, das selbstfahrende Fahrzeug 100 nach der vorliegenden Offenbarung enthält ein Fahrzeug, das in der Lage ist, einige Funktionen autonom zu steuern (z. B. Beschleunigung oder Verlangsamung) sowie ein Fahrzeug, das in der Lage ist, das gesamte Verhalten autonom zu steuern. Das heißt, die vorliegende Offenbarung kann auch bei einem Fahrzeug angewendet werden, das eine Fahrsteuerung durchführt. In dieser Beschreibung werden derartige Fahrzeuge insgesamt als ein selbstfahrendes Fahrzeug bezeichnet.
  • Derartige Steuertechnologien mit verschiedener Anwendung erfordern Technologien zum genauen Erfassen von Objekten nahe des selbstfahrenden Fahrzeugs 100.
  • Die Objekte (d. h., erfassten Objekte) nahe des selbstfahrenden Fahrzeugs 100 gemäß den vorliegenden Ausführungsbeispielen können andere vorausfahrende Fahrzeuge 110a und 110b, eine Struktur 110c nahe einer Straße, einen Fußgänger, usw. enthalten.
  • Das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen führt eine Selbstfahrsteuerung durch, d. h., sendet Sensorstrahlen, erfasst in der Nähe befindliche Objekte auf der Grundlage der empfangenen Signale unter Verwendung von Sensoren, und steuert seinen eigenen Fahrzustand gemäß dem Verhalten der erfassten Objekte.
  • Die in dem selbstfahrenden Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen installierten Sensoren können einen oder mehrere von einem Radarsensor (RS), einem Ultraschallsensor (US), einem Sichtsensor (VS), einem Lasersensor und einem Lidar-Sensor enthalten.
  • Verschiedene Typen und eine unterschiedliche Anzahl von Sensoren können an verschiedenen Positionen des selbstfahrenden Fahrzeugs 100 installiert sein.
  • Als ein Beispiel für die Selbstfahrsteuerung unter Verwendung von Objekterfassung sollte, wenn ein Fahrzeug 110a, das auf einer Fahrspur, auf der das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen fährt, vorausfährt, erfasst wird, das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen das erfasste Fahrzeug 110a als ein Steuerzielobjekt betrachten und die Geschwindigkeit, das Lenken und dergleichen des selbstfahrenden Fahrzeugs 100 entsprechend der Geschwindigkeit des Steuerzielobjekts steuern.
  • Als ein anderes Beispiel schließt, wenn eine einfache Straßenstruktur 110c wie eine Überführung, eine Deckplatte und ein Straßenzeichen, das sich voraus an einer Straße befindet, auf der das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen fährt, das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen die erfasste Straßenstruktur 110c als das Steuerzielobjekt aus und verlangsamt oder bremst nicht angesichts der Straßenstruktur 110c.
  • Als noch ein anderes Beispiel kann, wenn eine Straßenstruktur 110c wie ein Geschwindigkeitserzwingungssensor voraus auf der Straße, auf der das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen fährt, erfasst wird, das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen die Geschwindigkeit in Anbetracht des Orts und des Abstands von dem erfassten Geschwindigkeitserzwingungssensor steuern.
  • Als noch ein anderes Beispiel kann, wenn ein Fußgänger nahe einer Straße erfasst wird, auf der das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen fährt, das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen die Geschwindigkeit, das Lenken und dergleichen in Anbetracht des Orts und des Abstands von dem erfassten Fußgänger steuern.
  • Wie vorstehend beschrieben ist, besteht, um eine genaue Selbstfahrsteuerung durchzuführen, die Notwendigkeit für das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen, die Typen von Objekten genau zu klassifizieren und zu erfassen, sowie in der Nähe befindliche Objekte genau zu erfassen, um verschiedene Fahrzeugverhaltens-Steueroperationen (z. B. Geschwindigkeitssteuerung wie Beschleunigung und Verlangsamung, Bremssteuerung, Lenksteuerung und dergleichen) nur dann genau durchzuführen, wenn dies absolut erforderlich ist.
  • Jedoch kann eine herkömmliche Sensortechnologie die Anwesenheit von Abständen von und Orte von nahe befindlichen Objekten erfassen, aber kann nicht die Typen von Objekten genau klassifizieren und erfassen, und kann auch nicht das Erfassungsergebnis für die Steuerung des Fahrzeugverhaltens anwenden.
  • Somit kann das selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen die Typen der in der Nähe befindlichen Objekte auf der Grundlage von Deep Learning genau klassifizieren, ein Zielobjekt TAR, das die Selbstfahrsteuerung beeinflusst, auf der Grundlage der Klassifizierung auswählen und die Selbstfahrsteuerung in einem genauen Zustand durch einen genauen Grad der Steuerung durchführen.
  • Genauer gesagt, dass selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen führt einen Deep-Learning-Algorithmus aus durch Verwendung eines neuralen Deep-Learning-Netzwerks und führt dann die Selbstfahrsteuerung auf der Grundlage des Ausführungsergebnisses durch.
  • Um die Genauigkeit des Ergebnisses der Ausführung des Deep-Learning-Algorithmus unter Verwendung des neuralen Deep-Learning-Netzwerks zu erhöhen, muss der Deep-Learning-Algorithmus trainiert werden.
  • Das auf Deep Learning basierende selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen kann den Deep-Learning-Algorithmus unter Verwendung von Fahrer-Fahrinformationen trainieren, die während des Fahrens auf der Straße gesammelt werden, ohne dass das Sammeln oder Verarbeiten separater Trainingsdaten erforderlich ist. Demgemäß kann das auf Deep Learning basierende selbstfahrende Fahrzeug 100 nach dem vorliegenden Ausführungsbeispiel leicht die Genauigkeit des Ergebnisses des Ergebnisses des Ausführens des Deep-Learning-Algorithmus durch Erhöhen des Grads des Trainings des Deep-Learning-Algorithmus durch das kontinuierliche Fahren des Fahrers auf der Straße verbessern.
  • Da das auf Deep Learning basierende selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen den Deep-Learning-Algorithmus unter Verwendung der Fahrer-Fahrinformationen trainiert, ist es möglich, die Selbstfahrsteuerung durchzuführen, die sogar Fahrgewohnheiten eines Fahrers berücksichtigt.
  • 3 ist ein Blockschaltbild des auf Deep Learning basierenden selbstfahrenden Fahrzeugs nach den vorliegenden Ausführungsbeispielen.
  • Gemäß 3 kann das auf Deep Learning basierende selbstfahrende Fahrzeug 100 nach den vorliegenden Ausführungsbeispielen enthalten: Einen Sensor 310, der konfiguriert ist zum Überwachen einer Peripherie des Fahrzeugs 100 und zum Ausgeben eines Überwachungssignals, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320, die konfiguriert ist zum Ausführen eines Deep-Learning-Algorithmus an dem Überwachungssignal, zum Ausgeben eines Steuersignals zum Steuern des Selbstfahrens des Fahrzeugs 100 auf der Grundlage eines Ergebnisses der Ausführung des Deep-Learning-Algorithmus, wenn das Selbstfahren durchgeführt wird, und zum Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen eines Fahrers 330, wenn das Selbstfahren nicht durchgeführt wird, und eine Antriebsvorrichtung 320, die konfiguriert ist, ein Antreiben des Fahrzeugs gemäß dem Steuersignal durchzuführen, und dergleichen.
  • Hier kann die Antriebsvorrichtung 320 eine oder mehrere von einer Geschwindigkeitseinstellvorrichtung, einer Lenkvorrichtung, einer Bremsvorrichtung, und dergleichen enthalten.
  • Durch die Ausführung des Deep-Learning-Algorithmus bei dem Überwachungssignal kann die auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320 bestimmen, ob ein Objekt vor dem Fahrzeug ein Steuerzielobjekt TAR für die Selbstfahrsteuerung auf der Grundlage des Überwachungssignals ist, und kann ein Deep-Learning-Algorithmus-Ausführungsergebnis enthaltend eine/eines oder mehrere von der Anwesenheit oder Abwesenheit von Steuerung, des Grads der Berechnungssteuerung (z. B. des Grads der Beschleunigung/Verlangsamungssteuerung entsprechend der Fahrzeug-Geschwindig-keits-Steuerinformationen), ein Steuerzielobjekt-Erkennungsergebnis, und dergleichen erwerben.
  • Die auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320 kann einen Deep-Learning-Trainingsprozess durchführen, wenn das Selbstfahren nicht durchgeführt wird.
  • Zu diesem Zweck kann die auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320 den Deep-Learning-Trainingsprozess enthaltend das Vergleichen des in dem Ergebnis des Ausführens des Deep-Learning-Algorithmus enthaltenen Grads der Berechnungssteuerung mit dem in den Fahrer-Fahrinformationen des Fahrers 330 enthaltenen Grads der Fahrereingabesteuerung, das Berechnen eines Fehlerwerts (einer Differenz zwischen dem Grad der Berechnungssteuerung und dem Grad der Fahrereingabesteuerung) gemäß einem Ergebnis des Vergleichs, und das Einstellen von Wichtungen in einem neuralen Deep-Learning-Netzwerk, das mit der Ausführung des Deep-Learning-Algorithmus assoziiert ist, auf der Grundlage des Fehlerwerts durchführen.
  • Der Sensor 310 kann einen oder mehrere von beispielsweise einem Radar-Sensor, einem Ultraschall-Sensor, einem Laser-Sensor, einem Lidar-Sensor und einem Sicht-Sensor enthalten.
  • 4 ist ein Blockschaltbild einer auf Deep Learning basierenden Selbstfahr-Steuervorrichtung nach den vorliegenden Ausführungsbeispielen.
  • 5 ist eine Ansicht, die einen Deep-Learning-Algorithmus zum Steuern des auf Deep Learning basierenden Selbstfahrens nach den vorliegenden Ausführungsbeispielen zeigt.
  • 6 ist eine beispielhafte Ansicht eines neuralen Deep-Learning-Netzwerks des Deep-Learning-Algorithmus zum Steuern des auf Deep Learning basierenden Selbstfahrens nach den vorliegenden Ausführungsbeispielen.
  • Gemäß 4 kann die auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320 nach den vorliegenden Ausführungsbeispielen eine Deep-Learning-Algorithmus-Ausführungseinheit 410 enthalten, die konfiguriert ist zum Ausgeben des Ergebnisses des Ausführens des Deep-Learning-Algorithmus bei dem durch Überwachen der Peripherie des Fahrzeugs erhaltenen Überwachungssignals, eine Selbstfahr-Steuereinheit 420, die konfiguriert ist zum Steuern des Selbstfahrens des Fahrzeugs auf der Grundlage des Ergebnisses der Ausführung des Deep-Learning-Algorithmus, eine Deep-Learning-Verarbeitungseinheit 430, die konfiguriert ist zum Ändern des Deep-Learning-Algorithmus mit Bezug auf die Fahrer-Fahrinformationen des Fahrers 330, und dergleichen enthalten.
  • Die auf Deep Learning basierende Selbstfahr-Steuervorrichtung 320 kann als eine einzelne elektronische Steuereinheit (ECU) implementiert sein.
  • In einigen Fällen können die Deep-Learning-Algorithmus-Ausführungseinheit 410, die Selbstfahr-Steuereinheit 420, die Deep-Learning-Verarbeitungseinheit 430 und dergleichen in der auf Deep Learning basierenden Selbstfahr-Steuervorrichtung 320 als zwei oder mehr elektronische Steuereinheiten implementiert sein.
  • Beispielsweise können die Deep-Learning-Algorithmus-Ausführungseinheit 410 und die Deep-Learning-Verarbeitungseinheit 430 als eine ECU implementiert sein, und die Selbstfahr-Steuereinheit 420 kann als die andere ECU implementiert sein.
  • Wenn bestimmt wird, dass die Beschleunigungs-/Verlangsamungs-Steuerung für das Fahrzeug erforderlich ist, kann die Selbstfahr-Steuereinheit 420 den Grad der Beschleunigung-/Verlangsamungs-Steuerung als einen Zielgrad für die Steuerung des Fahrzeugs setzen und dann die Beschleunigung/Verlangsamung des Fahrzeugs steuern. Das heißt, die Selbstfahr-Steuereinheit 420 führt eine Verhaltenssteueroperation enthaltend eine Operation für die Antriebsvorrichtung des Fahrzeugs auf der Grundlage des durch das Ausführungsergebnis der Deep-Learning-Algorithmus-Ausführungs-einheit 410 erhaltenen Grads der Berechnungssteuerung durch.
  • Die Deep-Learning-Algorithmus-Ausführungseinheit 410 führt den Deep-Learning-Algorithmus bei einem durch den Sensor 310, der eine Peripherie des Fahrzeugs überwacht, erhaltenen Signal oder einem durch Verarbeitung des Signals erhaltenen Überwachungssignal aus.
  • Das Überwachungssignal kann in Abhängigkeit von dem Typ des Sensors 310 variieren.
  • Wenn beispielsweise der Sensor 310 ein Radar-Sensor ist, kann das Überwachungssignal ein Radar-Signal sein. Als ein anderes Beispiel kann, wenn der Sensor 310 ein Lidar-Sensor ist, das Überwachungssignal ein Lidar-Signal sein. Als noch ein anderes Beispiel kann, wenn der Sensor 310 ein Kamera-Sensor ist, das Überwachungssignal ein Kamera-Signal sein. Beispielsweise kann das Überwachungssignal ein Signal sein, das durch zumindest zwei oder mehr der vorbeschriebenen Sensoren 310 erzeugt wurde.
  • Durch die Ausführung des Deep-Learning-Algorithmus bei dem Überwachungssignal kann die Deep-Learning-Algorithmus-Ausführungseinheit 407 bestimmen, ob ein Objekt vor dem Fahrzeug ein Steuerzielobjekt für eine Selbstfahrsteuerung auf der Grundlage des Überwachungssignals ist, und kann ein Deep-Learning-Algorithmus-Ausführungsergebnis enthaltend eine/eines oder mehrere von der Anwesenheit oder Abwesenheit der Steuerung, des Grads der Berechnungssteuerung ein Steuerzielobjekt-Erkennungsergebnis und dergleichen sein.
  • Der Deep-Learning-Algorithmus verwendet ein neurales Deep-Learning-Netzwerk 500.
  • Der Deep-Learning-Algorithmus, der das neurale Deep-Learning-Netzwerk 500 verwendet, kann durch einen Prozessor entsprechend der Deep-Learning-Algorithmus-Ausführungseinheit 410 ausgeführt werden (oder ablaufen).
  • Auch können Daten hinsichtlich des neuralen Deep-Learning-Netzwerks 500, Daten hinsichtlich des Deep-Learning-Algorithmus unter Verwendung des neuralen Deep-Learning-Netzwerks 500 und dergleichen in einem Speicher gespeichert werden, der innerhalb oder außerhalb der Deep-Learning-Algorithmus-Ausführungseinheit 410 angeordnet ist.
  • Es wird beispielsweise angenommen, dass der Sensor 310 einen Radar-Sensor enthält. Wie in 5 gezeigt ist, kann der Deep-Learning-Algorithmus ein durch einen Radar-Signal-Prozess verarbeitetes Radar-Signal, durch FourierTransformation verarbeitete Daten, Kontextinformationen hinsichtlich umgebender Bedingungen und dergleichen durch eine Eingangsschicht empfangen, die empfangenen Daten, Informationen und dergleichen durch das neurale Deep-Learning-Netzwerk 500 durchlassen und kann das Deep-Learning-Algorithmus-Ausführungsergebnis zu der Ausgabeschicht ausgeben.
  • Beispielsweise kann das Deep-Learning-Algorithmus-Ausführungsergebnis, d. h., ein zu einem Ausgabeknoten Nout der Ausgabeschicht ausgegebener Wert eine/einen/eines oder mehrere von der Anwesenheit oder Abwesenheit einer Steuerung zum Selbstfahren, dem Grad der Berechnungssteuerung zum Selbstfahren, einem Steuerzielobjekt-Erkennungsergebnis, usw. enthalten.
  • Daten hinsichtlich des neuralen Deep-Learning-Netzwerks 500 werden innerhalb oder außerhalb der Deep-Learning-Algorithmus-Ausführungseinheit 410 gespeichert.
  • Gemäß 6 kann das neurale Deep-Learning-Netzwerk 500 eine Eingangsschicht mit mehreren Eingangsknoten Nin, eine Ausgangsschicht mit mehreren Ausgangsknoten Nout, eine oder mehrere verborgene Schichten, die jeweils mehrere Verbindungsknoten Ncon zum Verbinden der mehreren Eingangsknoten Nin mit den mehreren Ausgangsknoten Nout haben, und mehrere Wichtungslinien WL zum Verbinden der mehreren Eingangsknoten Nin mit den mehreren Verbindungsknoten Ncon und zum Verbinden der mehreren Verbindungsknoten Ncon mit den mehreren Ausgangsknoten Nout enthalten.
  • Jede der Wichtungslinien WL kann ein Gewicht haben.
  • Aufgrund der Gewichte der Wichtungslinien WL können unterschiedliche Ausgangssignale für dasselbe Eingangssignal erhalten werden, und die Genauigkeit des Deep-Learning-Algorithmus-Ausführungsergebnisses kann sich ändern.
  • Das von dem Sensor 310 ausgegebene Signal oder das durch Verarbeiten des Signals erhaltene Überwachungssignal kann zu der Eingangsschicht des neuralen Deep-Learning-Netzwerks 500 eingegeben werden, und das Deep-Learning-Algorithmus-Ausführungsergebnis kann an den mehreren Ausgabeknoten Nout der Ausgabeschicht des neuralen Deep-Learning-Netzwerks 500 ausgegebenen Werten entsprechen. Wenn beispielsweise angenommen wird, dass drei Ausgabeknoten Nout einem Fahrzeug, einem Fußgänger und einer Straßenstruktur entsprechen, können an den drei Ausgabeknoten Nout ausgegebene Werte einen dreidimensionalen Wahrscheinlichkeitssensor bilden. Die an den drei Ausgabeknoten Nout ausgegebenen Werte können eine Wahrscheinlichkeit, dass das erfasste Objekt ein Fahrzeug ist, eine Wahrscheinlichkeit, dass das erfasste Objekt ein Fußgänger ist und eine Wahrscheinlichkeit, dass das erfasste Objekt eine Straßenstruktur ist, enthalten.
  • Wenn das Selbstfahren nicht durchgeführt wird, kann die Deep-Learning-Verarbeitungseinheit 430 den Deep-Learning-Trainingsprozess enthaltend das Vergleichen des in dem Deep-Learning-Algorithmus-Ausführungsergebnis enthaltenen Grad der Berechnungssteuerung mit dem in den Fahrer-Fahrinformationen enthaltenen Grad der Fahrereingabesteuerung das Berechnen eines Fehlerwerts gemäß einem Ergebnis des Vergleichs, und das Einstellen der Wichtungen in dem neuralen Deep-Learning-Netzwerk, die mit der Ausführung des Deep-Learning-Algorithmus assoziiert sind, auf der Grundlage des Fehlerwerts durchführen.
  • Beispielsweise kann eine Wichtungslinie WL mit einer eingestellten Wichtung eine Wichtungslinie enthalten, die mit irgendeinem von zwei oder mehr Schichtknoten verbunden ist, für die jeweils der Grad der Berechnungssteuerung erhalten wird.
  • Die Deep-Learning-Verarbeitungseinheit 430 kann die Wichtung einer Wichtungslinie entsprechend der Ausgangsschicht aktualisieren und die Wichtung einer Wichtungslinie entsprechend der verborgenen Schicht aktualisieren im Verhältnis zu einem Fehlerwert, der unter Verwendung einer Differenz zwischen dem Grad der Berechnungssteuerung entsprechend dem Deep-Learning-Algorithmus-Ausführungsergebnis und dem in den Fahrer-Fahrinformationen enthaltenen Grad der Fahrereingabesteuerung berechnet wurde, um die Wichtungen in dem neuralen Deep-Learning-Netzwerk einzustellen.
  • Ein Verfahren des Findens einer Wichtung zum Minimieren des Fehlerwerts wird nachfolgend kurz beschrieben. Ein Rückwärtsausbreitungs-Algorithmus kann als ein Trainingsalgorithmus verwendet werden, der in dem neuralen Deep-Learning-Netzwerk 500 verwendet wird, das mehrschichtig ist und eine Vorwärtszuführung ermöglicht.
  • Gemäß dem Rückwärtsausbreitungs-Algorithmus wird durch Wiederholen eines Prozesses des Multiplexierens und mehrmaliges Addieren eines Eingangssignals zu den Wichtungen des neuralen Deep-Learning-Netzwerks 500 ein tatsächliches Ausgangssignal y (der Grad der Berechnungssteuerung) erhalten, das ein Ergebniswert für die Eingabe ist.
  • In diesem Fall ist das Ausgangssignal y (der Grad der Berechnungssteuerung) verschieden von einem gewünschten Ausgangssignal o (dem Grad der Fahrereingabesteuerung), das in den Trainingsdaten gegeben ist.
  • Als ein Ergebnis wird ein Fehlerwert e (= y - o) gleicher einer Differenz y - o zwischen dem tatsächlichen Ausgangssignal und dem gewünschten Ausgangssignal in dem neuralen Deep-Learning-Netzwerk 500 erzeugt.
  • Im Verhältnis zu dem auf diese Weise erzeugten Fehlerwert e werden das Gewicht der Wichtungslinie entsprechend der Ausgangsschicht und dann das Gewicht der Wichtungslinie entsprechend der verborgenen Schicht aktualisiert.
  • Eine Wichtungsaktualisierungsrichtung des Rückwärtsausbreitungs-Algorithmus (d. h., Ausgangsschicht → verborgene Schicht → Eingangsschicht) ist entgegengesetzt zu einer Verarbeitungsrichtung für das neurale Deep-Learning-Netzwerk 500 (d. h., Eingangsschicht → verborgene Schicht → Ausgangsschicht).
  • Das auf Deep Learning basierende Selbstfahr-Steuerverfahren des vorbeschriebenen, auf Deep Learning basierenden selbstfahrenden Fahrzeugs 100 nach den vorliegenden Ausführungsbeispielen wird mit Bezug auf die 7 und 8 kurz beschrieben.
  • 7 ist ein Flussdiagramm des auf Deep Learning basierenden Selbstfahr-Steuerverfahrens nach den vorliegenden Ausführungsbeispielen.
  • 8 ist ein Flussdiagramm einer Deep-Learning-Algorithmus-Änderungsoperation (Trainingsoperation) in dem auf Deep Learning basierenden Selbstfahr-Steuerverfahren nach den vorliegenden Ausführungsbeispielen.
  • Gemäß 7 kann das auf Deep Learning basierende Selbstfahr-Steuerverfahren nach den vorliegenden Ausführungsbeispielen enthalten: Empfangen eines Überwachungssignals entsprechend einem Überwachungsergebnis des Sensors 310 (S710), Verarbeiten des Überwachungssignals in einer Form, die zum Ausführen eines Deep-Learning-Algorithmus geeignet ist (S720), Ausgeben eines Ergebnisses des Ausführens des Deep-Learning-Algorithmus bei dem Überwachungssignal, das durch Überwachen einer Peripherie des Fahrzeugs 100 erhalten wurde (S730), bestimmen, ob das Selbstfahren durchgeführt wird (S740), Steuern des Selbstfahrens des Fahrzeugs gemäß dem Ergebnis des Ausführens des Deep-Learning-Algorithmus, wenn das Selbstfahren durchgeführt wird (S750), Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen, wenn das Selbstfahren nicht durchgeführt wird (S760), und dergleichen.
  • Die Operation S760, die eine Trainings(Maschinentrainings)-Operation ist, kann wiederholt durchgeführt werden.
  • Die Operation S730 kann enthalten: Bestimmen, ob ein Objekt vor dem Fahrzeug ein Steuerzielobjekt für Selbstfahrsteuerung auf der Grundlage des Überwachungssignals ist, und Erwerben und Ausgeben eines Deep-Learning-Algorithmus-Ausführungsergebnisses enthaltend eine/einen/eines oder mehrere von der Anwesenheit oder Abwesenheit der Steuerung, dem Grad der Berechnungssteuerung, einem Steuerzielobjekt-Erkennungsergebnis und dergleichen, durch die Ausführung des Deep-Learning-Algorithmus bei dem Überwachungssignal.
  • Gemäß 8 kann die Operation S760 entsprechend der Trainings(Maschinentrainings)-Operation enthalten: Vergleichen des in dem Deep-Learning-Algorithmus-Ausführungsergebnis enthaltenen Grads der Berechnungssteuerung mit dem in den Fahrer-Fahrinformationen enthaltenen Grad der Fahrereingabesteuerung, wenn das Selbstfahren nicht durchgeführt wird (S820), Berechnen eines Fehlerwerts gemäß einem Ergebnis des Vergleichs (S810), Einstellen von Wichtungen in einem neuralen Deep-Learning-Netzwerk, die mit der Ausführung des Deep-Learning-Algorithmus assoziiert sind, auf der Grundlage des Fehlerwerts (S830), usw.
  • Gemäß den vorbeschriebenen Ausführungsbeispielen ist es möglich, ein auf Deep Learning basierendes selbstfahrendes Fahrzeug 100, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung 300 und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren bereitzustellen, die in der Lage sind, eine Selbstfahrsteuerung in einem erforderlichen Grad (z. B. Anwesenheit oder Abwesenheit der Steuerung, der Grad der Steuerung, usw.) in einer erforderlichen Situation durch genaues Erkennen und Unterscheiden zwischen einem Steuerzielobjekt TAR (z. B. einem vorausfahrenden Fahrzeug, einem Fußgänger, usw.), auf das Bezug genommen wird, während das selbstfahrende Fahrzeug 100 fährt, und einer Struktur (zum Beispiele einer Überführung, einer Deckplatte, usw.), auf die nicht Bezug genommen wird, durchzuführen.
  • Gemäß den vorliegenden Ausführungsbeispielen ist es auch möglich, ein auf Deep Learning basierendes selbstfahrendes Fahrzeug 100, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung 300 und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren bereitzustellen, die in der Lage sind, ein Objektunterscheidungsvermögen unter Verwendung eines Sensorsignals eines Radar-Sensors oder dergleichen zu verbessern und das Selbstfahren mit hoher Zuverlässigkeit zu ermöglichen.
  • Gemäß den vorliegenden Ausführungsbeispielen ist es auch möglich, ein auf Deep Learning basierendes selbstfahrendes Fahrzeug 100, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung 300 und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren bereitzustellen, die in der Lage sind, eine Selbstfahrsteuerung zu ermöglichen, selbst wenn die Fahrgewohnheiten eines Fahrers berücksichtigt werden.
  • Gemäß den vorliegenden Ausführungsbeispielen ist es auch möglich, ein auf Deep Learning basierendes selbstfahrendes Fahrzeug 100, eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung 300 und ein auf Deep Learning basierendes Selbstfahr-Steuerverfahren bereitzustellen, die in der Lage sind, eine Erkennung und Unterscheidung eines Steuerzielobjekts mit einer geringeren Verarbeitungslast, einer höheren Verarbeitungsgeschwindigkeit und einem genaueren Erkennungsvermögen im Vergleich zu einem eine große Datenmenge verwendenden Verfahren, das für ein Maschinentraining verwendet wird, zu ermöglichen.
  • Die vorstehende Beschreibung und die begleitenden Zeichnungen sind nur exemplarisch für die Lehre der vorliegenden Offenbarung, und es ist für den Fachmann offensichtlich, dass verschiedene Modifikationen und Veränderungen wie eine Kombination, eine Trennung, ein Ersetzen und Änderungen von Komponenten vorgenommen werden können, ohne die wesentlichen Eigenschaften der vorliegenden Offenbarung zu verlassen. Auch ist beabsichtigt, dass die hier offenbarten Ausführungsbeispiele den technischen Geist der vorliegenden Offenbarung nicht beschränken, sondern beschreiben, und der Bereich der vorliegenden Offenbarung ist nicht durch die Ausführungsbeispiele beschränkt. Der Bereich der vorliegenden Offenbarung ist anhand der angefügten Ansprüche auszulegen, und alle technischen Ideen innerhalb des Bereichs ihrer Äquivalente sollten als in dem Bereich der vorliegenden Offenbarung enthalten ausgelegt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 1020170100429 [0001]

Claims (15)

  1. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300), welche aufweist: eine Deep-Learning-Algorithmus-Ausführungseinheit (410), die konfiguriert ist zum Ausgeben eines Ergebnisses der Ausführung eines Deep-Learning-Algorithmus bei einem Überwachungssignal, das durch Überwachen einer Peripherie eines Fahrzeugs (100) erhalten wurde; eine Selbstfahr-Steuereinheit (420), die konfiguriert ist zum, wenn das Fahrzeug (100) selbst fährt, Steuern des Selbstfahrens des Fahrzeugs (100) auf der Basis des Ergebnisses der Ausführung des Deep-Learning-Algorithmus; und eine Deep-Learning-Verarbeitungseinheit (430), die konfiguriert ist zum Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinforma-tionen.
  2. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach Anspruch 1, bei der die Selbstfahr-Steuereinheit (420) bestimmt, ob eine Beschleunigungs/Verlangsamungs-Steuerung für das Fahrzeug (100) erforderlich ist, durch Verwendung eines/einer oder mehrerer eines Grads von Beschleunigungs/Verlangsamungs-Steuerung und der Anwesenheit oder Abwesenheit einer Beschleunigungs/Verlangsamungs-Steuerung, die dem Ergebnis der Ausführung des Deep-Learning-Algorithmus entsprechen.
  3. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach Anspruch 2, bei der, wenn bestimmt wird, dass die Beschleunigung/ Verlangsamungs-Steuerung für das Fahrzeug (100) erforderlich ist, die Selbstfahr-Steuereinheit (420) den Grad der Beschleunigungs/Verlangsamungs-Steuerung als einen Zielgrad der Steuerung des Fahrzeugs (100) setzt, um die Beschleunigung/Verlangsamung des Fahrzeugs (100) zu steuern.
  4. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach einem der Ansprüche 1 bis 3, bei der die Deep-Learning-Verarbeitungseinheit (430) einen Fehlerwert unter Verwendung einer Differenz zwischen einem Grad von Berechnungssteuerung entsprechend dem Ergebnis der Ausführung des Deep-Learning-Algorithmus und einem Grad von Fahrereingabesteuerung, die in den Fahrer-Fahrinformationen enthalten ist, berechnet und Wichtungen in dem Deep-Learning-Algorithmus einstellt, um den berechneten Fehlerwert zu verringern.
  5. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach Anspruch 4, bei der, wenn das Fahrzeug (100) nicht selbst fährt, die Deep-Learning-Verarbeitungseinheit (430) einen Grad von Beschleunigungs/Verlangsamungs-Steuerung, der gemäß dem Ergebnis der Ausführung des Deep-Learning-Algorithmus berechnet wurde, als den Grad der Berechnungssteuerung verwendet, und einen Grad von fahrerbetätigter Beschleunigung/Verlangsamung als den Grad der Fahrereingabesteuerung verwendet, um den Fehlerwert zu berechnen.
  6. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach einem der Ansprüche 1 bis 5, bei dem die Deep-Learning-Algorithmus-Ausführungseinheit (410) durch die Ausführung des Deep-Learning-Algorithmus bei dem Überwachungssignal auf der Grundlage des Überwachungssignals bestimmt, ob ein Objekt vor dem Fahrzeug (100) ein Steuerzielobjekt (TAR) für die Selbstfahrsteuerung ist, und das Ergebnis der Ausführung des Deep-Learning-Algorithmus, das eine/einen/eines oder mehrere von der Anwesenheit oder Abwesenheit der Steuerung, einem Grad von Berechnungssteuerung und einem Steuerzielobjekt-Erkennungsergebnis enthält, ausgibt.
  7. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach einem der Ansprüche 1 bis 6, bei der Daten hinsichtlich eines neuralen Deep-Learning-Netzwerks (500) enthalten: eine Eingangsschicht mit mehreren Eingangsknoten, eine Ausgangsschicht mit mehreren Ausgangsknoten, eine verborgene Schicht mit mehreren Verbindungsknoten zum Verbinden der mehreren Eingangsknoten mit den mehreren Ausgangsknoten, und mehrere Wichtungslinien zum Verbinden der mehreren Eingangsknoten mit den mehreren Verbindungsknoten und zum Verbinden der mehreren Verbindungsknoten mit den mehreren Ausgangsknoten, und bei der jede der mehreren Wichtungslinien ein Gewicht hat, das Überwachungssignal in die Eingangsschicht eingegeben wird, und das Ergebnis des Ausführens des Deep-Learning-Algorithmus den Werten der mehreren Ausgabeknoten der Ausgabeschicht entspricht.
  8. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach Anspruch 7, bei der die Deep-Learning-Verarbeitungseinheit (430) ein Gewicht einer Wichtungslinie entsprechend der Ausgangsschicht aktualisiert und dann ein Gewicht einer Wichtungslinie entsprechend der verborgenen Schicht aktualisiert im Verhältnis zu einem Fehlerwert, der unter Verwendung einer Differenz zwischen einem Grad einer Berechnungssteuerung entsprechend dem Ergebnis der Ausführung des Deep-Learning-Algorithmus und einem in den Fahrer-Fahrinformationen enthaltenen Grad einer Fahrereingabesteuerung berechnet wurde, um die Wichtungen in dem neuralen Deep-Learning-Netzwerk (500) einzustellen.
  9. Auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) nach einem der Ansprüche 1 bis 8, bei der das Überwachungssignal zumindest eines von einem Radar-Signal und einem Lidar-Signal enthält.
  10. Auf Deep Learning basierendes selbstfahrendes Fahrzeug (100), welches aufweist: einen Sensor, der konfiguriert ist zum Überwachen einer Peripherie des Fahrzeugs (100) und zum Ausgeben eines Überwachungssignals; eine auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300), die konfiguriert ist zum Durchführen eines Deep-Learning-Algorithmus bei dem Überwachungssignal und, wenn das Fahrzeug (100) selbst fährt, zum Ausgeben eines Steuersignal zum Steuern des Selbstfahrens des Fahrzeugs (100) auf der Basis eines Ergebnisses der Ausführung des Deep-Learning-Algorithmus, und zum Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen; und eine Antriebsvorrichtung, die konfiguriert ist zum Antreiben des Fahrzeugs (100) gemäß dem Steuersignal.
  11. Auf Deep Learning basierendes selbstfahrendes Fahrzeug (100) nach Anspruch 10, bei dem durch die Ausführung des Deep-Learning-Algorithmus bei dem Überwachungssignal die auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) auf der Grundlage des Überwach-ungssignals bestimmt, ob ein Objekt vor dem Fahrzeug (100) ein Steuerzielobjekt (TAR) für Selbstfahrsteuerung ist, und das Ergebnis der Ausführung des Deep-Learning-Algorithmus, das eine/einen/eines oder mehrere von der Anwesenheit oder Abwesenheit der Steuerung, einem Grad von Berechnungssteuerung und einem Steuerzielobjekt-Erkennungsergebnis enthält, ausgibt.
  12. Auf Deep Learning basierendes selbstfahrendes Fahrzeug (100) nach einem der Ansprüche 10 oder 11, bei dem, wenn das Fahrzeug (100) nicht selbst fährt, die auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) einen Deep-Learning-Trainingsprozess durchführt, der das Vergleichen eines in dem Ergebnis des Ausführens des Deep-Learning-Algorithmus enthaltenen Grades von Berechnungssteuerung mit einem in den Fahrer-Fahrinformationen enthaltenen Grad von Fahrereingabesteuerung und das Einstellen von Wichtungen in einem neuralen Deep-Learning-Netzwerk (500), die mit der Ausführung des Deep-Learning-Algorithmus assoziiert sind, auf der Grundlage des Fehlerwerts enthält.
  13. Auf Deep Learning basierendes selbstfahrendes Fahrzeug (100) nach Anspruch 12, bei dem die auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) Daten hinsichtlich des neuralen Deep-Learning-Netzwerks (500), das eine Eingangsschicht mit mehreren Eingangsknoten, eine Ausgangs-schicht mit mehreren Ausgangsknoten, eine verborgene Schicht mit mehreren Verbindungsknoten zum Verbinden der mehreren Eingangs- knoten mit den mehreren Ausgangsknoten und mehrere Wichtungslinien zum Verbinden der mehreren Eingangsknoten mit den mehreren Verbindungsknoten und zum Verbinden der mehreren Verbindungsknoten mit den mehreren Ausgangsknoten enthält, speichert, und bei dem die auf Deep Learning basierende Selbstfahr-Steuervorrichtung (300) ein Gewicht einer Wichtungslinie entsprechend der Ausgabeschicht aktualisiert und dann ein Gewicht einer Wichtungslinie entsprechend der verborgenen Schicht im Verhältnis zu dem Fehlerwert aktualisiert, um die Wichtungen in dem neuralen Deep-Learning-Netzwerk (500) einzustellen.
  14. Auf Deep Learning basierendes Selbstfahr-Steuerverfahren, welches aufweist: Ausgeben eines Ergebnisses der Ausführung eines Deep-Learning-Algorithmus bei einem Überwachungssignal, das durch Überwachen einer Peripherie eines Fahrzeugs (100) erhalten wurde; Steuern, wenn das Fahrzeug (100) selbstfahrend ist, des Selbstfahrens des Fahrzeugs (100) gemäß dem Ergebnis der Ausführung des Deep-Learning-Algorithmus; und Ändern des Deep-Learning-Algorithmus mit Bezug auf Fahrer-Fahrinformationen.
  15. Auf Deep Learning basierendes Selbstfahr-Steuerverfahren nach Anspruch 14, bei dem das Ändern des Deep-Learning-Algorithmus aufweist: Berechnen eines Fehlerwerts unter Verwendung einer Differenz zwischen einem Grad von Beschleunigungs/Verlangsamungs-Steuerung entsprechend dem Ergebnis der Ausführung des Deep-Learning-Algorithmus und einem in den Fahrer-Fahrinformationen enthaltenen Grad von Fahrerbetätigung für Beschleunigung/Verlangsamung, und Einstellen von Wichtungen in dem Deep-Learning-Algorithmus, um den berechneten Fehlerwert zu verringern.
DE102018213364.6A 2017-08-08 2018-08-08 Auf Deep Learning basierendes selbstfahrendes Fahrzeug, auf Deep Learning basierende Selbstfahr-Steuervorrichtung und auf Deep Learning basierendes Selbstfahr-Steuerverfahren Pending DE102018213364A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0100429 2017-08-08
KR1020170100429A KR102342143B1 (ko) 2017-08-08 2017-08-08 딥 러닝 기반 자율 주행 차량, 딥 러닝 기반 자율 주행 제어 장치 및 딥 러닝 기반 자율 주행 제어 방법

Publications (1)

Publication Number Publication Date
DE102018213364A1 true DE102018213364A1 (de) 2019-02-21

Family

ID=65235158

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018213364.6A Pending DE102018213364A1 (de) 2017-08-08 2018-08-08 Auf Deep Learning basierendes selbstfahrendes Fahrzeug, auf Deep Learning basierende Selbstfahr-Steuervorrichtung und auf Deep Learning basierendes Selbstfahr-Steuerverfahren

Country Status (4)

Country Link
US (1) US10852732B2 (de)
KR (1) KR102342143B1 (de)
CN (1) CN109388138B (de)
DE (1) DE102018213364A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11130497B2 (en) * 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
KR102416203B1 (ko) 2018-06-01 2022-07-06 탈레스 캐나다 아이엔씨 자기-학습(self-learning) 차량 제어 시스템
JP7230596B2 (ja) * 2019-03-08 2023-03-01 マツダ株式会社 自動車用演算システム
CN111661059B (zh) * 2019-03-08 2022-07-08 虹软科技股份有限公司 分心驾驶监测方法、系统及电子设备
CN109857118B (zh) * 2019-03-12 2022-08-16 百度在线网络技术(北京)有限公司 无人车规划驾驶策略的方法、装置、设备及存储介质
US11467588B2 (en) 2019-07-03 2022-10-11 Denso International America, Inc. Systems and methods for controlling an autonomous vehicle using target orientated artificial intelligence
US11656337B2 (en) * 2019-07-11 2023-05-23 Toyota Motor Engineering & Manufacturing North America, Inc. Photonic apparatus integrating optical sensing and optical processing components
KR102212217B1 (ko) * 2019-08-14 2021-02-04 엘지전자 주식회사 충돌을 효과적으로 방지하는 자율 주행 차량 및 이를 제어하는 제어 장치 및 방법
KR20210032617A (ko) * 2019-09-16 2021-03-25 현대자동차주식회사 자율주행차량의 거동 제어 장치 및 그 방법
CN110688920B (zh) * 2019-09-17 2022-06-14 宁波吉利汽车研究开发有限公司 一种无人驾驶控制方法、装置及服务器
EP4110668A4 (de) * 2020-02-24 2024-06-12 Ground Transportation Systems Canada Inc. Steuergerät, steuersystem und verfahren zur fahrzeugsteuerung
US11708071B2 (en) 2020-03-30 2023-07-25 Denso Corporation Target-orientated navigation system for a vehicle using a generic navigation system and related method
EP4116738A4 (de) * 2020-03-31 2024-03-20 Bitsensing Inc. Radarvorrichtung und verfahren zur klassifizierung von objekten
US11782451B1 (en) * 2020-04-21 2023-10-10 Aurora Operations, Inc. Training machine learning model for controlling autonomous vehicle
US11919529B1 (en) 2020-04-21 2024-03-05 Aurora Operations, Inc. Evaluating autonomous vehicle control system
US11989020B1 (en) 2020-07-14 2024-05-21 Aurora Operations, Inc. Training machine learning model(s), in simulation, for use in controlling autonomous vehicle(s)
KR20220025585A (ko) 2020-08-24 2022-03-03 삼성전자주식회사 위치 추정 방법 및 장치
US20220097690A1 (en) * 2020-09-30 2022-03-31 Toyota Motor Engineering & Manufacturing North America, Inc. Optical sense-compute solution for real-time navigation involving multiple vehicles
WO2022139009A1 (ko) * 2020-12-22 2022-06-30 주식회사 모빌린트 자율 주행을 위한 딥러닝 알고리즘 설정 방법 및 장치
KR102548700B1 (ko) * 2022-07-06 2023-06-30 주식회사 셀플러스코리아 Ai알고리즘을 이용한 영상처리장치 및 이를 이용한 자율주행 차량의 ecu 성능 검증장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170100429A (ko) 2016-02-24 2017-09-04 경남대학교 산학협력단 절삭유 재생 장치

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102214320A (zh) * 2010-04-12 2011-10-12 宋威 神经网络训练方法及采用该方法的垃圾邮件过滤方法
GB201305067D0 (en) * 2013-03-19 2013-05-01 Massive Analytic Ltd Apparatus for controlling a land vehicle which is self-driving or partially self-driving
JP2016153247A (ja) * 2014-07-23 2016-08-25 株式会社発明屋 クラウド運ちゃん
KR102239714B1 (ko) * 2014-07-24 2021-04-13 삼성전자주식회사 신경망 학습 방법 및 장치, 데이터 처리 장치
KR102154676B1 (ko) * 2015-05-14 2020-09-10 한국과학기술원 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
CN105136469A (zh) * 2015-07-23 2015-12-09 江苏大学 一种基于pso和rbf神经网络的无人驾驶车辆车速控制方法
KR102137213B1 (ko) * 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR101868088B1 (ko) * 2015-12-28 2018-07-17 자동차부품연구원 초음파 센서를 이용한 충돌 회피 장치 및 방법
CN108431549B (zh) * 2016-01-05 2020-09-04 御眼视觉技术有限公司 具有施加的约束的经训练的系统
CN105799710B (zh) * 2016-03-11 2019-02-05 北京理工大学 一种交互式的自主教练车系统
CN105931153A (zh) * 2016-04-14 2016-09-07 湘潭大学 一种基于神经网络预测分析模型的问卷调查间接评估方法
CN106054893B (zh) * 2016-06-30 2019-07-26 江汉大学 智能车的控制系统和方法
CN105892471B (zh) * 2016-07-01 2019-01-29 北京智行者科技有限公司 汽车自动驾驶方法和装置
CN106154834B (zh) * 2016-07-20 2019-10-29 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法和装置
CN108773373B (zh) * 2016-09-14 2020-04-24 北京百度网讯科技有限公司 用于操作自动驾驶车辆的方法和装置
KR102406507B1 (ko) * 2017-03-27 2022-06-10 현대자동차주식회사 딥러닝 기반 자율주행 차량 제어 장치, 그를 포함한 시스템 및 그 방법
CN107200017A (zh) * 2017-05-22 2017-09-26 北京联合大学 一种基于深度学习的无人驾驶车辆控制系统
US10543853B2 (en) * 2017-07-05 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing collaborative control of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170100429A (ko) 2016-02-24 2017-09-04 경남대학교 산학협력단 절삭유 재생 장치

Also Published As

Publication number Publication date
CN109388138A (zh) 2019-02-26
KR102342143B1 (ko) 2021-12-23
US10852732B2 (en) 2020-12-01
US20190049967A1 (en) 2019-02-14
CN109388138B (zh) 2024-05-14
KR20190016332A (ko) 2019-02-18

Similar Documents

Publication Publication Date Title
DE102018213364A1 (de) Auf Deep Learning basierendes selbstfahrendes Fahrzeug, auf Deep Learning basierende Selbstfahr-Steuervorrichtung und auf Deep Learning basierendes Selbstfahr-Steuerverfahren
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102018208598A1 (de) Fahrzeug-Regel/Steuer-System und -Verfahren und Fahrt-Assistenz-Server
DE102015209373B4 (de) Fahrunterstützungsgerät
DE102015209955B4 (de) Vorrichtung und Programm zur Fahrassistenz in einem Fahrzeug
DE102016110574A1 (de) Fahrassistenzvorrichtung für ein fahrzeug
DE102017117158A1 (de) Systeme und verfahren für das management von spurwechseln beim autonomen fahren
DE112009002535T5 (de) Fahrzeug und Verfahren zum Beraten eines Fahrers von selbigem
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102019215902A1 (de) Verfahren zur Bestimmung eines Gütegrades von Daten-Sätzen von Sensoren
DE102018116142A1 (de) Vorrichtung zum autonomen fahren
DE112009001203T5 (de) Zwischenfahrzeugabstand-Steuervorrichtung und Zwischenfahrzeugabstand-Steuerverfahren
DE102017214409A1 (de) System und verfahren zum erfassen eines strassenoberflächenzustands
DE112016007501T5 (de) Regel-/steuervorrichtung und regel-/steuerverfahren
DE102018218699A1 (de) Fahrassistenz-Regelungssystem eines Fahrzeugs
DE102019209736A1 (de) Verfahren zur Bewertung möglicher Trajektorien
DE112018000448T5 (de) System und Verfahren zur automatischen Anhängererfassung
DE112018004003T5 (de) Steuerung und verfahren zum automatischen fahren
DE102020200911B3 (de) Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
WO2018019454A1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
DE102015209186A1 (de) Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
WO2021139974A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
WO2020061603A1 (de) Verfahren und vorrichtung zur analyse eines sensordatenstroms sowie verfahren zum führen eines fahrzeugs

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO CORPORATION, PYEONGTAEK-SI, GYEONGGI-DO, KR

Owner name: MANDO MOBILITY SOLUTIONS CORPORATION, PYEONGTA, KR

Free format text: FORMER OWNER: MANDO CORPORATION, PYEONGTAEK-SI, GYEONGGI-DO, KR

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO MOBILITY SOLUTIONS CORPORATION, PYEONGTAEK-SI, GYEONGGI-DO, KR