DE102017203157A1 - Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls - Google Patents

Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls Download PDF

Info

Publication number
DE102017203157A1
DE102017203157A1 DE102017203157.3A DE102017203157A DE102017203157A1 DE 102017203157 A1 DE102017203157 A1 DE 102017203157A1 DE 102017203157 A DE102017203157 A DE 102017203157A DE 102017203157 A1 DE102017203157 A1 DE 102017203157A1
Authority
DE
Germany
Prior art keywords
traffic accident
neural network
unmanned aerial
aerial vehicle
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017203157.3A
Other languages
English (en)
Inventor
Heiko Freienstein
Henning Hoepfner
Florian Drews
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017203157.3A priority Critical patent/DE102017203157A1/de
Priority to PCT/EP2018/050660 priority patent/WO2018153563A1/de
Publication of DE102017203157A1 publication Critical patent/DE102017203157A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • G08G1/0955Traffic lights transportable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance

Abstract

Die Erfindung betrifft ein künstliches neuronales Netz (3), das über eine Datenbank (9) eingelernt ist, welche zumindest Verkehrsunfalldaten enthält, und mit zumindest einem unbemannten Luftfahrzeug (1) in Verbindung steht, welches Umgebungsdaten an das neuronale Netz (3) sendet, wobei das neuronale Netz (3) mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1) einen Verkehrsunfall (6, 7) erkennen und klassifizieren kann.

Description

  • Die vorliegende Erfindung betrifft ein neuronales Netz und ein unbemanntes Luftfahrzeug, die eingerichtet sind einen Verkehrsunfall zu erkennen und zu klassifizieren. Außerdem betrifft die Erfindung ein Verfahren zum Erkennen des Verkehrsunfalls und ein Computerprogramm, das jeden Schritt des Verfahrens ausführt, wenn es auf einem Rechengerät abläuft, sowie ein maschinenlesbares Speichermedium, welches das Computerprogramm speichert. Schließlich betrifft die Erfindung ein elektronisches Rechengerät, welches eingerichtet ist, um das erfindungsgemäße Verfahren auszuführen.
  • Stand der Technik
  • Zur Aufnahme, Absicherung und Rekonstruktion von Verkehrsunfällen ist herkömmlicherweise geschultes Personal, wie z.B. die Polizeibeamten, erforderlich. Hierdurch wird das geschulte Personal, selbst bei der Aufnahme von Bagatellunfällen, stark belastet, obwohl es, gerade im Fall der Polizei, durch andere Tätigkeiten bereits ausgelastet ist. Es sind Systeme und Verfahren zur Erkennung eines Verkehrsunfalls für Kraftfahrzeuge bekannt, allerdings sind diese Systeme meist an das jeweilige Kraftfahrzeug gebunden. Infolgedessen werden nur Verkehrsunfälle, bei denen ein solches Kraftfahrzeug beteiligt ist, durch diese Systeme erkannt.
  • Darüber hinaus ist das geschulte Personal während der Absicherung des Verkehrsunfalls selbst gefährdet. Die Absicherung muss oftmals während des laufenden Verkehrs und an gefährlichen Stellen erfolgen.
  • Es gibt Datenbanken, welche Verkehrsunfalldaten enthalten, wie GIDAS (German In-Depth Accident Study) der Bundesanstalt für Straßenwesen (BASt) und der Forschungsvereinigung Automobiltechnik e.V. (FAT) in Deutschland. In GIDAS werden Verkehrsunfälle und dazugehörige Metadaten, wie z.B. Unfallstelle, Unfallzeitpunkt, betroffene Verkehrsteilnehmer, Fahrzeugbeschädigung und -ausstattung sowie abgeleitete Daten, wie Bremsverzögerung, Einlauf- und Kollisionsgeschwindigkeit, dokumentiert. Zudem werden der Unfallhergang und die Unfallursachen ermittelt und gespeichert.
  • In der Europäischen Union wurden Anstrengungen unternommen, ein sogenanntes eCall System für alle neuen Kraftfahrzeuge innerhalb der Europäischen Union zu implementieren. Das eCall System stellt einen Notruf zu dem zuständigen Rettungsdienst her. Einerseits kann das eCall System von einem Fahrzeuginsassen, meist dem Fahrer, bedient werden, andererseits wird das eCall System bei einem Verkehrsunfall automatisch aktiviert, wenn eine Sensorik innerhalb oder an dem Kraftfahrzeug den Verkehrsunfall erkennt. Bei solch einem Notruf werden Informationen, wie Unfallort und -zeitpunkt sowie Anzahl der Fahrzeuginsassen an den Rettungsdienst übermittelt. Allerdings werden bei dieser Gelegenheit keine weiteren Unfallopfer oder Verkehrsteilnehmer berücksichtigt.
  • Offenbarung der Erfindung
  • Es wird ein künstliches neuronales Netz zum Erkennen und Klassifizieren eines Verkehrsunfalls vorgeschlagen. Künstliche neuronale Netze (auch künstliches neuronales Netzwerk oder artifical neural network genannt) werden in der Informationsverarbeitung verwendet, um komplexe Anwendungsprobleme mittels künstlicher Neuronen zu lösen. Die künstlichen Neuronen sind untereinander durch das künstliche neuronale Netz ähnlich einem biologischen neuronalen Netzes verbunden und können folglich beliebig komplexe Funktionen darstellen, Aufgaben erlernen und dadurch eigenständig Probleme lösen. Grundlage der Funktionsweise eines künstlichen neuronalen Netzes ist neben einer geeigneten Topologie das Einlernen des künstlichen neuronalen Netzes, bei dem die künstlichen Neuronen und die Verbindungen zwischen diesen verändert und angepasst werden.
  • Das künstliche neuronale Netz wird über eine Datenbank eingelernt, welche zumindest Verkehrsunfalldaten enthält. Eine solche Datenbank ist beispielsweise GIDAS, in der Verkehrsunfälle mit Personenschäden dokumentiert sind. Die Verkehrsunfalldaten weisen unter anderem folgende Informationen auf:
    • • Unfallstelle;
    • • Unfallzeitpunkt;
    • • betroffene Verkehrsteilnehmer;
    • • personenbezogene Daten;
    • • Verletzungen der Person/en;
    • • Kenndaten, Ausstattung und Beschädigung/Deformation des/der Kraftfahrzeugs/e;
    • • Einlauf- und Kollisionsgeschwindigkeit sowie Kollisionswinkel;
    • • Bremsverzögerung;
    • • Unfallhergang und Unfallursache.
  • Auch in anderen Ländern stehen solche Datenbanken zur Verfügung. Die Verkehrsunfalldaten sind oftmals vom jeweiligen Land bzw. Region abhängig und können insbesondere aufgrund von landestypischen/r Verkehrssituationen, Verkehrsgesetzen, Art und Quantität der Verkehrsteilnehmer sowie Infrastruktur variieren. Vorzugsweise wird das künstliche neuronale Netz auf eine Datenbank eingelernt, welche den Einsatzort bzw. das Einsatzgebiet des künstlichen neuronalen Netzes am besten wiedergibt.
  • Ein unbemanntes Luftfahrzeug - im allgemeinen Sprachgebrauch auch als Drohne und im Englischen als unmanned aerial vehicle/aircraft (UAV/UA) bezeichnet - steht mit dem künstlichen neuronalen Netz in Verbindung und übersendet Umgebungsdaten, die das unbemannte Luftfahrzeug mittels seiner Sensorik erfasst, an das künstliche neuronale Netz.
  • Das künstliche neuronale Netz kann nun mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs einen Verkehrsunfall erkennen und klassifizieren. Insbesondere werden Bilddaten aus der Datenbank zum Einlernen der Verkehrsunfälle für das künstlichen neuronalen Netzes verwendet. Die von der Sensorik des unbemannten Luftfahrzeugs erfassten Umgebungsdaten werden dann mit den eingelernten Verkehrsunfällen verglichen. Optional können weitere Daten, wie beispielsweise Wetterdaten, Verkehrsinformationen, Uhrzeit/Tageszeit, etc., verwendet werden - dies gilt auch für nachfolgende Aspekte. Merkmale des Verkehrsunfalls können vorzugsweise anhand von Bilddaten aus den Verkehrsunfalldaten der Datenbank, aber auch mittels der Metadaten ermittelt werden und auf die Umgebungsdaten des unbemannten Luftfahrzeugs angewandt werden, um den Verkehrsunfall zu erkennen. Im Zuge dessen können alle am Verkehrsunfall beteiligten Verkehrsteilnehmer erkannt werden, unabhängig davon, ob diese ein eigenes System zum Erkennen eines Verkehrsunfalls aufweisen. Vorteilhafterweise kann auch erkannt werden, ob es zu Personenschäden gekommen ist, und gegebenenfalls die Schwere der erlittenen Verletzungen eingeschätzt werden.
  • Darüber hinaus kann das künstliche neuronale Netz die erkannten Verkehrsunfälle klassifizieren. Hierfür können die dokumentierten Verkehrsunfälle in der Datenbank selbst klassifiziert sein oder die in den Verkehrsunfalldaten der Datenbank enthaltenen Informationen über den Unfallhergang verwendet werden. Das künstliche neuronale Netz kann dann bei Verkehrsunfällen klassifizieren, ob beispielsweise ein Auffahrunfall, eine Kollisionen mit einer Person oder eine Kollision mit einem Hindernis aufgetreten ist, und die Schwere des Verkehrsunfalls sowie weiterführende Maßnahmen ableiten. Als Resultat kann wenigstens bei Bagatellunfällen auf den Einsatz von geschultem Personal verzichtet werden.
  • Vorteilhafterweise weist das künstliche neuronale Netz zumindest eine, bevorzugt mehrere Zwischenebenen - im Englischen hidden layer - zwischen einer Eingabeschicht, bei der künstliche Neuronen ein Eingabesignal erhalten und es in einer modifizierten Version weitergeben, und einer Ausgabeschicht, bei der weitere künstliche Neuronen ein Ausgabesignal ausgeben, auf. Durch diese Zwischenebenen kann das künstliche neuronale Netz Deep Learning ausführen. Bei dieser Art des Einlernens werden Algorithmen verwendet, um tiefgreifende Abstraktionsebenen von Merkmalen in den Daten zu erfassen und die Merkmale in eine Hierarchie einzuordnen. Dabei werden hochrangige Merkmale in untergeordneten Zwischenebenen angeordnet, in denen komplexere Funktionen ausgeführt werden, und an übergeordnete Zwischenebenen weitergegeben. Beim Einlernen können dann die Abstraktionsebenen getrennt werden und die geeigneten Merkmale ausgewählt werden.
  • Gemäß einem Aspekt ist das künstliche neuronale Netz eingerichtet, mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs einen Verkehrsunfall zumindest in einer Simulation zu rekonstruieren. Verzugsweise kann sich das unbemannte Luftfahrzeug, wenn ein Verkehrsunfall erkannt wurde, dem Unfallort nähern und mittels seiner Sensorik die Unfallsituation präzise erfassen. Die erfassten Umgebungsdaten werden mit den eingelernten Verkehrsunfalldaten verglichen und in einer Simulation verwendet. Bevorzugt werden hierfür die Metadaten und besonders bevorzugt jene, welche die Kollision betreffen, wie z.B. die Einlauf- und Kollisionsgeschwindigkeit, der Kollisionswinkel und die Deformation der Fahrzeuge, zur Auswertung verwendet. Durch die Rekonstruktion kann der Unfallhergang ermittelt werden, dieser einer zuständigen Versicherungsgesellschaft gemeldet werden und infolgedessen eine etwaige Verursacherfrage geklärt werden, ohne einen Sachverständigen konsultieren zu müssen.
  • Gemäß einem weiteren Aspekt ist das künstliche neuronale Netz eingerichtet, mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs, unter Zuhilfenahme zumindest des unbemannten Luftfahrzeugs, den Verkehrsunfall abzusichern. Je nach Art des Verkehrsunfalls - durch die Verkehrsunfalldaten ermittelt -, der jeweiligen Umgebung - aus den Umgebungsdaten ermittelt - und der Uhrzeit/Tageszeit kann das künstliche neuronale Netz auf die Unfallsituation angepasste Maßnahmen zur Absicherung ausführen. Das unbemannte Luftfahrzeug kann zu diesem Zweck Einrichtungen zur Absicherung des Verkehrsunfalls, wie nachfolgend beschrieben, aufweisen. Im Allgemeinen ist das unbemannte Luftfahrzeug früher vor Ort als Rettungsdienste, sodass der Unfallort unverzüglich abgesichert werden kann. Personen zur Absicherung der Unfallstelle sind nicht von Nöten, wodurch sich das Gefahrenpotential für die Personen, insbesondere für die Rettungsdienste, verringert.
  • Gemäß noch einem weiteren Aspekt ist das künstliche neuronale Netz eingerichtet, mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs, Verkehrsunfälle vorherzusagen. Dies kann vor allem in unübersichtlichen und/oder gefährlichen Stellen mit hoher Unfallgefahr zum Einsatz kommen. Durch Abgleich beispielsweise des Unfallhergangs aus den Verkehrsunfalldaten und der aktuellen Verkehrssituation kann auf eine Wahrscheinlichkeit für den Verkehrsunfall geschlossen werden. Die aktuelle Verkehrssituation kann neben den Umgebungsdaten über Wetterdaten, Verkehrsinformationen, Uhrzeit/Tageszeit und Hauptreisezeiten sowie weiteren Daten ermittelt werden. Die Vorhersage von Verkehrsunfällen bietet den Vorteil, dass einerseits Verkehrsunfälle schneller erkannt werden können oder bei entsprechender Warnung gegebenenfalls sogar verhindert werden können, andererseits das unbemannte Luftfahrzeug - oder wenn vorhanden eine Vielzahl solcher unbemannter Luftfahrzeuge - positioniert und ausrichtet werden können, um die unübersichtlichen und/oder gefährlichen Stellen mit hoher Unfallgefahr zu überwachen.
  • Das künstliche neuronale Netz kann zudem eingerichtet sein, insbesondere wenn ein Verkehrsunfall erkannt wurde, einen Notruf wenigstens an einen Rettungsdienst zu senden. Zu diesem Zweck kann jegliche Art von Kommunikationstechnologie verwendet werden, bevorzugt kann in der Europäischen Union das eCall System und in anderen Ländern ein vergleichbares, verfügbares Notrufsystem verwendet werden. Mit dem Notruf können alle für den Verkehrsunfall relevanten Daten des künstlichen neuronalen Netzes und des unbemannten Luftfahrzeugs an den Rettungsdienst versendet werden. Zu diesen relevanten Daten gehören neben den reinen Umgebungsdaten vor allem die Unfallsituation, die Klassifikation des Verkehrsunfalls und die beteiligten Verkehrsteilnehmer, wobei durch diese Maßnahme alle beteiligten Verkehrsteilnehmer und nicht nur jene, die ein eigenes System zum Erkennen eines Verkehrsunfalls aufweisen, erfasst werden.
  • Das künstliche neuronale Netz kann gemäß einem Aspekt in einem elektronischen Rechengerät des unbemannten Luftfahrzeugs implementiert sein.
  • Gemäß einem weiteren Aspekt kann das künstliche neuronale Netz in einem zentralen elektronischen Rechengerät implementiert sein, welches mit dem unbemannten Luftfahrzeug drahtlos in Verbindung steht. Das zentrale elektronische Rechengerät kann mit mehreren solcher unbemannten Luftfahrzeuge in Verbindung stehen, wodurch diese simultan gesteuert werden können und die Überwachung optimiert wird.
  • Des Weiteren wird ein unbemanntes Luftfahrzeug vorgeschlagen, das ein vorstehend beschriebenes neuronales Netz aufweist. Das unbemannte Luftfahrzeug verfügt zudem über eine Sensorik zur Erfassung der Umgebungsdaten, wobei die Sensorik vorzugsweise optische Erfassungseinrichtungen, wie z.B. Kameras und Laserscanner, umfasst. Damit bildet das unbemannte Luftfahrzeug nach dem Einlernen des neuronalen Netzes eine autarke Einheit. Das unbemannte Luftfahrzeug wird dann in dem zu überwachenden Gebiet positioniert und erfasst dort die Umgebungsdaten. Optional kann das unbemannte Luftfahrzeug einen Verbrennungsmotor aufweisen, um seine Reichweite und die Überwachungsdauer gegenüber heutzutage verfügbaren Antrieben mit regenerativen Energiequellen zu erhöhen.
  • Vorteilhafterweise weist das unbemannte Luftfahrzeug zudem Einrichtungen zum Absichern der Unfallstelle auf. Hierzu gehören Leuchtmittel am unbemannten Luftfahrzeug, welche die Unfallstelle großräumig ausleuchten, absetzbare Leuchtelemente, wie z.B. Lampen, Leuchtbänder oder Leuchtelemente auf LED-Basis, sowie Absperr- und Markierungselemente. Das unbemannte Luftfahrzeug nähert sich der Unfallstelle und setzt je nach Art des Unfalls, der Umgebung und der Uhrzeit/Tageszeit die vorstehend aufgeführten Einrichtungen zum Absichern der Unfallstelle ab.
  • Das Verfahren zum Erkennen des Verkehrsunfalls mittels des vorstehend beschriebenen neuronalen Netzes umfasst die folgenden Schritte: Vor dem Einsatz, wird das künstliche neuronale Netz durch eine Datenbank, welche zumindest Verkehrsunfalldaten enthält, eingelernt, wobei vorzugsweise Deep Learning zum Einsatz kommen kann. Ein unbemanntes Luftfahrzeug, welches mit dem künstlichen neuronalen Netz in Verbindung steht, erfasst die Umgebungsdaten durch seine Sensorik. Schließlich wird ein Verkehrsunfall mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs erkannt. Hierfür können die von der Sensorik des unbemannten Luftfahrzeugs erfassten Umgebungsdaten mit den eingelernten Verkehrsunfällen verglichen werden. Außerdem kann in dem Verfahren der Verkehrsunfall klassifiziert werden. Zusätzlich kann der Unfallhergang rekonstruiert werden. Alternativ kann in einem Verfahren Verkehrsunfälle mittels zumindest den Verkehrsunfalldaten der Datenbank und den Umgebungsdaten des unbemannten Luftfahrzeugs vorhergesagt werden.
  • Wird ein Verkehrsunfall erkannt, kann in einem zusätzlichen Schritt des Verfahrens das unbemannte Luftfahrzeug den erkannten Verkehrsunfall absichern. Hierfür kann es vorzugsweise seine Einrichtungen zum Absichern der Unfallstelle, die vorstehen beschrieben sind, verwenden.
  • Das Computerprogramm ist eingerichtet, jeden Schritt des Verfahrens durchzuführen, insbesondere, wenn es auf einem Rechengerät durchgeführt wird. Es ermöglicht die Implementierung des Verfahrens in einem herkömmlichen elektronischen Rechengerät, ohne hieran bauliche Veränderungen vornehmen zu müssen. Hierzu ist es auf dem maschinenlesbaren Speichermedium gespeichert.
  • Durch Aufspielen des Computerprogramms auf ein herkömmliches elektronisches Rechengerät, wird das elektronische Rechengerät erhalten, welches eingerichtet ist, einen Verkehrsunfall zu erkennen. In dem elektronischen Rechengerät ist das künstliche neuronale Netz, wie vorstehen beschrieben, implementiert. Das elektronische Rechengerät kann vorzugsweise das elektronische Rechengerät des unbemannten Luftfahrzeugs oder das zentrale Rechengerät, das mit dem unbemannten Luftfahrzeug verbunden ist sein.
  • Figurenliste
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.
    • 1 zeigt eine schematische Darstellung eines unbemannten Luftfahrzeugs, mit einem künstlichen neuronalen Netz, welches einen Verkehrsunfall erkennt, gemäß einem Ausführungsbeispiel der Erfindung.
    • 2 zeigt eine schematische Darstellung eines unbemannten Luftfahrzeugs, das mit einem künstlichen neuronalen Netz in Verbindung steht, welches einen Verkehrsunfall erkennt, gemäß einem weiteren Ausführungsbeispiel der Erfindung.
    • 3 zeigt eine schematische Darstellung eines unbemannten Luftfahrzeugs, mit einem künstlichen neuronalen Netz, welches einen Verkehrsunfall absichert.
  • Ausführungsbeispiele der Erfindung
  • Die 1, 2 und 3 zeigen jeweils eine schematische Darstellung eines unbemannten Luftfahrzeug 1, welches eine Sensorik 2 zum Erfassen von Umgebungsdaten aufweist und eines künstlichen neuronalen Netzes 3, gemäß Ausführungsbeispielen der Erfindung. In diesen Ausführungsbeispielen weist die Sensorik 2 eine optische Erfassungseinrichtung, wie z.B. eine Kamera, auf, welche einen Überwachungsbereich 4 erfasst. Obwohl in diesen Figuren der Überwachungsbereich 4 zur besseren Übersichtlichkeit lediglich einen Teil einer Straße 5 abdeckt, ist der Überwachungsbereich 4 in der Praxis deutlich größer und deckt, bedingt durch die Flughöhe des unbemannten Luftfahrzeugs 1 ganze Straßenzüge oder noch größere Regionen simultan ab. Innerhalb des Überwachungsbereichs 4 sind in den 1, 2 und 3 beispielhaft zwei Verkehrsunfälle 6, 7 dargestellt.
  • 1 zeigt in einem Ausführungsbeispiel der Erfindung das unbemannte Luftfahrzeug 1 mit einem elektronischen Rechengerät 8, in dem ein künstliches neuronales Netz 3 zum Erkennen und Klassifizieren des Verkehrsunfalls 6, 7 implementiert ist. Das elektronische Rechengerät 8, und somit das künstliche neuronale Netz 3, stehen über eine drahtlose Funkverbindung mit einer Datenbank 9 in Verbindung, welche Verkehrsunfalldaten enthält. Ein Beispiel für solch eine Datenbank 9 in Deutschland ist GIDAS der Bundesanstalt für Straßenwesen und der Forschungsvereinigung Automobiltechnik e.V.
  • In einem weiteren Ausführungsbeispiel, welches in 2 dargestellt ist, steht das elektronische Rechengerät 8 des unbemannten Luftfahrzeugs 1 über eine drahtlose Funkverbindung mit einem zentralen elektronischen Rechengerät 10 in Verbindung. Das zentrale elektronische Rechengerät 10 kann mit weiteren, hier nicht gezeigten unbemannten Luftfahrzeugen in Verbindung stehen und diese steuern. Das erfindungsgemäße künstliche neuronale Netz 3 ist in diesem Fall im zentralen elektronischen Rechengerät 10 implementiert. Gleichermaßen steht das zentrale elektronische Rechengerät 10 und somit das künstliche neuronale Netz 3 mit der Datenbank 9 in Verbindung, welche Verkehrsunfalldaten enthält.
  • In beiden Ausführungsbeispielen wird das künstliche neuronale Netz 3 über die Datenbank 9 eingelernt, wobei das künstliche neuronale Netz 3 Informationen über Verkehrsunfälle in Form von Verkehrsunfalldaten und entsprechender Metadaten aus der Datenbank 9 erhält. Dabei wird Deep Learning verwendet, um die Verkehrsunfalldaten mitsamt der Metadaten einzulernen. Das künstliche neuronale Netz 3 erkennt mittels zumindest den Verkehrsunfalldaten der Datenbank 9 und den Umgebungsdaten, die von der Sensorik 2 des unbemannten Luftfahrzeugs 1 erfasst werden, den Verkehrsunfall 6, 7. Außerdem kann das künstliche neuronale Netz 3 folglich den erkannten Verkehrsunfall 6, 7 klassifizieren. In diesem Beispiel kann das künstliche neuronale Netz 3 zum einen aufgrund der Position zweier Fahrzeuge 11, 12, deren Kollision und eventueller Deformation (nicht dargestellt) einen Auffahrunfall 6, zum anderen aufgrund der Position eines weiteren Fahrzeugs 13 und eines Hindernisses 14, beispielsweise eines Baums, eine Kollision 7 mit dem Hindernis 14, klassifizieren.
  • In dem in 3 gezeigten Ausführungsbeispiel wurden die Verkehrsunfälle 6, 7 erkannt und das unbemannte Luftfahrzeug 1 sichert den Unfallort ab. Die 3 zeigt schematisch Einrichtungen 15, 16, 17 zum Absichern der Unfallstelle. Dazu gehören Leuchtmittel 15 am unbemannten Luftfahrzeug 1 und absetzbare Leuchtelemente 16, wie z.B. Lampen, Leuchtbänder oder Leuchtelemente auf LED-Basis, sowie Absperr- und Markierungselemente 17 (nicht alle dargestellt). Das unbemannte Luftfahrzeug 1 setzt je nach Art des Verkehrsunfalls 6, 7, die durch die Verkehrsunfalldaten ermittelt wird, der Umgebung, die aus den Umgebungsdaten ermittelt wird, und der Uhrzeit/Tageszeit die Einrichtungen 15, 16, 17 zum Absichern des Unfallstelle ab. Beispielsweise werden bei einer Unfallstelle auf einer Autobahn bei Nacht andere Maßnahmen und Einrichtungen 15, 16, 17 zum Absichern der Unfallstelle eingesetzt, als beispielsweise bei einer Unfallstelle in einer gut beleuchteten Innenstadt. Die Verteilung der Einrichtungen 15, 16, 17 zum Absichern der Unfallstelle können in der Praxis komplett anders aussehen.

Claims (15)

  1. Künstliches neuronales Netz (3), das über eine Datenbank (9) eingelernt ist, welche zumindest Verkehrsunfalldaten enthält, und mit zumindest einem unbemannten Luftfahrzeug (1) in Verbindung steht, welches Umgebungsdaten an das neuronale Netz (3) sendet, wobei das neuronale Netz (3) mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1) einen Verkehrsunfall (6, 7) erkennen und klassifizieren kann.
  2. Künstliches neuronales Netz (3) nach Anspruch 1, dadurch gekennzeichnet, dass es zumindest eine Zwischenschicht zwischen einer Eingabeschicht und einer Ausgabeschicht von künstlichen Neuronen aufweist und zu Deep Learning befähigt ist.
  3. Künstliches neuronales Netz (3) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass es eingerichtet ist, mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1) einen Verkehrsunfall (6, 7) zumindest in einer Simulation zu rekonstruieren.
  4. Künstliches neuronales Netz (3) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass es eingerichtet ist, mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1), unter Zuhilfenahme zumindest des unbemannten Luftfahrzeugs (1), den Verkehrsunfall (6, 7) abzusichern.
  5. Künstliches neuronales Netz (3) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass es eingerichtet ist, mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1) Verkehrsunfälle (6, 7) vorherzusagen.
  6. Künstliches neuronales Netz (3) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass es eingerichtet ist, einen Notruf wenigstens an einen Rettungsdienst zu senden.
  7. Künstliches neuronales Netz nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass es in einem elektronischen Rechengerät (8) des unbemannten Luftfahrzeugs (1) implementiert ist.
  8. Künstliches neuronales Netz nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass es in einem zentralen elektronischen Rechengerät (10) implementiert ist, welches mit dem unbemannten Luftfahrzeug (1) drahtlos in Verbindung steht.
  9. Unbemanntes Luftfahrzeug (1), welches ein künstliches neuronales Netz (3) nach einem der Ansprüche 1 bis 7 und eine Sensorik (2) zur Erfassung von Umgebungsdaten aufweist.
  10. Unbemanntes Luftfahrzeug (1) nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass es Einrichtungen (15, 16, 17) zur Absicherung eines Verkehrsunfalls (6, 7) aufweist.
  11. Verfahren zum Erkennen eines Verkehrsunfalls (6, 7) mittels eines künstlichen neuronalen Netzes (3), umfassend die folgenden Schritte: - Einlernen des künstlichen neuronalen Netzes (3) durch eine Datenbank (9), welche zumindest Verkehrsunfalldaten enthält; - Erfassen von Umgebungsdaten durch eine Sensorik (2) eines unbemanntes Luftfahrzeugs (1); - Erkennen eines Verkehrsunfalls (6, 7) mittels zumindest den Verkehrsunfalldaten der Datenbank (9) und den Umgebungsdaten des unbemannten Luftfahrzeugs (1).
  12. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass das unbemannte Luftfahrzeug (1) den erkannten Verkehrsunfall (6, 7) absichert.
  13. Computerprogramm, welches eingerichtet ist, jeden Schritt des Verfahrens nach einem der Ansprüche 11 oder 12 durchzuführen.
  14. Maschinenlesbares Speichermedium, auf welchem ein Computerprogramm nach Anspruch 13 gespeichert ist.
  15. Elektronisches Rechengerät (8; 10), welches eingerichtet ist, um mittels des Verfahrens nach einem der Ansprüche 11 oder 12 einen Verkehrsunfall (6, 7) zu erkennen.
DE102017203157.3A 2017-02-27 2017-02-27 Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls Withdrawn DE102017203157A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017203157.3A DE102017203157A1 (de) 2017-02-27 2017-02-27 Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls
PCT/EP2018/050660 WO2018153563A1 (de) 2017-02-27 2018-01-11 Künstliches neuronales netz und unbemanntes luftfahrzeug zum erkennen eines verkehrsunfalls

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017203157.3A DE102017203157A1 (de) 2017-02-27 2017-02-27 Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls

Publications (1)

Publication Number Publication Date
DE102017203157A1 true DE102017203157A1 (de) 2018-08-30

Family

ID=60957321

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017203157.3A Withdrawn DE102017203157A1 (de) 2017-02-27 2017-02-27 Künstliches neuronales Netz und unbemanntes Luftfahrzeug zum Erkennen eines Verkehrsunfalls

Country Status (2)

Country Link
DE (1) DE102017203157A1 (de)
WO (1) WO2018153563A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210513A1 (de) * 2019-07-17 2021-01-21 Audi Ag Verfahren zur Unfallassistenz, unbemanntes Luftfahrzeug und Kraftfahrzeug

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018221997A1 (de) * 2018-12-18 2020-06-18 Audi Ag Verfahren zum Betreiben eines unbemannten Luftfahrzeugs für ein Kraftfahrzeug sowie unbemanntes Luftfahrzeug für ein Kraftfahrzeug
CN110286677B (zh) * 2019-06-13 2021-03-16 北京理工大学 一种用于数据采集的无人车控制方法和系统
CN114863680B (zh) * 2022-04-27 2023-04-18 腾讯科技(深圳)有限公司 预测处理方法、装置、计算机设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417554B2 (en) * 2014-05-22 2019-09-17 Lee J. Scheffler Methods and systems for neural and cognitive processing
US9948898B2 (en) * 2014-08-22 2018-04-17 Verizon Patent And Licensing Inc. Using aerial imaging to provide supplemental information about a location
EP3251107A4 (de) * 2015-01-29 2018-09-26 Scope Technologies Holdings Limited Verteilte datenbank für entfernte unfallüberwachung und fahrzeugdiagnostik
KR20160112252A (ko) * 2015-03-18 2016-09-28 엘지전자 주식회사 무인항공장치 및 이의 제어방법
DE102015008768B4 (de) * 2015-07-06 2018-12-13 Audi Ag Verfahren zum Begutachten eines an einem Unfall beteiligten Kraftfahrzeugs und Kraftfahrzeug

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210513A1 (de) * 2019-07-17 2021-01-21 Audi Ag Verfahren zur Unfallassistenz, unbemanntes Luftfahrzeug und Kraftfahrzeug

Also Published As

Publication number Publication date
WO2018153563A1 (de) 2018-08-30

Similar Documents

Publication Publication Date Title
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
WO2018153563A1 (de) Künstliches neuronales netz und unbemanntes luftfahrzeug zum erkennen eines verkehrsunfalls
DE102018125763A1 (de) Rettungssystem und Rettungsverfahren und für das Rettungssystem und das Rettungsverfahren verwendeter Server
DE112015004135T5 (de) Fahrzeugsteuerungsvorrichtung
EP3688538A1 (de) Verfahren und system zum aktualisieren eines steuerungsmodells für eine automatische steuerung zumindest einer mobilen einheit
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102019209552A1 (de) Verfahren zur Verkehrserfassung
DE102015213526A1 (de) Verfahren und System zum Warnen eines Fahrers eines Fahrzeugs
EP3499473A1 (de) Automatisiertes detektieren von gefahrensituationen
DE102016224576B4 (de) Verhaltensmodell von Verkehrsteilnehmern für ein Fahrerassistenzsystem umfassend Statistiken zu Abweichungen vom Normverhalten
DE102018118233A1 (de) Computerimplementiertes verfahren, softwareprogramm und vorrichtung zur aufforderung einer bildung einer einsatzgasse
DE102017216847A1 (de) Verfahren zur Führung eines Kraftfahrzeugs oder eines Benutzers zu einer Parkposition
EP3112214A1 (de) Verfahren zum steuern eines scheinwerfers eines fahrzeugs, verfahren zum generieren von positionsdaten zum steuern eines scheinwerfers eines fahrzeugs und verfahren zum betreiben einer lichtanlage eines fahrzeugs
DE102017210394B3 (de) Verfahren zum Betrieb von Kraftfahrzeugen in einer Parkumgebung und Recheneinrichtung
DE102017219292A1 (de) Verfahren und vorrichtung zum erfassen von ereignisbezogenen daten bezüglich eines fahrzeugs
DE112017003626T5 (de) Biologisches informationsspeichersystem und fahrzeuginterne biologische informationsspeichervorrichtung
DE102020006421A1 (de) Fahrzeug mit einem Assistenzsystem zum automatisierten Fahrbetrieb
WO2019076695A1 (de) Verfahren zum auswerten von verkehrsdaten, computerprogramm, maschinenlesbares speichermedium und vorrichtung
DE102018009360A1 (de) Automatisierte Erstellung eines Unfallberichts
DE102021112804A1 (de) Verfahren, Fahrzeugsteuergerät und Fahrzeug zur vorausschauenden Datenerhebung von vernetzten Verkehrsteilnehmern
DE102017200163A1 (de) Verfahren und Vorrichtung zum Überwachen eines abgestellten Kraftfahrzeugs
DE102021207415A1 (de) Verfahren zur Informationsbeschaffung und Assistenzsystem
DE102021004117A1 (de) Verfahren zum Verhindern eines negativ sicherheitsrelevanten Fahrverhaltens
DE102021001795A1 (de) Verfahren zur Erkennung von Verkehrsunfällen in einem Fahrzeug und zur Datenverarbeitung von Unfalldaten
DE102022110545A1 (de) Verfahren zur Reaktion auf ein vorgegebenes Tier in einer Fahrzeugumgebung eines parkenden Fahrzeuges sowie Fahrassistenzsystem und Fahrzeug

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee