DE102013213807A1 - Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells - Google Patents

Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells Download PDF

Info

Publication number
DE102013213807A1
DE102013213807A1 DE201310213807 DE102013213807A DE102013213807A1 DE 102013213807 A1 DE102013213807 A1 DE 102013213807A1 DE 201310213807 DE201310213807 DE 201310213807 DE 102013213807 A DE102013213807 A DE 102013213807A DE 102013213807 A1 DE102013213807 A1 DE 102013213807A1
Authority
DE
Germany
Prior art keywords
sensor data
representation
model
environment
fusion model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201310213807
Other languages
English (en)
Inventor
Wendelin Feiten
Michael Fiegert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE201310213807 priority Critical patent/DE102013213807A1/de
Priority to PCT/EP2014/057867 priority patent/WO2014183953A1/de
Publication of DE102013213807A1 publication Critical patent/DE102013213807A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Stored Programmes (AREA)

Abstract

Als Fusionsmodell (8) wird eine Rechenregel eingeführt, welche es erlaubt, anhand Sensordaten (4, 40) geeignete Änderungen in einer Umgebungsrepräsentation (6), d. h. in der internen, durch eine Fahrerassistenzapplikation wahrgenommene Schätzung der Umgebung, zu ermitteln. Es handelt sich bei dem Fusionsmodell (8) somit beispielsweise um eine Rechenregel, welche angibt, wie die Sensordaten (4, 40) in Bezug auf einen Umgebungsrepräsentations-Typ (beispielsweise Gitterkarte oder Objektliste) zu interpretieren sind, und nach der die Sensordaten (4, 40) in die Umgebungsrepräsentation (6) umgerechnet werden können. Die tatsächlichen Änderungen in der Umgebungsrepräsentation (6) werden jedoch von einer modular getrennten Inferenzmaschine (80) vorgenommen, welche hierzu das Fusionsmodell (8) interpretiert. Die modulare Aufteilung der Sensorfusion in Fusionsmodell (8) und Inferenzmaschine (80) verringert Abhängigkeiten bei der Entwicklung von Fahrerassistenzsystemen und ermöglicht somit eine flexiblere Arbeitsteilung. Ferner wird ein Aufwand bei Entwurfs- und Testzyklen reduziert. Durch die Modularisierung können die Entwicklungsaufgaben stärker unter den Lieferanten aufgeteilt werden. Weiterhin lässt sich das Fusionsmodell (8) nun durch maschinelles Lernen erstellen, indem es beispielsweise als Faktorgraph formuliert und durch Lösung eines gemischt diskretkontinuierlichen Optimierungsproblems parametriert wird.

Description

  • Für die folgenden Ausführungen müssen die Begriffe ”Modell” und ”Repräsentation” unterschiedlich definiert werden. Als Modell werden im Folgenden Datenstrukturen bezeichnet, welche Aspekte einer realen Umgebung weitgehend exakt modellieren und daher als zuverlässige Eingabe und/oder Vorgabe für Algorithmen zur Sensorfusion sowie zu deren Training verwendet werden können. Derartige Modelle werden in der Regel von Experten mit großer Sorgfalt und hohem Zeitaufwand erstellt.
  • Abweichend davon soll der Begriff „Repräsentation” diejenigen geschätzten Annahmen und Meinungen bezeichnen, welche sich eine Software, beispielsweise ein Algorithmus zur Sensorfusion, selbst über eine Umgebung bilden muss. Eine derartige Repräsentation ist folglich Arbeitsergebnis eines Computerprogrammablaufs und muss gegenüber den zuvor genannten Modellen notwendigerweise sowohl in ihrem Detaillierungsgrad als auch in ihrer Zuverlässigkeit zurückbleiben.
  • Entsprechend bezeichnet im Folgenden ein Umgebungsmodell ein weitgehend exaktes Modell einer realen Umgebung, welches ein Experte beispielsweise durch exakte manuelle Vermessung einer Testumgebung und anschließende Konstruktion eines fein aufgelösten Polygonmodells erstellt hat. Demgegenüber bezeichnet im Folgenden eine Umgebungsrepräsentation eine interne Repräsentation einer Umgebung, welche beispielsweise durch einen Algorithmus zur Sensorfusion als Gitterkarte erzeugt wird und notwendigerweise sowohl in ihrem Detaillierungsgrad als auch in ihrer Zuverlässigkeit gegenüber dem Umgebungsmodell zurückbleiben muss. Die Begriffe Umgebungsrepräsentation und interne Umgebungsrepräsentation sind hierbei synonym zu verstehen. Die Begriffe Messwerte, Sensordaten und Sensorsignale werden ebenfalls synonym verwendet.
  • Analog hierzu bezeichnet im Folgenden ein Fahrzeugmodell ein weitgehend exaktes Modell eines Fahrzeugs, beispielsweise in Form eines hochauflösenden 3D-Modells oder Bauplans. Demgegenüber bezeichnet im Folgenden eine Fahrzeugrepräsentation geschätzte Zustände des Fahrzeugs, beispielsweise ob ein Schleudern vorliegt oder nicht.
  • Weiterhin bezeichnet im Folgenden ein Fahrermodell ein weitgehend exaktes Modell eines Fahrers, beispielsweise in Form eines animierten humanoiden 3D-Modells, welches realistische Kopf, Augen- und Lidbewegungen zeigt. Demgegenüber bezeichnet im Folgenden eine Fahrerrepräsentation geschätzte bzw. vermutete Zustände des Fahrers, beispielsweise ob er ermüdet ist oder nicht.
  • Häufig wird es sich bei der Umgebung um eine Umgebung eines Fahrzeugs handeln. Als Sonderfall kann es sich bei der Umgebung jedoch auch um das Fahrzeug selbst bzw. um dessen Fahrer handeln. Sofern nicht genauer bezeichnet, soll der Begriff Umgebungsmodell daher im Folgenden auch die Sonderfälle Fahrzeugmodell und Fahrermodell beinhalten. Ebenso soll der Begriff Umgebungsrepräsentation, sofern nicht genauer bezeichnet, im Folgenden auch die Sonderfälle Fahrzeugrepräsentation und Fahrerrepräsentation beinhalten.
  • Die im Folgenden beschriebenen Algorithmen können jedoch auch ein Umgebungsmodell, ein Fahrzeugmodell und/oder ein Fahrermodell sowie eine Umgebungsrepräsentation, eine Fahrzeugrepräsentation und/oder eine Fahrerrepräsentation nebeneinander verwenden, wobei diese dann in getrennten Modulen vorliegen und in geeigneter Weise gemeinsam zusammenwirken.
  • Ein wesentlicher Schritt im Entwurf von Fahrerassistenzsystemen ist die Herleitung von internen Repräsentationen der Umgebung, des Fahrzeugs und des Fahrers aus den Messwerten von einem oder mehreren Sensoren, im Folgenden als Fusionsalgorithmus bezeichnet. In einem Fahrzeug werden heutzutage mehrere Fahrerassistenzapplikationen integriert. Die Festlegung des Fusionsalgorithmus sowie die Implementierung der eigentlichen Applikation auf Grund der verwendeten Umgebungsrepräsentation liegen herkömmlicherweise in der Hand des jeweiligen Entwicklers.
  • Der konkrete Fusionsalgorithmus bleibt dabei der Erfahrung und dem Fingerspitzengefühl des jeweiligen Entwicklers überlassen und wird in der Regel von Hand entwickelt. Ein entscheidendes Element dieser Entwicklung ist die Art und Weise, wie aus Sensordaten auf die Umgebungsrepräsentation geschlossen werden kann, also das inverse Sensormodell. Der manuelle Entwurf bzw. das manuelle Parametrieren dieses inversen Sensormodells erfordert allerdings wieder Expertise über sämtliche anderen verwendeten Systeme, Modelle und Repräsentationen. Der jeweilige Entwickler muss daher die Eigenheiten der eingesetzten Sensoren und des Umgebungsrepräsentations-Typs genau kennen. Ferner benötigt er Expertenwissen über die Techniken des Schließens unter Unsicherheit.
  • Wenn ein neuer Sensortyp in das System integriert werden soll, muss der gesamte Fusionsalgorithmus wieder aufgeschnürt werden. Dann muss der Fusionsalgorithmus wieder unter Berücksichtigung des neuen Sensortyps neu formuliert werden. Auch hierzu muss der Entwickler wieder die Eigenheiten dieses neuen Sensortyps genau kennen.
  • Nach gegenwärtigem Stand ist es im Entwurf von Fahrerassistenzsystemen somit üblich, den Fusionsalgorithmus von Hand zu entwerfen und anschließend experimentell bzw. in Simulation zu überprüfen, wie gut die resultierende Umgebungsrepräsentation den Ansprüchen der Fahrerassistenzapplikation genügt.
  • Es stellt sich die Aufgabe, eine Anordnung und ein Verfahren zur Sensorfusion sowie ein Herstellungsverfahren zur Erstellung eines Fusionsmodells anzugeben, welche eine Wiederverwendbarkeit der entsprechenden Anordnungen und Verfahren erhöhen und/oder Entwicklungsarbeiten im Bereich der Sensorfusion vereinfachen.
  • Diese Aufgabe wird erfindungsgemäß durch eine Anordnung zur Sensorfusion gelöst,
    • – umfassend eine Schnittstelle zum Empfang realer Sensordaten oder virtueller Sensordaten,
    • – umfassend einen Speicher, auf welchem eine Umgebungsrepräsentation gespeichert ist, welche einem vorgegebenen Umgebungsrepräsentations-Typ entspricht, gekennzeichnet durch
    • – eine Inferenzmaschine, in welcher ein Computerprogramm abgearbeitet wird, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine getrennten Fusionsmodells Änderungen in der Umgebungsrepräsentation vorzunehmen, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionieren.
  • Auf dem computerlesbaren Datenträger ist ein Fusionsmodell gespeichert, welches für eine Verwendung durch die Inferenzmaschine der Anordnung eingerichtet ist.
  • Weiterhin wird die Aufgabe erfindungsgemäß durch ein Verfahren zur Sensorfusion gelöst,
    • – bei dem reale Sensordaten oder virtuelle Sensordaten empfangen werden,
    • – bei dem auf eine Umgebungsrepräsentation zugegriffen wird, welche einem vorgegebenen Umgebungsrepräsentations-Typ entspricht, dadurch gekennzeichnet, dass
    • – eine Inferenzmaschine rechnergestützt anhand eines modular von der Inferenzmaschine getrennten Fusionsmodells Änderungen in der Umgebungsrepräsentation vornimmt, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionieren.
  • Außerdem wird die Aufgabe erfindungsgemäß durch ein Herstellungsverfahren zur Erstellung eines Fusionsmodells gelöst,
    • – bei dem rechnergestützt anhand eines Sensormodells virtuelle Messungen in einem Umgebungsmodell simuliert und anhand der virtuellen Messungen virtuelle Sensordaten erzeugt werden, die ein Umgebungsmodell zumindest teilweise abbilden,
    • – bei dem ein Fusionsmodell mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die virtuellen Sensordaten als Eingabe erhält und als Ausgabe entsprechende Änderungen in einer Umgebungsrepräsentation mit einem vorgegeben Umgebungsrepräsentations-Typ vorschreibt,
    • – bei dem das Fusionsmodell durch rechnergestütztes maschinelles Lernen erstellt wird, wobei
    • – eine Ziel-Umgebungsrepräsentation aus dem Umgebungsmodell und dem Umgebungsrepräsentations-Typ hergeleitet wird, welche ein Trainingsziel für das maschinelle Lernen vorgibt,
    • – das Fusionsmodell durch Lösung eines kontinuierlichen Optimierungsproblems parametriert wird,
    • – eine von dem Fusionsmodell modular getrennte Inferenzmaschine rechnergestützt anhand des Fusionsmodells (8) und der realen Sensordaten oder virtuellen Sensordaten Änderungen in der Umgebungsrepräsentation vornimmt, welche die realen Sensordaten oder virtuellen Sensordaten mit der Umgebungsrepräsentation fusionieren,
    • – die Umgebungsrepräsentation mit der Ziel-Umgebungsrepräsentation verglichen wird, woraus sich ein Fehler ergibt, welcher bei der Lösung des kontinuierlichen Optimierungsproblems minimiert wird.
  • Auf dem computerlesbaren Datenträger ist ein Computerprogramm gespeichert, welches eines der Verfahren ausführt, wenn es in einem Mikroprozessor abgearbeitet wird.
  • Das Computerprogramm wird in einem Mikroprozessor abgearbeitet und führt dabei eines der Verfahren aus.
  • Die im Folgenden ausgeführten Vorteile und Erläuterungen müssen nicht notwendigerweise die Gegenstände der unabhängigen Patentansprüche betreffen. Vielmehr kann es sich hierbei auch um Vorteile oder Aspekte handeln, welche lediglich einzelne Ausführungsformen, Varianten oder Weiterbildungen betreffen.
  • Als Fusionsmodell wird mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens ein Algorithmus verstanden, welche(r) es erlaubt, anhand Sensordaten geeignete Änderungen in einer Umgebungsrepräsentation zu ermitteln. Wie eingangs definiert ist die Umgebungsrepräsentation hierbei eine interne, durch eine Fahrerassistenzapplikation wahrgenommene Schätzung der Umgebung. Es handelt sich bei dem Fusionsmodell somit beispielsweise um eine Rechenregel, welche die Sensordaten in die Umgebungsrepräsentation übersetzt – mit anderen Worten eine Umrechnungsvorschrift, welche angibt, wie die Sensordaten in Bezug auf einen Umgebungsrepräsentations-Typ (beispielsweise Gitterkarte oder Objektliste) zu interpretieren sind, und nach der die Sensordaten in die Umgebungsrepräsentation umgerechnet werden können.
  • Die tatsächlichen Änderungen in der Umgebungsrepräsentation werden nicht von dem Fusionsmodell, sondern von der Inferenzmaschine vorgenommen, welche hierzu das Fusionsmodell interpretiert. Folglich besteht zumindest funktional eine modulare Trennung zwischen der Inferenzmaschine und dem Fusionsmodell. Die modulare Trennung bedeutet hierbei, dass das Fusionsmodell austauschbar, trainierbar oder veränderbar ist, ohne dass hierbei eine Anpassung der Inferenzmaschine zu erfolgen hätte, welche über die bloße Bereitstellung des neuen Fusionsmodells hinausgehen würde. Folglich kann das Fusionsmodell außerhalb oder innerhalb der Inferenzmaschine angeordnet sein. Ferner kann die Inferenzmaschine als Mikroprozessor, Softwareprogramm oder virtuelle Maschine implementiert werden. Es handelt sich bei der modularen Trennung somit um eine funktionale bzw. logische Trennung. Ergänzend kann optional auch eine räumliche Trennung vorgesehen werden, indem der Speicherort des Fusionsmodells von der Inferenzmaschine separiert wird.
  • Die funktionale Trennung des Sensormodells ermöglicht es, einem Entwickler von Fahrerassistenzfunktionen eine Entwurfsbibliothek mit einer Vielzahl hochentwickelter Fusionsmodelle zur Verfügung zu stellen, ohne dass der Entwickler selbst eine vollständige Expertise über die jeweiligen Algorithmen besitzen muss.
  • Bei dem Herstellungsverfahren für das Fusionsmodell wird als Umgebungsrepräsentations-Typ beispielsweise einer der folgenden vorgegeben: 2D-Gitterkarte, 3D-Gitter- oder Würfelkarte, Polygonmodell, Objektlisten (Liste der Mittelpunkte von Objekten oder von Rechteckhüllen mit Größenangabe) oder einfache Listen von Zuständen.
  • Die modulare Aufteilung der Sensorfusion in Fusionsmodell und Inferenzmaschine verringert Abhängigkeiten bei der Entwicklung von Fahrerassistenzsystemen und ermöglicht somit eine flexiblere Arbeitsteilung. Ferner wird ein Aufwand bei Entwurfs- und Testzyklen reduziert. Durch die Modularisierung können die Entwicklungsaufgaben stärker unter den Lieferanten aufgeteilt werden.
  • Ein weiterer Vorteil liegt in der Möglichkeit, Fahrerassistenzsysteme durch die geschaffene erhöhte Modularität schrittweise weiter zu entwickeln. Statt wie herkömmlich jede Applikation mit eigenen Sensoren auszustatten, können bestehende Sensoren und Inferenzmaschinen zur Sensorfusion wiederverwendet werden, indem deren Fusionsmodelle geeignet modifiziert werden. Der Mehrpreis einer neuen Fahrerassistenzapplikation orientiert sich dann nur noch an den gegebenenfalls zusätzlich verbauten Sensoren und den Kosten für neue Software.
  • Die Inferenzmaschine sowie weitere benötigte Recheneinheiten, Simulatoren etc. können hardwaretechnisch und/oder auch softwaretechnisch implementiert werden. Bei einer hardwaretechnischen Implementierung kann sie als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steuerrechner eines Fahrzeuges ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
  • Bei dem computerlesbaren Datenträger handelt es sich beispielsweise um eine Speicherkarte, einen USB-Stick, eine CD-ROM, eine DVD oder auch um einen Datenträger eines Servers, von welchem eine Datei mit dem Computerprogramm in einem Netzwerk bereitgestellt oder geliefert wird. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung der entsprechenden Datei erfolgen.
  • Gemäß einer Ausführungsform ist die Inferenzmaschine ein graphenbasierter generischer probabilistischer Inferenzapparat. Das Fusionsmodell beinhaltet einen Faktorgraphen.
  • Weiterhin existiert eine Weiterbildung,
    • – bei der sowohl die Umgebungsrepräsentation auch die virtuellen Sensordaten Zufallsvariable enthalten,
    • – bei der der Faktorgraph des Fusionsmodells jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und
    • – bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.
  • Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren,
    • – bei dem der Fehler anhand einer Fehlerfunktion ermittelt wird, welche Anforderungen einer Fahrerassistenzfunktion berücksichtigt.
  • In einer Weiterbildung ergibt sich ein Herstellungsverfahren,
    • – bei dem das Umgebungsmodell eine Umgebung eines Fahrzeugs, ein Fahrzeug mit Zuständen und/oder einen Fahrer eines Fahrzeugs modelliert, und
    • – bei dem das Sensormodell eine 2D- oder 3D-Kamera, einen Ultraschallsensor, einen 2D- oder 3D-Laserscanner, ein 2D- oder 3D-Radar, ein Lidar, einen Raddrehungssensor, einen Inertialsensor, einen Beschleunigungssensor, einen Drehratensensor, einen Temperatursensor, einen Luftfeuchtesensor, einen Positionssensor zur Bestimmung zumindest eines Parameters der Fahrdynamik eines Fahrzeuges, einen Sitzbelegungssensor oder einen Entfernungssensor modelliert, und
    • – bei dem der vorgegebene Umgebungsrepräsentations-Typ eine 2D- oder 3D-Gitterkarte, eine Objektliste oder eine Liste von Zuständen ist.
  • Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren,
    • – bei dem das Fusionsmodell durch Lösung eines gemischt diskret-kontinuierlichen Optimierungsproblems aus einer Menge von Fusionsmodellen ausgewählt und parametriert wird.
  • In einer Weiterbildung ergibt sich ein Herstellungsverfahren,
    • – bei dem die Inferenzmaschine ein probabilistischer Inferenzapparat ist,
    • – bei dem das Fusionsmodell einen Faktorgraphen beinhaltet,
    • – bei dem sowohl die Umgebungsrepräsentation als auch die realen Sensordaten oder die virtuellen Sensordaten Zufallsvariable enthalten,
    • – bei dem der Faktorgraph des Fusionsmodells jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und
    • – bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben,
    • – bei dem die Faktorknoten und die Verbindungen jedes Faktorknotens durch den diskreten Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell aus der Menge möglicher Faktorgraphen ausgewählt wird, und
    • – bei dem kontinuierliche Parameter der Faktorknoten durch den kontinuierlichen Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell parametriert wird.
  • Gemäß einer Ausführungsform ergibt sich ein Herstellungsverfahren,
    • – bei dem das gemischt diskret-kontinuierliche Optimierungsproblem gelöst wird mithilfe
    • – von genetischen Algorithmen,
    • – von Ameisen-Algorithmen, oder
    • – einer nichtlinearen Optimierung, insbesondere mittels eines Branch-and-Bound-Algorithmus.
  • In einer Weiterbildung ergibt sich ein Herstellungsverfahren,
    • – bei dem der Umgebungsrepräsentations-Typ (7) eine 2D- oder 3D-Gitterkarte ist,
    • – bei dem die Zufallsvariablen in der Umgebungsrepräsentation (6) jeweils für Zellen oder Würfel eingetragen und aktualisiert werden, und
    • – bei dem die Zufallsvariablen eine Unsicherheit einer Information ausdrücken, insbesondere eine Belegungswahrscheinlichkeit für die jeweilige Zelle oder den jeweiligen Würfel.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert. In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen, sofern nichts anderes angegeben ist. Es zeigen:
  • 1 eine Architektur eines Fahrerassistenzsystems,
  • 2 ein maschinelles Lernverfahren für ein Fusionsmodell,
  • 3 eine Anordnung bzw. ein Verfahren zur Sensorfusion.
  • 1 zeigt eine Architektur eines Fahrerassistenzsystems und insbesondere den Aufbau einer Umgebungsrepräsentation 6 aus realen Sensordaten 4. Ein Sensor 1 führt eine reale Messung 3 in einer realen Umgebung 2 durch und erzeugt hierbei die realen Sensordaten 4. Für die Übersetzung der realen Sensordaten 4 in die Umgebungsrepräsentation 6 ist im Grunde immer eine Sensordatenfusion 5 erforderlich. Denn ab der zweiten Messung muss bereits eine zeitliche Fusion vorgenommen werden. Mehrere Sensoren an unterschiedlichen Orten erfordern eine örtliche Fusion der realen Sensordaten 4. Weiterhin müssen auch unterschiedliche Sensortypen, etwa Ultraschall und Kamera, unter besonderer Berücksichtigung ihrer Eigenschaften durch die Sensordatenfusion 5 fusioniert werden.
  • Ohne Einschränkung der Allgemeinheit kann das hier beschriebene Ausführungsbeispiel als Entwurfsprozess und Entwurfssystem für Fahrerassistenzsysteme verstanden werden. Die in 1 gezeigte generische Architektur eines Fahrerassistenzsystems ist also nicht auf eine Formalisierung des Entwurfsprozesses beschränkt, sondern eignet sich auch als Systemarchitektur zur Sensorfusion sowie zur Implementierung einer Fahrerassistenz-Anwendung 9, welche ein Fahrzeugverhalten 100 steuert.
  • Bei dieser Architektur kommt der Sensordatenfusion 5 eine zentrale Rolle zu. Sie ist dafür verantwortlich, aus der Folge der realen Sensordaten 4 verschiedener Sensoren 1 die Umgebungsrepräsentation 6, d. h. wie eingangs definiert eine interne Repräsentation der Umgebung, des Fahrzeugzustandes und/oder des Zustandes des Fahrers herzuleiten. Die Einträge in der Umgebungsrepräsentation 6 stammen folglich aus Beobachtungen, d. h. den realen Sensordaten 4.
  • Meist wird dabei ein Umgebungsrepräsentations-Typ 7, d. h. der Typ der Umgebungsrepräsentation 6, vom Entwickler vorab festgelegt. Der Umgebungsrepräsentations-Typ 7 kann z. B. eine Belegungsgitterkarte sein oder eine Objektliste, er kann Parameter des Fahrzeugzustandes festlegen oder eine Menge möglicher Zustände für den Fahrer vorgeben (”müde”, ”wach”, ”gleichmütig”, ”angespannt”, ...).
  • Die zustandsabhängigen Einträge in der Umgebungsrepräsentation 6 werden modifiziert, je nachdem, was die Sensoren 1 messen. Z. B. kann die Belegungswahrscheinlichkeit in einer Zelle einer Belegungsgitterkarte erhöht werden, wenn der Sensor 1 einen Abstand zu einem Hindernis in entsprechendem Abstand misst. Die Einträge in der Umgebungsrepräsentation 6, wie z. B. eine Belegungswahrscheinlichkeit, drücken in der Regel eine Unsicherheit der Information aus. Daher entsprechen sie meist einem der bekannten Unsicherheitskalküle, insbesondere aus der Fuzzy-Theorie, dem Dempster-Shafer-Kalkül oder der Wahrscheinlichkeitsrechnung. Meistens wird Wahrscheinlichkeitsrechnung verwendet, und die Einträge sind Zufallsvariable. Aus Effizienzgründen wird oft eine parametrische Wahrscheinlichkeitsdichteverteilung zugrunde gelegt, es kann aber auch eine stichprobenbasierte Darstellung gewählt werden, wie es im Gebiet der autonomen Roboter üblich ist.
  • Die Rechenregel, nach der die Einträge in der Umgebungsrepräsentation 6 aufgrund der realen Sensordaten 4 modifiziert werden, ist in 1 als Fusionsmodell 8 eingetragen.
  • Ein Beispiel für die Fahrerassistenz-Anwendung 9 ist eine Fahrerassistenzfunktion zum automatischen Einparken. Dieses Beispiel ist angelehnt an die Darstellungen in Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, Kap. 6. Die Fahrerassistenz-Anwendung 9 zum automatischen Einparken braucht als Umgebungsrepräsentation 6 eine Karte der Umgebung, in der eine Parklücke identifiziert werden kann und dann eine Bahn in diese Parklücke hinein geplant werden kann. Der Umgebungsrepräsentations-Typ 7 dieser Karte wird in der Regel eine Belegungsgitterkarte sein. Dazu wird die Ebene, in der sich das Fahrzeug befindet, meistens in quadratische, gleich große Zellen aufgeteilt, für die festgehalten wird, ob diese Zelle belegt ist oder nicht. Die Kantenlänge einer Zelle liegt meist zwischen 0.05 m und 1.0 m, kann aber auch kleiner oder größer sein. Eine solche Gitterkarte ist ein Beispiel für eine Umgebungsrepräsentation 6 der Umgebung.
  • Die Umgebungsrepräsentation 6 soll also grundsätzlich über einen gewissen Zeitraum hinweg statisch sein, d. h. in ihr sollen die Teile der realen Umgebung 2 modelliert sein, die sich über eine gewisse Zeit hinweg nicht ändern. Die Messung hängt eigentlich ab von der realen Umgebung 2. Bei der Herleitung der Umgebungsrepräsentation 6, wird dies in der Literatur häufig synonym genommen zu der Information in der Umgebungsrepräsentation 6, also der Karte der Umgebung.
  • 2 zeigt eine separate und explizite Modellierung der Sensoreigenschaften mit einem Sensormodell 10, der Umgebungseigenschaften mit einem Umgebungsmodell 20, des Umgebungsrepräsentations-Typ 7 und der Umgebungsrepräsentation 6 selbst. Dabei wird im Entwurfsprozess die erforderliche Expertise über die Sensorhardware von der Expertise über Anwendungsbereiche entkoppelt.
  • Das Sensormodell 10, ein nicht gezeigtes Fahrzeugmodell und das Umgebungsmodell 20 ermöglichen hierbei die Simulation virtueller Messungen 30, woraus virtuelle Sensordaten 40 resultieren. Die zuvor angesprochene Entkopplung geschieht dadurch, dass im Sensormodell 10 zum Einen die Sensorhardware so ausführlich physikalisch modelliert wird, dass mittels einer geeigneten Simulation und aufgrund des entsprechend ausführlichen Umgebungsmodells 20 die virtuellen Messungen 30 für den Sensor simuliert werden können. Dabei wird nicht etwa ein deterministischer, also immer gleicher Messwert ermittelt, sondern die virtuellen Sensordaten 40 unterliegen den gleichen zufälligen Schwankungen wie die in Experimenten ermittelten realen Sensordaten (vgl. 1). Das Sensormodell 10 enthält folglich die physikalischen Eigenschaften des Sensors. Welche das sind, hängt natürlich von den jeweiligen Sensortypen ab.
  • Das Umgebungsmodell 20 enthält diejenigen physikalischen Eigenschaften der Umgebung, die zur Simulation bzw. Herleitung der ”ground truth” der internen Umgebungsrepräsentation benötigt werden: Für jedes Sensormodell 10, das verwendet werden soll, müssen im Umgebungsmodell 20 die entsprechenden physikalischen Eigenschaften der Umgebung enthalten sein.
  • Für eine Videokamera als Sensor umfassen diese Eigenschaften die Geometrie und die Texturen (optischen Reflexionseigenschaften) der Objekte. Zahlreiche sehr weit entwickelte Beispiele für solche Umgebungsmodelle 20 finden sich in den Bereichen Computeranimation für Filme, Computerspiele, Architektursimulation, etc. Bei diesen Umgebungsmodellen 20 werden z. T. auch Eigenschaften des Übertragungsmediums mit simuliert (Nebel, Regen, Schnee, ...) sowie Eigenschaften der Beleuchtung.
  • Für die Simulation eines Ultraschallsensors reicht als Umgebungsmodell 20 eine Approximation der Geometrie zusammen mit den akustischen Reflexionseigenschaften. Je nach Simulationsprinzip werden die Objekte im Umgebungsmodell 20 so modelliert, dass Schnitte mit Strahlen berechnet werden können, oder dass die Reflektion von Wellen an den Oberflächen berechnet werden kann. Dazu werden dann auch die Normalen auf den Oberflächen benötigt.
  • Die Formate, in denen zum Einen das Sensormodell 10 und zum Anderen das Umgebungsmodell 20 aufgestellt sind, müssen zu den entsprechenden Simulatoren passen. Hierzu empfiehlt sich eine Standardisierung, die allerdings einen gewissen Freiraum lassen sollte. Aussichtsreichster Kandidat dafür ist auch hier eine probabilistische Formulierung, d. h. die entsprechenden Parameter werden als Zufallsvariable aufgefasst.
  • In diesem Kontext beschreibt das Fahrzeugmodell, wo sich die Sensoren relativ zum Fahrzeug befinden. In erster Linie sind hier die geometrischen Verhältnisse relevant. Es können aber auch elektrische Verhältnisse relevant werden, wenn z. B. laut Sensormodell 10 Schwankungen in der Versorgungsspannung zu erhöhtem Rauschen bei den Messwerten führen können. In diesem Fall ist auch die Versorgungsspannung (ggf. als Zufallsvariable) Teil des Fahrzeugmodells.
  • Die Sensorsimulation erstellt aus dem Sensormodell 10 und dem Umgebungsmodell 20 die gleichen virtuellen Sensordaten 40, wie sie auch die echten Sensoren in einer realen Einsatzumgebung erzeugen würden. Die Simulation kann als Eingangswerte Zufallsvariable verarbeiten, und auch die virtuellen Sensordaten 40 sind Zufallsvariable, und ihre Wahrscheinlichkeitsdichteverteilung wird mit simuliert.
  • Die Simulation kann dabei auf sehr unterschiedlichen Genauigkeitsstufen erfolgen, wobei in der Regel ein umso höherer Speicherplatz- und Rechenzeitbedarf entsteht, je genauer die Simulation ist.
  • Eine sehr einfache Simulation beruht darauf, dass für eine diskrete, oft sehr kleine Zahl von vom Sensor ausgehenden Strahlen die Schnittpunkte dieser Strahlen mit Objekten in der Umgebung gebildet werden. Dazu müssen also im Umgebungsmodell 20 die Schnittpunkte von Strahlen mit Objekten gebildet werden können. Diese Simulation vernachlässigt die Reflektion von akustischen Wellen an Flächen und liefert somit mehr Messwerte als der physikalische Sensor.
  • In einer anderen Simulationsmethode werden zusätzlich zu den Schnittpunkten der Strahlen mit den Oberflächen auch die Normalenvektoren auf den Oberflächen an den Schnittpunkte berücksichtigt. Dadurch kann man beurteilen, ob eine Schallwelle zu einem Empfänger hin reflektiert wird (dies kann auch der Sender sein) und somit ein Echo gemessen wird, oder ob kein Echo gemessen wird.
  • Eine weitere Simulationsmethode wird deutlich stärker vom Umgebungsrepräsentations-Typ 7 der Umgebungsrepräsentation 6 geprägt. Konkret wird hier das Volumen der internen Umgebungsrepräsentation in Gitterzellen zerlegt und der Verlauf der Druckverteilung über die Zeit simuliert. Dieses Verfahren (je nach Auflösung, d. h. Größe der Gitterzellen und Zeitintervalle) simuliert die Echos von sehr zerklüfteten Hindernissen, und simuliert auch Echos die über mehrere Reflektoren zu einem Empfänger gelangen, so genannte Multi-Path Echos.
  • Beispielsweise sendet der Ultraschallsensor ein kegelförmiges Signal aus. Ein Echo kann durch ein Kreissegment (2D) bzw. einen Kugelschalenabschnitt (3D) innerhalb dieses Kegels beschrieben werden, dessen Radius der gemessenen Entfernung entspricht. Entsprechend wird eine Wahrscheinlichkeit eines Hindernisses in allen Zellen erhöht, die von dem Kreissegment geschnitten werden, und in allen Zellen erniedrigt, die auf dem Weg dorthin vom Strahl passiert wurden.
  • Durch die Vereinbarung von Formaten können das Sensormodell 10, das Umgebungsmodell 20 und das Fahrzeugmodell von verschiedenen Lieferanten stammen und dennoch zusammenpassen. Ähnliche de facto Standards existieren bereits im Bereich CAD (z. B. das STEP Format). Im Kontext der Ausführungsbeispiele werden Standards benötigt, in denen auch die Wahrscheinlichkeitsdichtefunktionen beschrieben werden können.
  • Bei der expliziten Trennung der Modellierung kann das Sensormodell 10 vom Sensorhersteller stammen. Das Umgebungsmodell 20 kann von einer Firma stammen, die sich auf die 3D Modellierung spezialisiert hat. Der Simulator kann wiederum von einer Firma stammen, die sich auf Simulation spezialisiert hat. Das Fahrzeugmodell steuert in Zukunft der Systemintegrator bei. Verwendet werden die Modelle und der Simulator normalerweise vom Systemintegrator, also einem Automobilhersteller oder -designer.
  • Durch die getrennte Modellierung (im Sensormodell 10) und physikalische Simulation (im Umgebungsmodell 20) lassen sich die verschiedenen Beiträge von physikalischer Sensorhardware und von Sensorsignalkonditionierung (Sensormodell 10) auf der Ebene der Systemintegration trennen von den Einflüssen aus der Einsatzumgebung (Umgebungsmodell 20). Dabei braucht der Systemintegrator keine Expertise mehr über die Sensorhardware, da diese im Sensormodell 10 erfasst ist. Durch die Simulation des Gesamtsystems (Sensormodell 10 + Fahrzeugmodel 15 + Umgebungsmodell 20) wird so das für die gegebene Applikation relevante Vorwärtssensormodell entwickelt.
  • Davon unbenommen bleibt die Möglichkeit, das simulierte Vorwärtssensormodell an echten Daten zu validieren bzw. Parameter in diesem Modell zu schätzen.
  • Im Folgenden wird, nach wie vor im Kontext der 2, ein Ausführungsbeispiel für die Ableitung einer Ziel-Umgebungsrepräsentation 60 zur Vorbereitung eines maschinellen Lernens des Fusionsmodells 8 erläutert.
  • Um den Entwurf des Fusionsmodells 8 zu unterstützen, wird wie in 2 gezeigt aus vielen Gründen eine Simulation aller wesentlichen Aspekte aller Module im System durchgeführt. In 2 ist einerseits ein Ausschnitt aus dem Fahrerassistenzsystem gezeigt, bei dem die physikalischen Sensoren 1 und die reale Umgebung 2 aus 1 durch entsprechende Modelle ersetzt sind, und in dem die realen Messungen 3 aus 1 durch virtuelle Messungen 30 ersetzt sind. Der Ausschnitt reicht bis zur Umgebungsrepräsentation 6, die in diesem Fall also aus den virtuellen Sensordaten 40 hergeleitet wird. Zusätzlich ist in 2 eine gewünschte wahrgenommene Umgebungsrepräsentation gezeigt, die Ziel-Umgebungsrepräsentation 60. Diese ist vom gleichen Umgebungsrepräsentations-Typ 7 wie die Umgebungsrepräsentation 6.
  • Auf Grundlage der beabsichtigten Fahrerassistenzfunktion ist es möglich, im Rahmen einer direkten Herleitung 70 zu entscheiden, welche Informationen aus dem Umgebungsmodell 20 in der Umgebungsrepräsentation 6 geschätzt werden sollen. Für ein automatisches Einparken wird z. B. ein Abbild der Parklücke benötigt, also der in einem bestimmten Bereich vorhandenen statischen Hindernisse. In diese Umgebungsrepräsentation 6 sollen bewegte Objekte nicht eingetragen werden, insbesondere, wenn sie die Parklücke wieder verlassen. Ziel ist also eine Belegungsgitterkarte, in der jede Zelle, die einem statischen Objekt entspricht, mit hoher Wahrscheinlichkeit als belegt gekennzeichnet ist, und jede Zelle, die nicht einem statischen Objekt entspricht, mit hoher Wahrscheinlichkeit als frei gekennzeichnet ist.
  • Diese Wahrscheinlichkeiten können nach den Erfordernissen der Applikation, z. B. des Einparkens, gewichtet sein. So kann verlangt werden, dass die richtige Schätzung der belegten Zellen vor der richtigen Schätzung der freien Zellen in unmittelbarer Umgebung der belegten Zellen Vorrang hat. Dies führt dazu, dass ein geplanter Weg in die Parklücke mit hoher Wahrscheinlichkeit auch fahrbar ist, während es vorkommen kann, dass ein an sich physikalisch möglicher Weg in die Parklücke wegen der ungenauen Umgebungsrepräsentation 6 nicht gefunden wird.
  • Ebenso werden Eigenheiten der Sensoren berücksichtigt. So können Sensoren von Fahrerassistenzsystemen in der Regel nicht das Innere von Gegenständen abbilden. Daher kann der Belegungszustand von Zellen der Belegungsgitterkarte, die zu inneren Punkten der statischen Objekte im Umgebungsmodell 20 gehören, als ”unbekannt” spezifiziert werden (unabhängig davon, wie dieser Zustand im Zusammenhang mit einem spezifischen probabilistischen Modell von ”belegt” oder ”frei” im Einzelfall kodiert ist).
  • Sämtliche dieser Aspekte werden berücksichtigt, um die Ziel-Umgebungsrepräsentation 60 im Rahmen der direkten Herleitung 70 entsprechend auszugestalten.
  • Im Folgenden wird, nach wie vor im Kontext der 2, ein Ausführungsbeispiel für das maschinelle Lernen des Fusionsmodells 8 erläutert.
  • Das Fusionsmodell 8 wird nun danach beurteilt, wie genau die mittels dieses Fusionsmodells 8 aus den virtuellen Sensordaten 40 erstellte Umgebungsrepräsentation 6 mit der Ziel-Umgebungsrepräsentation 60 übereinstimmt. Dabei kann wie oben angedeutet diese Fehlerfunktion auch auf die Anforderungen der Fahrerassistenzfunktion abgestimmt sein. So kann es z. B. als sehr großer Fehler bewertet werden, wenn eine Zelle in der Umgebungsrepräsentation 6 eine höhere Bewertung für ”frei” enthält als in der Ziel-Umgebungsrepräsentation 60, während umgekehrt eine höhere Bewertung für ”belegt” in der Umgebungsrepräsentation 6 mit einem geringeren Fehlerwert bewertet wird.
  • Ohne Einschränkung der Allgemeinheit wird im Folgenden anhand eines Beispiels aus Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 294 ff, ein vergleichsweise einfacher Ansatz illustriert und für ein maschinelles Lernens des Fusionsmodells 8 adaptiert.
  • Ziel ist es, die Umgebungsrepräsentation 6 aus dem (hier zur Vereinfachung als bekannt angenommenen) Fahrzeugzustand und den virtuellen Sensordaten 40 zu schätzen, genauer gesagt aus einer Folge von Fahrzeugzuständen x1:t und einer Folge von Sensordaten zi:t. Gesucht ist also die Belegungswahrscheinlichkeit p(m|z1:t,x1:t). In der Praxis wird hier wegen Begrenzungen bei Speicherplatz und Rechenzeit bevorzugt inkrementell gerechnet, also p(mt|mt-1, zt, xt). Diese Wahrscheinlichkeit zu ermitteln ist die Rolle der in 2 gezeigten Sensordatenfusion 5.
  • Die Sensordatenfusion 5 wird hierbei von einer Inferenzmaschine 80 unter Rückgriff auf das Fusionsmodell 8 durchgeführt. Eine eingehende Erläuterung dieser Zusammenhänge erfolgt im Kontext der 3 sowie im Kontext der weiter unten beschriebenen Faktorgraphen.
  • Wie in Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 294 ff beschrieben, wird jeder Gitterzelle der Belegungsgitterkarte eine binäre (d. h. zweiwertige) Zufallsvariable zugewiesen, mit den beiden Werten free und occ, für ”frei” und ”belegt”. Für jede Zelle muss gelten p(free) + p(occ) = 1, daher muss nur eine Zahl gespeichert werden, z. B. p(occ). Wenn p(occ) = 1 ist, dann ist die entsprechende Zelle sicher belegt, und wenn p(occ) = 0 ist, dann ist diese Zelle sicher frei. Im folgenden Beispiel gilt 0 < p(occ) < 1, was in der Praxis völlig ausreicht.
  • Es wird weiterhin angenommen, dass diese Belegungswahrscheinlichkeit für eine Zelle unabhängig ist von der Belegungswahrscheinlichkeit anderer Zellen (was nicht mit der Wirklichkeit übereinstimmt). Damit kann dann jede Zelle für sich genommen aktualisiert werden.
  • Selbst die Aktualisierung einer einzelnen Zelle kann noch auf sehr unterschiedliche Art erfolgen. Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 94 gibt mit einem binären Bayes-Filter mit statischem Zustand ein einfaches Beispiel, welches hierzu verwendet werden kann. Aufgrund von Vorteilen bei der numerischen Berechnung (insbesondere bei Näherung an die Intervallgrenzen 0 und 1), wird in der Zelle nicht p(occ) eingetragen, sondern der Quotient
    Figure DE102013213807A1_0002
    Figure DE102013213807A1_0003
    die „log odds ratio” bzw. das logaritmische Quotenverhältnis. Da dies für jede Zelle ein anderer Wert sein wird, wird als Zufallsvariable die Belegungswahrscheinlichkeit mi der Zelle i gewählt.
  • Damit wird neue Wert einer Zelle berechnet als
    Figure DE102013213807A1_0004
    Figure DE102013213807A1_0005
    wobei p(mi|zt, xt), genannt das inverse Sensormodell, eine Vergrößerung oder Verringerung der Belegungswahrscheinlichkeit der Zelle i beschreibt und
    Figure DE102013213807A1_0006
    eine generelle a-priori-Belegungswahrscheinlichkeit ist (ohne Kenntnis des Fahrzeugzustands oder einer Messung, also nur abhängig von der Umgebung).
  • In diesem Beispiel besteht die genaue Auslegung des Fusionsmodells 8 darin, wie der Term
    Figure DE102013213807A1_0007
    aus den virtuellen Sensordaten 40 zu interpretieren ist. In einem einfachen Fall werden dafür verschiedene Konstanten gewählt, wobei diese Wahl eher einem empirischen Ansatz entspricht als einer formal strengen Herleitung. Damit ist das Fusionsmodell 8 gegeben durch
    • Figure DE102013213807A1_0008
      wenn die Zelle im Sichtbereich des Sensors liegt (z. B. Öffnungswinkel einer Ultraschallkeule) und der Messwert zu dem Abstand zwischen Zelle und Sensor passt,
    • Figure DE102013213807A1_0009
      wenn die Zelle im Sichtbereich des Sensors liegt (z. B. Öffnungswinkel der Ultraschallkeule) und der Messwert kleiner als der Abstand zwischen Zelle und Sensor ist, oder
    • Figure DE102013213807A1_0010
      sonst, d. h. die Belegungswahrscheinlichkeit ändert sich nicht.
  • Zur Bestimmung der numerischen Werte von locc und lfree sind also genaue Kenntnisse des Sensors erforderlich. Zur Bestimmung von l0 sind sowohl Kenntnisse der Umgebung als auch des Verwendungszwecks der Karte erforderlich.
  • Diese Kenntnisse sind aber in der vorgeschlagenen Entwicklungsumgebung bereits in die Sensormodelle 10, die Umgebungsmodelle 20 und die Simulationsalgorithmen eingeflossen, ebenso wie in die direkte Herleitung 70 der Ziel-Umgebungsrepräsentation 60.
  • Daher können die Parameter locc, lfree und l0 auch durch einen Optimierungsalgorithmus gefunden werden, der die Qualität der in der Simulation entstandenen Umgebungsrepräsentation 6 optimiert. Dies ist in diesem Fall ein kontinuierliches Optimierungsproblem, welches in 2 durch eine Fusionsmodell-Optimierung 50 gelöst wird.
  • Die Unterstützung der Entwickler lässt sich auch auf die Auswahl einer geeigneten Klasse des Fusionsmodells 8 erweitern, wobei die Wahl der Klasse als diskrete Variable aufgefasst werden kann. Damit erweitert sich das Problem zum gemischt diskret-kontinuierlichen Optimierungsproblem. Bei der Lösung dieser Probleme sind in letzter Zeit erhebliche Fortschritte erzielt worden.
  • Eine mögliche Ausführung eines Fusionsmodells 8, welches durch diskrete und/oder kontinuierliche Parameter für eine spezifische Sensordatenfusionsaufgabe konfiguriert wird, besteht in einem Faktorgraph, wie er in dem Dokument "Factor graph" beschrieben ist, erhältlich im Internet am 11.07.13 unter http://en.wikipedia.org/wiki/Factorgraph. In diesem Formalismus werden Zufallsvariable, die den momentanen Zustand der Umgebungsrepräsentation charakterisieren, aufgefasst als Variablenknoten eines Graphen. Ebenso werden die Zufallsvariablen, die den realen Sensordaten oder den virtuellen Sensordaten 40 entsprechen, als Variablenknoten aufgefasst. Die Variablenknoten sind verbunden mit Faktorknoten, die die bedingten Wahrscheinlichkeiten zwischen diesen Zufallsvariablen beschreiben. Diese bedingten Wahrscheinlichkeiten können zu verschiedenen parametrischen Klassen von Verteilungen gehören, z. B. zu Exponentialverteilungen.
  • Für viele praktische Einsatzfälle existieren effiziente Algorithmen zur Implementierung der Inferenzmaschine 80, welche die Wahrscheinlichkeiten der Variablenknoten im Faktorgraphen ermitteln. Eine entsprechende Implementierung dieser Algorithmen findet sich beispielsweise in dem Softwarepaket GTSAM des Georgia Institute of Technology, dokumentiert in dem Dokument "The Borg Lab", erhältlich im Internet am 11.07.13 unter https://collab.cc.gatech.edu/borg/. Eine weitere Implementierung ist G2O der Universität Freiburg bzw. des OpenSLAM Konsortiums, dokumentiert in dem Dokument "g2o: A General Framework for Graph Optimization", erhältlich im Internet am 11.07.13 unter http://openslam.org/g2o.html.
  • Mit der Inferenzmaschine 80 in Verbindung mit dem Faktorgraphen als Fusionsmodell 8 ist es möglich, den Zustand der Umgebungsrepräsentation 6 aus realen Sensordaten oder den virtuellen Sensordaten 40 zu ermitteln. Insofern stellen diese Algorithmen ein Beispiel für einen generischen Inferenzapparat dar. Das Fusionsmodell 8 besteht aus einem Faktorgraphen, dessen Struktur durch diskrete Parameter beschreibbar ist (Variablenknoten und Faktorknoten nach Typ und Verbindungsstruktur), während die Parameter zur näheren Festlegung der Faktorknoten – ebenfalls Teil des Fusionsmodells 8 – in der Regel kontinuierliche Parameter sind, z. B. Mittelwert und Kovarianz in einer Normalverteilung.
  • Durch diese Charakterisierung des entsprechenden Faktorgraphen wird das Auffinden einer Ausprägung des Fusionsmodells 8, hier durch Definition des Faktorgraphen, eine Aufgabe der gemischt diskret-kontinuierlichen Optimierung mit den diskreten und kontinuierlichen Parametern als Variablen. Diese Art von Problemen ist unter der Bezeichnung MINLP (Mixed Integer and Non Linear Programming) seit längerem Gegenstand einer aktiven und sehr erfolgreichen Forschung. Als Lösungen für die MINLP Problem wurden neben den seit längerem bekannten Genetischen Algorithmen (als ein Beispiel für stochastische Optimierung) auch Ameisen-Algorithmen angegeben. Letztere sind unter anderem aus dem Dokument "Ameisenalgorithmus", erhältlich im Internet am 11.07.13 unter http://de.wikipedia.org/wiki/Ameisenalgorithmus , bekannt.
  • Auf Prinzipien der nichtlinearen Optimierung bauen NLP basierte ”Branch and Bound”-Verfahren und viele weitere, welche sich ebenfalls eignen. Ein Überblick findet sich in dem Dokument P. Bonami, M. Kilinc, und J. Linderoth: "Algorithms and Software for Convex Mixed Integer Nonlinear Programs", in Jon Lee and Sven Leyffer, editors, Mixed Integer Nonlinear Programming, The IMA Volumes in Mathematics and its Applications, Volume 154, 2012, Seiten 1–39.
  • Ein Überblick über weitere hier anwendbare Verfahren des Maschinellen Lernens wie z. B. Bayessche Netze findet sich in D. Koller und N. Friedman: "Probabilistic Graphical Models: Principles and Techniques", MIT Press, 2009, Seiten 134–141.
  • 3 zeigt ein Ausführungsbeispiel für eine Anordnung 105 und ein Verfahren zur Sensorfusion. Über eine Schnittstelle 104, beispielsweise eine Anbindung zu einem Fahrzeug-Bussystem, ein USB-, WLAN-, Ethernet- oder Bluetooth-Port, werden reale Sensordaten 4 oder virtuelle Sensordaten 40 empfangen. In einem Speicher 106, beispielsweise eine Festplatte, ein Flash-Speicher oder ein RAM-Baustein, ist eine Umgebungsrepräsentation 6 gespeichert ist, welche einem vorgegebenen Umgebungsrepräsentations-Typ entspricht.
  • In einer Inferenzmaschine 80, beispielsweise ein in geeigneter Weise programmierter Mikroprozessor, wird ein Computerprogramm abgearbeitet, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine 80 getrennten Fusionsmodells 8 Änderungen in der Umgebungsrepräsentation 6 vorzunehmen, welche die realen Sensordaten 4 oder virtuellen Sensordaten 40 mit der Umgebungsrepräsentation 6 fusionieren.
  • Die modulare Trennung bedeutet hierbei, dass das Fusionsmodell 8 austauschbar oder veränderbar ist, ohne dass hierbei eine Anpassung der Inferenzmaschine 80 zu erfolgen hätte, welche über die bloße Bereitstellung des neuen Fusionsmodells 8 hinausgehen würde. Folglich kann das Fusionsmodell 8 wahlweise wie in 3 gezeigt im Speicher 106 oder auf einem computerlesbaren Datenträger, welcher in der Inferenzmaschine 80 selbst angeordnet ist, gespeichert sein, beispielsweise auf einer SD-Karte, einem USB-Stick, einem RAM-Baustein oder Mikrochip.
  • Ferner kann die Inferenzmaschine 80 auch als Softwareprogramm oder virtuelle Maschine implementiert werden, welche ihrerseits dann beispielsweise in einem in 3 durch die Anordnung 105 repräsentierten Mikroprozessor abgearbeitet werden.
  • Es handelt sich bei der modularen Trennung somit um eine funktionale bzw. logische Trennung. Ergänzend kann optional auch eine räumliche Trennung vorgesehen werden, indem der Speicherort des Fusionsmodells 8 von der Inferenzmaschine separiert wird.
  • Die beschriebenen Ausführungsbeispiele, Ausführungsformen, Varianten und Weiterbildungen lassen sich frei miteinander kombinieren. Insbesondere können beliebige Teilaspekte der Ausführungsbeispiele im Kontext von 1 und 2 in das im Kontext der 3 beschriebene Ausführungsbeispiel aufgenommen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Thrun, Burgard und Fox: ”Probabilistic Robotics”, MIT Press 2005, Kap. 6. [0046]
    • Thrun, Burgard und Fox: ”Probabilistic Robotics”, MIT Press 2005, S. 294 ff [0073]
    • Thrun, Burgard und Fox: ”Probabilistic Robotics”, MIT Press 2005, S. 294 ff [0076]
    • Thrun, Burgard und Fox: ”Probabilistic Robotics”, MIT Press 2005, S. 94 [0078]
    • ”Factor graph” beschrieben ist, erhältlich im Internet am 11.07.13 unter http://en.wikipedia.org/wiki/Factorgraph [0085]
    • ”The Borg Lab”, erhältlich im Internet am 11.07.13 unter https://collab.cc.gatech.edu/borg/ [0086]
    • ”g2o: A General Framework for Graph Optimization”, erhältlich im Internet am 11.07.13 unter http://openslam.org/g2o.html [0086]
    • ”Ameisenalgorithmus”, erhältlich im Internet am 11.07.13 unter http://de.wikipedia.org/wiki/Ameisenalgorithmus [0088]
    • P. Bonami, M. Kilinc, und J. Linderoth: ”Algorithms and Software for Convex Mixed Integer Nonlinear Programs”, in Jon Lee and Sven Leyffer, editors, Mixed Integer Nonlinear Programming, The IMA Volumes in Mathematics and its Applications, Volume 154, 2012, Seiten 1–39 [0089]
    • D. Koller und N. Friedman: ”Probabilistic Graphical Models: Principles and Techniques”, MIT Press, 2009, Seiten 134–141 [0090]

Claims (20)

  1. Anordnung zur Sensorfusion, – umfassend eine Schnittstelle (104) zum Empfang realer Sensordaten (4) oder virtueller Sensordaten (40), – umfassend einen Speicher (106), auf welchem eine Umgebungsrepräsentation (6) gespeichert ist, welche einem vorgegebenen Umgebungsrepräsentations-Typ (7) entspricht, gekennzeichnet durch – eine Inferenzmaschine (80), in welcher ein Computerprogramm abgearbeitet wird, welches eingerichtet ist, anhand eines modular von der Inferenzmaschine (80) getrennten Fusionsmodells (8) Änderungen in der Umgebungsrepräsentation (6) vorzunehmen, welche die realen Sensordaten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren.
  2. Anordnung nach Anspruch 1, – bei der das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt.
  3. Anordnung nach Anspruch 2, – bei der die Inferenzmaschine (80) ein graphenbasierter generischer probabilistischer Inferenzapparat ist, und – bei der das Fusionsmodell (8) einen Faktorgraphen beinhaltet.
  4. Anordnung nach Anspruch 3, – bei der sowohl die Umgebungsrepräsentation (6) als auch die virtuellen Sensordaten (40) Zufallsvariable enthalten, – bei der der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und – bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.
  5. Computerlesbarer Datenträger, – auf dem ein Fusionsmodell (8) gespeichert ist, welches für eine Verwendung durch die Inferenzmaschine (80) der Anordnung nach einem der Ansprüche 1 bis 4 eingerichtet ist.
  6. Computerlesbarer Datenträger nach Anspruch 5, – bei dem das Fusionsmodell (8) einen Faktorgraphen beinhaltet, – bei dem sowohl die Umgebungsrepräsentation (6) als auch die virtuellen Sensordaten (40) Zufallsvariable enthalten, – bei dem der Faktorgraph jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und – bei der der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.
  7. Verfahren zur Sensorfusion, – bei dem reale Sensordaten (4) oder virtuelle Sensordaten (40) empfangen werden, – bei dem auf eine Umgebungsrepräsentation (6) zugegriffen wird, welche einem vorgegebenen Umgebungsrepräsentations-Typ (7) entspricht, dadurch gekennzeichnet, dass – eine Inferenzmaschine (80) rechnergestützt anhand eines modular von der Inferenzmaschine (80) getrennten Fusionsmodells (8) Änderungen in der Umgebungsrepräsentation (6) vornimmt, welche die realen Sensordaten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren.
  8. Verfahren nach Anspruch 7, – bei dem das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt.
  9. Verfahren nach Anspruch 8, – bei der die Inferenzmaschine (80) ein graphenbasierter generischer probabilistischer Inferenzapparat ist, und – bei der das Fusionsmodell (8) einen Faktorgraphen beinhaltet.
  10. Verfahren nach Anspruch 9, – bei dem sowohl die Umgebungsrepräsentation (6) als auch die realen Sensordaten (4) oder virtuellen Sensordaten (40) Zufallsvariable enthalten, – bei dem der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und – bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben.
  11. Herstellungsverfahren zur Erstellung eines Fusionsmodells (8), – bei dem rechnergestützt anhand eines Sensormodells (10) virtuelle Messungen (30) in einem Umgebungsmodell (20) simuliert und anhand der virtuellen Messungen (30) virtuelle Sensordaten (40) erzeugt werden, die ein Umgebungsmodell (20) zumindest teilweise abbilden, – bei dem ein Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in einer Umgebungsrepräsentation (6) mit einem vorgegeben Umgebungsrepräsentations-Typ (7) vorschreibt, – bei dem das Fusionsmodell (8) durch rechnergestütztes maschinelles Lernen erstellt wird, wobei – eine Ziel-Umgebungsrepräsentation (60) aus dem Umgebungsmodell (20) und dem Umgebungsrepräsentations-Typ (7) hergeleitet wird, welche ein Trainingsziel für das maschinelle Lernen vorgibt, – das Fusionsmodell (8) durch Lösung eines kontinuierlichen Optimierungsproblems parametriert wird, – eine von dem Fusionsmodell (8) modular getrennte Inferenzmaschine (80) rechnergestützt anhand des Fusionsmodells (8) und der realen Sensordaten (4) oder virtuellen Sensordaten (40) Änderungen in der Umgebungsrepräsentation (6) vornimmt, welche die realen Sensordaten (4) oder virtuellen Sensordaten (40) mit der Umgebungsrepräsentation (6) fusionieren, – die Umgebungsrepräsentation (6) mit der Ziel-Umgebungsrepräsentation (60) verglichen wird, woraus sich ein Fehler ergibt, welcher bei der Lösung des kontinuierlichen Optimierungsproblems minimiert wird.
  12. Herstellungsverfahren nach Anspruch 11, – bei dem das Fusionsmodell (8) mindestens eine Rechenregel, mindestens eine Datenstruktur, mindestens eine Funktion und/oder mindestens einen Algorithmus angibt, welche die realen Sensordaten (4) oder die virtuellen Sensordaten (40) als Eingabe erhält und als Ausgabe entsprechende Änderungen in der Umgebungsrepräsentation (6) vorschreibt.
  13. Herstellungsverfahren nach Anspruch 11 oder 12, – bei dem der Fehler anhand einer Fehlerfunktion ermittelt wird, welche Anforderungen einer Fahrerassistenzfunktion berücksichtigt.
  14. Herstellungsverfahren nach einem der Ansprüche 11 bis 13, – bei dem das Umgebungsmodell (20) eine Umgebung eines Fahrzeugs, ein Fahrzeug mit Zuständen und/oder einen Fahrer eines Fahrzeugs modelliert, und – bei dem das Sensormodell (10) eine 2D- oder 3D-Kamera, einen Ultraschallsensor, einen 2D- oder 3D-Laserscanner, ein 2D- oder 3D-Radar, ein Lidar, einen Raddrehungssensor, einen Inertialsensor, einen Beschleunigungssensor, einen Drehratensensor, einen Temperatursensor, einen Luftfeuchtesensor, einen Positionssensor zur Bestimmung zumindest eines Parameters der Fahrdynamik eines Fahrzeuges, einen Sitzbelegungssensor oder einen Entfernungssensor modelliert, und – bei dem der vorgegebene Umgebungsrepräsentations-Typ (7) eine 2D- oder 3D-Gitterkarte, eine Objektliste oder eine Liste von Zuständen ist.
  15. Herstellungsverfahren nach einem der Ansprüche 11 bis 14, – bei dem das Fusionsmodell (8) durch Lösung eines gemischt diskret-kontinuierlichen Optimierungsproblems aus einer Menge von Fusionsmodellen (8) ausgewählt und parametriert wird.
  16. Herstellungsverfahren nach Anspruch 15, – bei dem die Inferenzmaschine (80) ein probabilistischer Inferenzapparat ist, – bei dem das Fusionsmodell (8) einen Faktorgraphen beinhaltet, – bei dem sowohl die Umgebungsrepräsentation (6) als auch die realen Sensordaten (4) oder die virtuellen Sensordaten (40) Zufallsvariable enthalten, – bei dem der Faktorgraph des Fusionsmodells (8) jede dieser Zufallsvariablen in einem Variablenknoten abbildet, und – bei dem der Faktorgraph Faktorknoten enthält, welche die Variablenknoten verbinden und bedingte Wahrscheinlichkeiten zwischen den Variablenknoten beschreiben, – bei dem die Faktorknoten und die Verbindungen jedes Faktorknotens durch den diskreten Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell aus der Menge möglicher Faktorgraphen ausgewählt wird, und – bei dem kontinuierliche Parameter der Faktorknoten durch den kontinuierlichen Teil des Optimierungsproblems bestimmt werden, wodurch das Fusionsmodell (8) parametriert wird.
  17. Herstellungsverfahren nach Anspruch 16, – bei dem das gemischt diskret-kontinuierlichen Optimierungsproblem gelöst wird mithilfe – von genetischen Algorithmen, – von Ameisen-Algorithmen, oder – einer nichtlinearen Optimierung, insbesondere mittels eines Branch-and-Bound-Algorithmus.
  18. Herstellungsverfahren nach Anspruch 16 oder 17, – bei dem der Umgebungsrepräsentations-Typ (7) eine 2D- oder 3D-Gitterkarte ist, – bei dem die Zufallsvariablen in der Umgebungsrepräsentation (6) jeweils für Zellen oder Würfel eingetragen und aktualisiert werden, und – bei dem die Zufallsvariablen eine Unsicherheit einer Information ausdrücken, insbesondere eine Belegungswahrscheinlichkeit für die jeweilige Zelle oder den jeweiligen Würfel.
  19. Computerlesbarer Datenträger, – auf dem ein Computerprogramm gespeichert ist, welches das Verfahren nach einem der Ansprüche 7 bis 10 oder das Herstellungsverfahren nach einem der Ansprüche 11 bis 18 ausführt, wenn es in einem Mikroprozessor abgearbeitet wird.
  20. Computerprogramm, – welches in einem Mikroprozessor abgearbeitet wird und dabei das Verfahren nach einem der Ansprüche 7 bis 10 oder das Herstellungsverfahren nach einem der Ansprüche 11 bis 18 ausführt.
DE201310213807 2013-05-16 2013-07-15 Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells Ceased DE102013213807A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE201310213807 DE102013213807A1 (de) 2013-05-16 2013-07-15 Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells
PCT/EP2014/057867 WO2014183953A1 (de) 2013-05-16 2014-04-17 Anordnung und verfahren zur sensorfusion sowie herstellungsverfahren zur erstellung eines fusionsmodells

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013209148.6 2013-05-16
DE102013209148 2013-05-16
DE201310213807 DE102013213807A1 (de) 2013-05-16 2013-07-15 Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells

Publications (1)

Publication Number Publication Date
DE102013213807A1 true DE102013213807A1 (de) 2014-11-20

Family

ID=51831426

Family Applications (5)

Application Number Title Priority Date Filing Date
DE201310212710 Withdrawn DE102013212710A1 (de) 2013-05-16 2013-06-28 Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems
DE201310213807 Ceased DE102013213807A1 (de) 2013-05-16 2013-07-15 Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells
DE201310215032 Withdrawn DE102013215032A1 (de) 2013-05-16 2013-07-31 Vorrichtung und Verfahren für ein Fahrerassistenzsystem eines Fahrzeuges
DE201310215115 Ceased DE102013215115A1 (de) 2013-05-16 2013-08-01 Entwurfssystem und Verfahren zum Entwurf eines Fahrerassistenzsystems
DE201310218678 Withdrawn DE102013218678A1 (de) 2013-05-16 2013-09-18 Entwurfssystem und Verfahren zum Entwurf eines Fahrerassistenzsystems

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE201310212710 Withdrawn DE102013212710A1 (de) 2013-05-16 2013-06-28 Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE201310215032 Withdrawn DE102013215032A1 (de) 2013-05-16 2013-07-31 Vorrichtung und Verfahren für ein Fahrerassistenzsystem eines Fahrzeuges
DE201310215115 Ceased DE102013215115A1 (de) 2013-05-16 2013-08-01 Entwurfssystem und Verfahren zum Entwurf eines Fahrerassistenzsystems
DE201310218678 Withdrawn DE102013218678A1 (de) 2013-05-16 2013-09-18 Entwurfssystem und Verfahren zum Entwurf eines Fahrerassistenzsystems

Country Status (2)

Country Link
DE (5) DE102013212710A1 (de)
WO (5) WO2014183944A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014209340A1 (de) * 2014-05-16 2015-11-19 Siemens Aktiengesellschaft Anordnung und Verfahren zur Sensorfusion
DE102017116016A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102017116017A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
DE102018206326A1 (de) * 2018-04-24 2019-10-24 Zf Friedrichshafen Ag Verfahren zum Erweitern einer Datenbasis eines Bayesschen Netzes

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015010270B4 (de) 2015-08-08 2021-10-28 Audi Ag Verfahren zum Betrieb von Fahrerassistenzsystemen in einem Kraftfahrzeug und Kraftfahrzeug
US10229363B2 (en) 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
DE102016202317A1 (de) * 2016-02-16 2017-08-17 Continental Teves Ag & Co. Ohg Verfahren zum steuern von fahrzeugfunktionen durch ein fahrerassistenzsystem, fahrerassistenzsystem und fahrzeug
DE102016205392A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zur Validierung eines Hinderniserkennungssystems
CN107310550B (zh) * 2016-04-27 2019-09-17 腾讯科技(深圳)有限公司 道路交通工具行驶控制方法和装置
EP3260999B1 (de) * 2016-06-24 2021-08-04 Sick Ag System zum simulieren von sensoren
WO2018063250A1 (en) * 2016-09-29 2018-04-05 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle with modular architecture
US10599150B2 (en) 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion
US10377375B2 (en) 2016-09-29 2019-08-13 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: modular architecture
US10101745B1 (en) 2017-04-26 2018-10-16 The Charles Stark Draper Laboratory, Inc. Enhancing autonomous vehicle perception with off-vehicle collected data
DE102017208692B4 (de) 2017-05-23 2023-02-02 Audi Ag Verfahren zum Bereitstellen von Trainingsdaten für eine Funktionsprüfung einer Erkennungseinrichtung sowie Datenbanksystem
DE102018205804A1 (de) * 2018-04-17 2019-10-17 Conti Temic Microelectronic Gmbh Steuergerätetesteinrichtung zum Testen, Absichern und Entwickeln von Funktionen
DE102018123779A1 (de) 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Verbessern einer Objekterkennung eines Radargeräts
DE102018123735A1 (de) * 2018-09-26 2020-03-26 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Verbessern einer Objekterkennung eines Radargeräts
CN109634426B (zh) * 2018-12-20 2020-08-14 南京钟山虚拟现实技术研究院有限公司 基于Unity3D的高自由度实验类三维虚拟仿真方法和系统
US11249184B2 (en) 2019-05-07 2022-02-15 The Charles Stark Draper Laboratory, Inc. Autonomous collision avoidance through physical layer tracking
DE102019210448A1 (de) * 2019-07-16 2021-01-21 Audi Ag Verfahren zur Ermittlung einer Verbauposition eines umfeldüberwachenden Umfeldsensors eines Kraftfahrzeugs, Recheneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102019124504A1 (de) * 2019-09-12 2021-04-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Simulation und Bewertung eines Sensorsystems für ein Fahrzeug sowie Verfahren und Vorrichtung zum Entwurf eines Sensorsystems zur Umfelddetektion für ein Fahrzeug
DE102020130748A1 (de) 2020-11-20 2022-05-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren, System sowie ein Computerprogramm zum Erzeugen einer virtuellen Umgebung eines Fahrzeugs
DE102020215657A1 (de) 2020-12-10 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs
DE102022209080A1 (de) 2022-09-01 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Kalibrieren eines Sensors, Recheneinheit und Sensorsystem

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931879B2 (ja) 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
DE102005008714A1 (de) 2005-02-25 2006-09-07 Robert Bosch Gmbh Verfahren und System zur Bereitstellung von Sensor-Daten
DE102005036953A1 (de) 2005-08-05 2007-02-08 Robert Bosch Gmbh Verfahren zum Erzeugen von Umwelthypothesen für Fahrerassistenzfunktionen
EP2107503A1 (de) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit
US8739049B2 (en) * 2010-05-24 2014-05-27 GM Global Technology Operations LLC Vehicle system modeling systems and methods
DE102011086342A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und verfahren zum betreiben eines fahrzeugs

Non-Patent Citations (15)

* Cited by examiner, † Cited by third party
Title
"Ameisenalgorithmus", erhältlich im Internet am 11.07.13 unter http://de.wikipedia.org/wiki/Ameisenalgorithmus
"Factor graph" beschrieben ist, erhältlich im Internet am 11.07.13 unter http://en.wikipedia.org/wiki/Factorgraph
"g2o: A General Framework for Graph Optimization", erhältlich im Internet am 11.07.13 unter http://openslam.org/g2o.html
"The Borg Lab", erhältlich im Internet am 11.07.13 unter https://collab.cc.gatech.edu/borg/
Ant colony optimization algorithms. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 24.04.2014. URL: "http://en.wikipedia.org/w/index.php?title=Ant_colony_optimization_algorithms&oldid=552020157 [abgerufen am 16.05.2014] *
Coue, C. [u.a.]: Multi-sensor data fusion using Bayesian programming : an automotive application. In: IEEE/RSJ International Conference on Intelligent Robots and Systems, 2002, 1, 2002, S. 141-146. http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1041379 [abgerufen am 16.05.2014] *
D. Koller und N. Friedman: "Probabilistic Graphical Models: Principles and Techniques", MIT Press, 2009, Seiten 134-141
Dilger: Einführung in die künstliche Intelligenz (Vorlesung), 2002. URL: http://www.kreissl.info/downloads/ware/KI.pdf + http://www.kreissl.info/downloads/ware/merkblatt.pdf [abgerufen am 19.05.2014] *
Munz, M.: Generisches Sensorfusionsframework zur gleichzeitigen Zustands- und Existenzschätzung für die Fahrzeugumfelderkennung. Dissertation, Universität Ulm, 2011, S. i, v, vii-xi, 2-14, 24-32, 47, 65-71, 96, 124, 135, 153. URL: http://vts.uni-ulm.de/doc.asp?id=7700 [abgerufen am 16.05.2014] *
P. Bonami, M. Kilinc, und J. Linderoth: "Algorithms and Software for Convex Mixed Integer Nonlinear Programs", in Jon Lee and Sven Leyffer, editors, Mixed Integer Nonlinear Programming, The IMA Volumes in Mathematics and its Applications, Volume 154, 2012, Seiten 1-39
RUSER, Heinrich ; LEÓN, Fernando Puente: Informationsfusion - eine Übersicht. In: Technisches Messen, Bd. 74, 2007, H. 3, S. 93-102. - ISSN 0171-8096. URL: http://www.iiit.kit.edu/publ/tm0703_093a.pdf [abgerufen am 20.05.2014] *
RUSER, Heinrich ; LEÓN, Fernando Puente: Informationsfusion – eine Übersicht. In: Technisches Messen, Bd. 74, 2007, H. 3, S. 93-102. - ISSN 0171-8096. URL: http://www.iiit.kit.edu/publ/tm0703_093a.pdf [abgerufen am 20.05.2014]
Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, Kap. 6.
Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 294 ff
Thrun, Burgard und Fox: "Probabilistic Robotics", MIT Press 2005, S. 94

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014209340A1 (de) * 2014-05-16 2015-11-19 Siemens Aktiengesellschaft Anordnung und Verfahren zur Sensorfusion
DE102017116016A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102017116017A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
DE102018206326A1 (de) * 2018-04-24 2019-10-24 Zf Friedrichshafen Ag Verfahren zum Erweitern einer Datenbasis eines Bayesschen Netzes
DE102018206326B4 (de) 2018-04-24 2020-01-09 Zf Friedrichshafen Ag Verfahren zum Erweitern einer Datenbasis eines Bayesschen Netzes

Also Published As

Publication number Publication date
DE102013212710A1 (de) 2014-11-20
DE102013215115A1 (de) 2014-11-20
WO2014183944A1 (de) 2014-11-20
DE102013215032A1 (de) 2014-11-20
DE102013218678A1 (de) 2014-11-20
WO2014183949A1 (de) 2014-11-20
WO2014183948A2 (de) 2014-11-20
WO2014183953A1 (de) 2014-11-20
WO2014183945A1 (de) 2014-11-20

Similar Documents

Publication Publication Date Title
DE102013213807A1 (de) Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells
DE112018006161B4 (de) System und Verfahren zum Steuern eines Fahrzeugs
DE102016113903A1 (de) Fahrzeugfahrstreckenbestimmung
DE112018004000T5 (de) Überwachen eines fahrzeug-bedienungsrisikos unter verwendung von sensoreinheiten
DE112019000340T5 (de) Epistemische und aleatorische tiefe plastizität auf grundlage vontonrückmeldungen
DE112020003841T5 (de) Verbessertes maschinelles lernen für technische systeme
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102019114577A1 (de) Systeme, vorrichtungen und verfahren für eingebettete codierungen von kontextbezogenen informationen unter verwendung eines neuronalen netzwerks mit vektorraummodellierung
DE102018219773B4 (de) Verfahren zum Kartographieren einer örtlichen Verteilung von Ereignissen eines vorbestimmten Ereignistyps in einem vorbestimmten Umgebungsbereich eines Kraftfahrzeugs sowie dazu ausgelegtes Steuergerät und Kraftfahrzeug
DE102022112059B3 (de) Verfahren, System und Computerprogrammprodukt zur Kalibrierung und Validierung eines Fahrerassistenzsystems (ADAS) und/oder eines automatisierten Fahrsystems (ADS)
DE102022101233A1 (de) Verkehrssimulation und strassennetzmodellierung für autonome fahrzeuge
DE102020128978A1 (de) Trainieren von tiefen neuronalen netzwerken mit synthetischen bildern
DE102022108656A1 (de) Neuronales quantilnetz
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
WO2023057014A1 (de) Verfahren zur planung einer trajektorie eines fahrmanövers eines kraftfahrzeugs, computerprogrammprodukt, computerlesbares speichermedium sowie fahrzeug
DE102014209340A1 (de) Anordnung und Verfahren zur Sensorfusion
DE102022109385A1 (de) Belohnungsfunktion für Fahrzeuge
DE102021204797A1 (de) Vorrichtung und Verfahren zum Erlernen einer Richtlinie für Geländefahrzeuge für Baustellen
DE102020127253A1 (de) Quantifizieren von fotorealismus in simulierten daten mit gan
DE102020215657A1 (de) Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs
DE102017221634B4 (de) Kraftfahrzeug mit einem Fahrzeugführungssystem, Verfahren zum Betrieb eines Fahrzeugführungssystems und Computerprogramm
DE102016109596A1 (de) Computerunterstütztes Design von Mechatronischen Systemen zur Beschreibung von textbasierten Systemspezifikationen
DE102020127051A1 (de) Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität
DE102019128223A1 (de) Verfahren, Vorrichtungen und Computerprogramme

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60W0040020000

Ipc: G06N0005040000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20150224