DE112010001354T5 - Bewegungsstrajektoriengenerator - Google Patents

Bewegungsstrajektoriengenerator Download PDF

Info

Publication number
DE112010001354T5
DE112010001354T5 DE112010001354T DE112010001354T DE112010001354T5 DE 112010001354 T5 DE112010001354 T5 DE 112010001354T5 DE 112010001354 T DE112010001354 T DE 112010001354T DE 112010001354 T DE112010001354 T DE 112010001354T DE 112010001354 T5 DE112010001354 T5 DE 112010001354T5
Authority
DE
Germany
Prior art keywords
movement
strategies
motion
occupant
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112010001354T
Other languages
English (en)
Other versions
DE112010001354B4 (de
Inventor
Kenichi Kitahama
Shinya Kawamata
Toshiyuki Matsubara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE112010001354T5 publication Critical patent/DE112010001354T5/de
Application granted granted Critical
Publication of DE112010001354B4 publication Critical patent/DE112010001354B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Es wird ein Bewegungstrajektoriengenerator 1 geschaffen, der eine Bewegungstrajektorie eines Fahrzeugs erzeugt und eine Fahrumgebungserkennungseinrichtung 10, 11 und 21 zum Erkennen einer Fahrumgebung, eine Bewegungsstrategieerzeugungseinrichtung 22 zum Erzeugen von Bewegungsstrategien zum Positionieren in einem Straßenbereich entsprechend der Fahrumgebung, die von der Fahrumgebungserkennungseinrichtung erkannt wird, eine Präsentationseinrichtung 12, 23 und 27 zum Präsentieren von Einstellungsinformationen der Bewegungsstrategien für einen Insassen, eine Einstelleinrichtung 12 und 28 zum Empfangen eines Betriebs des Insassen zum Einstellen der Bewegungsstrategien auf der Grundlage der Einstellungsinformationen der Bewegungsstrategien, die von der Präsentationseinrichtung präsentiert werden, und eine Bewegungstrajektorienerzeugungseinrichtung 29 zum Erzeugen der Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien, die von der Einstelleinrichtung eingestellt werden, enthält.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft einen Bewegungstrajektoriengenerator, der eine Bewegungstrajektorie eines Fahrzeugs erzeugt.
  • Stand der Technik
  • Ein Bewegungstrajektoriengenerator erzeugt eine Bewegungstrajektorie, die auf einer Systemseite bei einer automatisierten Fahrt verwendet wird. Aufgrund einer Verschlechterung der Erkennungsgenauigkeit der Umgebung eines Host-Fahrzeugs kann die erzeugte Bewegungstrajektorie jedoch nicht geeignet sein. In einem derartigen Fall ist es notwendig, dass ein Insasse (insbesondere ein Fahrer) die Bewegungstrajektorie ändert. Eine Vorrichtung, die in der Patentliteratur 1 beschrieben ist, zeigt ein Host-Fahrzeug, einen Parkraum und einen Bewegungspfad auf einem Bildschirm an, und wenn ein Insasse den Bewegungspfad, der auf dem Bildschirm angezeigt wird, ändert, führt sie ein Parken in einer Garage unter einer automatischen Steuerung entlang des Bewegungspfades nach der Änderung durch.
  • Zitierungsliste
  • Patentliteratur
    • Patentliteratur 1: internationale Patentoffenlegungsschrift Nr. 20061064544
    • Patentliteratur 2: japanische ungeprüfte Patentoffenlegungsschrift Nr. 2005-53373
    • Patentliteratur 3: japanische ungeprüfte Patentoffenlegungsschrift Nr. 2008-2854
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • In dem Fall der oben beschriebenen Vorrichtung befindet sich das Fahrzeug, wenn der Insasse den Betrieb bzw. Vorgang zur Änderung des Bewegungspfades des automatisierten Parkens durchführt, typischerweise in einem Stoppzustand, und somit befindet sich der Insasse in einer Situation, bei der der Insasse eine Bestätigung der Umgebung oder des Betriebs bzw. Vorgangs der Änderung (statische Situation) komfortabel durchführen kann. Aufgrund dessen hat der Insasse ausreichend Zeit, den Betrieb durchzuführen, und kann somit den Bewegungspfad wunschgemäß ändern. In dem Fall jedoch, in dem sich das Fahrzeug in einem Fahrzustand (einschließlich einer automatisierten Fahrt) befindet, befindet sich der Insasse in einer Situation, bei der es schwierig ist, dass der Insasse die Bestätigung der Umgebung oder des Betriebs (dynamische Situation) komfortabel durchführt. Aufgrund dessen ist der Insasse sogar dann, auch wenn der Insasse den Betrieb der Änderung der Bewegungstrajektorie durchführt, nicht in der Lage, die Bewegungstrajektorie wunschgemäß zu ändern, was zu einer unnatürlichen Trajektorie führt.
  • Unter Berücksichtigung der oben beschriebenen Umstände ist es eine Aufgabe der vorliegenden Erfindung, einen Bewegungstrajektoriengenerator zu schaffen, der auf geeignete Weise eine Bewegungstrajektorie eines Fahrzeugs entsprechend einem von einem Insassen durchgeführten Betrieb bzw. Vorgangs ändern kann.
  • Lösung für das Problem
  • Ein Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung, der eine Bewegungstrajektorie eines Fahrzeugs erzeugt, kann eine Fahrumgebungserkennungseinrichtung zum Erkennen einer Fahrumgebung; eine Bewegungsstrategieerzeugungseinrichtung zum Erzeugen von Bewegungsstrategien zum Positionieren in einem Straßenbereich entsprechend der Fahrumgebung, die von der Fahrumgebungserkennungseinrichtung erkannt wird; eine Präsentationseinrichtung zum Präsentieren von Einstellungsinformationen der Bewegungsstrategien für einen Insassen; eine Einstelleinrichtung zum Empfangen eines Betriebs für den Insassen zum Einstellen der Bewegungsstrategien auf der Grundlage der Einstellungsinformationen der Bewegungsstrategien, die von der Präsentationseinrichtung präsentiert werden; und eine Bewegungstrajektorienerzeugungseinrichtung zum Erzeugen der Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien, die von der Einstelleinrichtung eingestellt werden, enthalten.
  • In diesem Bewegungstrajektoriengenerator erkennt die Fahrumgebungserkennungseinrichtung eine Fahrumgebung eines Fahrzeugs. In dem Bewegungstrajektoriengenerator erzeugt die Bewegungsstrategieerzeugungseinrichtung Bewegungsstrategien entsprechend dem Ergebnis der Erkennung der Fahrumgebung. Die Bewegungsstrategien, die ein höheres Konzept der Bewegungstrajektorie sind, sind Informationen, die eine Basis (Basisverfahrensweise) zum Erzeugen der Bewegungstrajektorie werden, und betreffen insbesondere ein Positionieren innerhalb eines Fahrzeugstraßenbereiches (Positionieren in der Fahrzeugfahrtrichtung, Positionieren in der Straßenbreitenrichtung und Ähnliches). Dementsprechend kann ein Insasse, da die Bewegungsstrategien auf dieselbe Weise wie die Bewegungstrajektorie keine genaue Trajektorie repräsentieren, wenn ein Fahrzeug fährt, intuitiv oder prompt die Bewegungsstrategien einstellen. Außerdem präsentiert die Präsentationseinrichtung in dem Bewegungstrajektoriengenerator Informationen für einen Insassen zum Einstellen der Bewegungsstrategien. Wenn die Informationen zum Einstellen der Bewegungsstrategien präsentiert werden, stellt der Insasse, der die Bewegungsstrategien, die auf der Vorrichtungsseite erzeugt werden, zu korrigieren wünscht, die Bewegungsstrategien (die eingestellten Bewegungsstrategien unterscheiden sich von den Bewegungsstrategien, die auf der Vorrichtungsseite erzeugt werden) durch die Einstelleinrichtung ein. In dem Bewegungstrajektoriengenerator erzeugt die Bewegungstrajektorienerzeugungseinrichtung entsprechend der durch den Insassen durchgeführten Einstellung der Bewegungsstrategien die Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien, die von dem Insassen eingestellt werden. Die erzeugte Bewegungstrajektorie entspricht der Positionierungsverfahrensweise in dem Straßenbereich des Insassen und wird die Bewegungstrajektorie, die von dem Insassen gewünscht wird. In dem Bewegungstrajektoriengenerator, der oben beschrieben ist, können geeignete Bewegungsstrategien entsprechend dem Einstellbetrieb der Bewegungsstrategien, die von dem Insassen eingestellt werden, erzeugt werden, da die Bewegungsstrategien durch Präsentieren der Einstellungsinformationen der Bewegungsstrategien, die ein höheres Konzept der Bewegungstrajektorie sind, durch den Insassen eingestellt werden können. Zu diesem Zeitpunkt ist es möglich, die Bewegungstrajektorie sogar in einer dynamischen Situation wunschgemäß zu ändern, da der Insasse den Einstellbetrieb der Bewegungsstrategien einfach (Feineinstellung oder Ähnliches ist nicht notwendig) und prompt durchführen kann.
  • In dem Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung kann die Präsentationseinrichtung mehrere Bewegungsstrategiekandidaten präsentieren, und die Einstelleinrichtung kann einen Betrieb eines Insassen zum Auswählen eines der Bewegungsstrategiekandidaten empfangen.
  • In diesem Bewegungstrajektoriengenerator präsentiert die Präsentationseinrichtung mehrere Bewegungsstrategiekandidaten, so dass der Insasse die Bewegungsstrategien einstellen kann. Wenn die Bewegungsstrategiekandidaten präsentiert werden, wählt der Insasse, der die Bewegungstrajektorie, die auf der Vorrichtungsseite erzeugt wird, zu korrigieren wünscht, einen Bewegungsstrategiekandidaten unter den Bewegungsstrategiekandidaten durch die Einstelleinrichtung aus. Wie es oben beschrieben ist, kann der Insasse auf einfache Weise die Bewegungsstrategien auswählen (einstellen), da der Bewegungstrajektoriengenerator die Bewegungsstrategiekandidaten präsentiert und den Auswahlbetrieb als den Einstellbetrieb, der von dem Insassen durchgeführt wird, empfängt.
  • Es ist vorteilhaft, wenn der Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung außerdem eine Risikograderlangungseinrichtung zum Erlangen eines Risikograds entsprechend den Bewegungsstrategiekandidaten enthält, wobei die Präsentationseinrichtung die Bewegungsstrategiekandidaten zusammen mit dem Risikograd, der durch die Risikograderlangungseinrichtung erlangt wird, präsentiert.
  • In diesem Bewegungstrajektoriengenerator erlangt die Risikograderlangungseinrichtung den Risikograd entsprechend den Bewegungsstrategien, und die Präsentationseinrichtung präsentiert die Bewegungsstrategiekandidaten mit dem Risikograd. Wie es oben beschrieben ist, kann der Insasse einen geeigneten Bewegungsstrategiekandidaten unter Berücksichtigung des Risikograds auswählen, da der Bewegungstrajektoriengenerator die Bewegungsstrategiekandidaten mit dem Risikograd präsentiert.
  • In dem Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung kann die Einstelleinrichtung ausgelegt sein, einen Korrekturbetrieb eines Insassen für die Bewegungsstrategien zu empfangen.
  • Wenn dem Insassen korrekturfreie Bewegungsstrategien präsentiert werden, um die Bewegungsstrategien einzustellen, führt der Insasse, der die Bewegungstrajektorie, die auf der Vorrichtungsseite erzeugt wird, zu korrigieren wünscht, den Betrieb zum Korrigieren der Bewegungsstrategien durch die Einstelleinrichtung durch. Wie es oben beschrieben ist, kann der Insasse die Bewegungsstrategien frei korrigieren, da der Bewegungstrajektoriengenerator den Korrekturbetrieb der Bewegungsstrategien als den Einstellbetrieb, der von dem Insassen durchgeführt wird, empfängt, und somit wird der Freiheitsgrad der Bewegungsstrategien vergrößert.
  • Es ist vorteilhaft, wenn der Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung außerdem eine Risikograderlangungseinrichtung zum Erlangen eines Risikograds entsprechend den Bewegungsstrategien enthält, wobei die Einstelleinrichtung die Einfachheit der Korrektur (d. h. die Einfachheit, mit der die Korrektur durchgeführt werden kann) der Bewegungsstrategien entsprechend dem Risikograd, das von der Risikograderlangungseinrichtung erlangt wird, ändert.
  • In diesem Bewegungstrajektoriengenerator erlangt die Risikograderlangungseinrichtung den Risikograd entsprechend den Bewegungsstrategien. Wenn der Insasse einen Betrieb zum Korrigieren der Bewegungsstrategien durch die Einstelleinrichtung durchführt, macht es die Einstelleinrichtung außerdem schwierig, den Korrekturbetrieb durchzuführen, wenn der Risikograd der Bewegungsstrategien, die der Insasse zu korrigieren beabsichtigt, hoch ist, während, wenn der Risikograd der Bewegungsstrategien niedrig ist, die Einstelleinrichtung die Durchführung des Korrekturbetriebs erleichtert. Wie es oben beschrieben ist, kann die Einstellung der Bewegungsstrategien, die durch eine Fehlbestimmung des Insassen oder eine Fehlkorrektur verursacht wird, unterdrückt werden, da der Bewegungstrajektoriengenerator die Leichtigkeit des Korrekturbetriebs entsprechend dem Risikograd der Bewegungsstrategien ändert.
  • Der Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung kann außerdem eine Erfassungseinrichtung zum Erfassen eines Insassenbeobachtungsbereiches enthalten, wobei die Präsentationseinrichtung die Einstellungsinformationen der Bewegungsstrategien in dem Beobachtungsbereich, der von der Erfassungseinrichtung erfasst wird, präsentiert.
  • In diesem Bewegungstrajektoriengenerator erfasst die Erfassungseinrichtung den Insassenbeobachtungsbereich (Bereich, den der Insasse beobachtet), und die Präsentationseinrichtung präsentiert nur die Einstellungsinformationen der Bewegungsstrategien in dem Insassenbeobachtungsbereich. Wie es oben beschrieben ist, wird es möglich, die Bewegungsstrategien nur in Bezug auf den Bereich, der von dem Insassen gewünscht wird, einzustellen (und außerdem die Bewegungsstrategien zu ändern).
  • In dem Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung kann die Präsentationseinrichtung einen Faktor zum Einstellen der Bewegungsstrategien präsentieren.
  • In diesem Bewegungstrajektoriengenerator präsentiert die Präsentationseinrichtung dem Insassen außerdem den Faktor zum Einstellen der Bewegungsstrategien, der auf der Vorrichtungsseite bestimmt (erkannt) wird, zusammen mit den Einstellungsinformationen der Bewegungsstrategien. Der Faktor zum Einstellen der Bewegungsstrategien kann beispielsweise ein Überholen eines vorderen geparkten Fahrzeugs, ein Umgehen eines Fußgängers oder Ähnliches sein. Wenn der Faktor zum Einstellen der Bewegungsstrategien präsentiert wird, kann der Insasse die Absicht der Bewegungsstrategien (Bewegungstrajektorie) auf der Vorrichtungsseite auf der Grundlage des Faktors erkennen und kann bestimmen, ob die Änderung der Bewegungsstrategien (außerdem der Bewegungstrajektorie) notwendig ist. Zu diesem Zeitpunkt kann der Faktor, der auf der Vorrichtungsseite nicht bestimmt werden kann, auf der Insassenseite durch die Erkennung der Umgebung bestimmt werden. Wie es oben beschrieben ist, kann der Insasse in dem Bewegungstrajektoriengenerator durch Präsentation sogar des Faktors zum Einstellen der Bewegungsstrategien für den Insassen noch genauer bestimmen, ob die Änderung der Bewegungsstrategien (Bewegungstrajektorie) notwendig ist, und wenn sie notwendig ist, wie viel Änderung notwendig ist.
  • In dem Bewegungstrajektoriengenerator gemäß einem Aspekt der Erfindung kann die Fahrumgebungserkennungseinrichtung einen Zustand von umgebenden Objekten erkennen, und die Präsentationseinrichtung kann den Zustand der umgebenden Objekte, der durch die Fahrumgebungserkennungseinrichtung erkannt wird, präsentieren.
  • In diesem Bewegungstrajektoriengenerator erkennt die Fahrumgebungserkennungseinrichtung den Zustand der umgebenden Objekte, und die Präsentationseinrichtung präsentiert dem Insassen sogar den erkannten Zustand der umgebenden Objekte zusammen mit den Einstellungsinformationen der Bewegungsstrategien. Beispiele der umgebenden Objekte können beispielsweise andere Fahrzeuge, Fahrräder, Motorräder, Personen und Ähnliches enthalten. Der Zustand der umgebenden Objekte kann ein Stoppzustand, ein Bewegungszustand (Fahrzustand), ein Kreuzungs- bzw. Querungszustand, eine Bewegungsrichtung, eine Bewegungsgeschwindigkeit oder unbekannt sein. Wenn der Zustand der umgebenden Objekte präsentiert wird, kann der Insasse auf der Grundlage des Zustands der umgebenden Objekte bestimmen, ob die Änderung der Bewegungsstrategien (außerdem der Bewegungstrajektorie) notwendig ist Zu diesem Zeitpunkt kann der Zustand der Objekte, der auf der Seite der Vorrichtung nicht erkannt werden kann, auf der Insassenseite durch die Erkennung der Umgebung bestimmt werden. Wie es oben beschrieben ist, kann der Insasse bei dem Bewegungstrajektoriengenerator durch Präsentieren sogar des Zustands der umgebenden Objekte für den Insassen noch genauer bestimmen, ob die Änderung der Bewegungsstrategien (Bewegungstrajektorie) notwendig ist.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung kann die Bewegungstrajektorie in geeigneter Weise entsprechend eines einfachen Einstellbetriebs der Bewegungsstrategien durch den Insassen geändert werden, da die Einstellungsinformationen der Bewegungsstrategien, die ein höheres Konzept der Bewegungstrajektorie sind, präsentiert werden und der Insasse die Bewegungsstrategien dementsprechend einstellen kann.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Diagramm, das die Konfiguration eines Bewegungstrajektoriengenerators gemäß einer Ausführungsform der Erfindung darstellt.
  • 2 ist ein Diagramm, das ein Anzeigebeispiel der Ergebnisse der Erkennung einer Bewegungstrajektorie, der Bewegungsstrategien und der Umgebung darstellt.
  • 3 ist eine Grafik, die die Aufenthaltswahrscheinlichkeit von Hindernissen an einer Position in Fahrbahnbreitenrichtung zeigt.
  • 4 ist ein Diagramm, das ein Anwendungsbeispiel der Auftrittswahrscheinlichkeit von Hindernissen in Bezug auf eine Position einer Fahrbahnbreitenrichtung zwischen Knoten darstellt.
  • 5 ist erläuterndes Diagramm einer Abweichung von Regeln, wobei (a) ein Beispiel einer Regelliste zeigt, die Kosten in dem Fall einer Verletzung von Regeln angibt, (b) ein Beispiel zeigt, ob den Regeln in dem Fall der Fahrt zwischen den Knoten 1 und 2 der 4 zu folgen ist, und (c) ein Beispiel zeigt, ob den Regeln in dem Fall der Fahrt zwischen den Knoten 1 und 3 der 4 zu folgen ist.
  • 6 ist ein Diagramm, das ein Beispiel eines Risikogradkennlinienfeldes darstellt, das Risikogradpegel mit einer Abweichung von Regeln und einer Kollisionswahrscheinlichkeit als Parametern angibt.
  • 7 ist eine Grafik, die einen Betriebs- bzw. Bedienwiderstand für eine Risikogradpegeldifferenz darstellt.
  • 8 ist ein Diagramm, das ein Anzeigebeispiel von Bewegungsstrategiekandidaten durch ein Auswahlverfahren darstellt.
  • 9 ist ein Diagramm, das ein Anzeigebeispiel von Bewegungsstrategiekandidaten (einschließlich Risikograde) durch ein Auswahlverfahren darstellt.
  • 10 ist ein Diagramm, das ein Anzeigebeispiel während und nach einem Korrekturbetrieb der Bewegungsstrategien durch ein Verfahren mit einer berührungsempfindlichen Fläche darstellt,
  • Beschreibung der Ausführungsformen
  • Im Folgenden wird ein Bewegungstrajektoriengenerator gemäß einer Ausführungsform der Erfindung mit Bezug auf die zugehörigen Zeichnungen beschrieben.
  • In dieser Ausführungsform wird der Bewegungstrajektoriengenerator gemäß der vorliegenden Erfindung für einen Bewegungstrajektoriengenerator verwendet, der in einem Automatik-Kraftfahrzeug montiert ist. Der Bewegungstrajektoriengenerator gemäß dieser Ausführungsform erzeugt die Bewegungstrajektorie, die bei einer automatisierten Fahrt verwendet wird, und stellt die erzeugte Bewegungstrajektorie für eine Automatikfahrtsteuervorrichtung bereit. Der Bewegungstrajektoriengenerator gemäß dieser Ausführungsform führt eine Bildschirmanzeige der Präsentation für Insassen unter Verwendung einer Anzeige, die eine Funktion einer berührungsempfindlichen Fläche aufweist, durch und empfängt den Betrieb des Insassen als ein Berührungsbetrieb der Anzeige.
  • Im Folgenden wird mit Bezug auf 1 der Bewegungstrajektoriengenerator 1 gemäß einer Ausführungsform der Erfindung beschrieben. 1 ist ein Diagramm, das die Konfiguration eines Bewegungstrajektoriengenerators gemäß einer Ausführungsform der Erfindung darstellt.
  • Der Bewegungstrajektoriengenerator 1 bestimmt eine Fahrszene (Situation) auf der Vorrichtungsseite und erzeugt automatisch eine Bewegungstrajektorie auf der Grundlage von Bewegungsstrategien entsprechend der Fahrszene. Insbesondere empfängt der Bewegungstrajektoriengenerator 1, um es möglich zu machen, die Bewegungstrajektorie, die auf der Vorrichtungsseite erzeugt wird, zu korrigieren, einen Änderungsbetrieb der Bewegungsstrategien durch den Insassen, und wenn die Bewegungsstrategien geändert wurden, erzeugt er die Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien. Aufgrund dessen enthält der Bewegungstrajektoriengenerator 1 eine Kamera 10, ein Radar 11, eine Anzeige 12 und eine ECU (elektronische Steuereinheit) 20, wobei die ECU 20 mit einer Umgebungserkennungseinheit 21, einer Bewegungstrajektorienerzeugungseinheit 22, einer Bewegungsstrategieeinstelleinheit 23, einer Bewegungsstrategiedatenbank 24, einer Risikogradberechnungseinheit 25, einer Regeldatenbank 26, einer Anzeigesteuereinheit 27, einer Betriebssteuereinheit 28 und einer Bewegungstrajektorienänderungseinheit 29 versehen ist.
  • In dieser Ausführungsform entspricht die Bewegungstrajektorienerzeugungseinheit 22 einer Bewegungsstrategieerzeugungseinrichtung gemäß der Erfindung, die Kamera 10, das Radar 11 und die Umgebungserkennungseinheit 21 entsprechen einer Fahrumgebungserkennungseinrichtung gemäß einem Aspekt der Erfindung, und die Anzeige 12, die Bewegungsstrategieeinstelleinheit 23 und die Anzeigesteuereinheit 27 entsprechen einer Präsentationseinrichtung gemäß einem Aspekt der Erfindung. Außerdem entsprechen die Anzeige 12 (insbesondere die Funktion einer berührungsempfindlichen Fläche) und die Betriebssteuereinheit 28 der Einstelleinrichtung gemäß einem Aspekt der Erfindung, die Risikogradberechnungseinheit 25 entspricht einer Risikograderlangungseinrichtung gemäß einem Aspekt der Erfindung, und die Bewegungstrajektorienänderungseinheit 29 entspricht einer Bewegungstrajektorienerzeugungseinrichtung gemäß einem Aspekt der Erfindung.
  • Die Kamera 10 ist eine Kamera, die die Umgebung (zumindest die Vorderseite, und nach Bedarf die Seite und die Rückseite) des Host-Fahrzeugs fotografiert. Die Kamera 10 kann beispielsweise eine Kamera im sichtbaren Bereich, eine Infrarotkamera oder eine Spektrumskamera sein. Die Kamera 10 fotografiert die Umgebung des Host-Fahrzeugs und überträgt die Informationen des fotografierten Bildes an die ECU 20 als ein Bildsignal.
  • Das Radar 11 ist ein Radar, das ein Objekt in der Umgebung (zumindest der Vorderseite und nach Bedarf der Seite und der Rückseite) des Host-Fahrzeugs erfasst. Das Radar 11 kann beispielsweise ein Laserradar, ein Millimeterwellenradar oder ein Ultraschallradar sein. Das Radar 11 tastet eine elektromagnetische Welle in einer horizontalen Ebene ab und überträgt diese, empfängt eine reflektierte Welle, die von einem Objekt reflektiert und zurückgegeben wird, und erfasst Informationen über die Übertragung und den Empfang der elektromagnetischen Welle. Außerdem überträgt das Radar 11 die erfassten Übertragungs-/Empfangsinformationen an die ECU 20 als ein Radarsignal.
  • Die Anzeige 12 ist eine Anzeige, die an einem Fahrzeug montiert ist, das mit einem Navigationssystem verwendet wird. Wenn ein Anzeigesignal von der ECU 20 empfangen wird, zeigt die Anzeige 12 ein Bild auf der Grundlage des Anzeigesignals an. Außerdem ist die Anzeige 12 mit einer Funktion einer berührungsempfindlichen Fläche versehen und empfängt einen Berührungsbetrieb bzw. eine Berührung eines Insassen auf einem Anzeigebildschirm. Wenn der Insasse den Bildschirm berührt, überträgt die Anzeige 12 die Positionsinformationen auf dem Bildschirm an die ECU 20 als ein Berührungsbetriebssignal. Wenn ein Berührungssteuersignal von der ECU 20 empfangen wird, stellt die Anzeige 12 in dem Fall, in dem der Insasse beabsichtigt, den Bildschirm zu berühren und eine Bewegung darauf durchzuführen, einen Betriebswiderstand in Bezug auf den Bewegungsbetrieb entsprechend dem Betriebswiderstand, der in dem Berührungsbetriebssteuersignal angegeben ist, bereit.
  • Die ECU 20 ist eine elektronische Steuereinheit, die aus einer CPU (zentrale Verarbeitungseinheit), einem ROM (Nur-Lese-Speicher), einem RAM (Speicher mit wahlfreiem Zugriff) und Ähnlichem besteht und gemeinsam den Bewegungstrajektoriengenerator 1 steuert. In der ECU 20 sind eine Umgebungserkennungseinheit 21, eine Bewegungstrajektorienerzeugungseinheit 22, eine Bewegungsstrategieeinstelleinheit 23, eine Risikogradberechnungseinheit 25, eine Anzeigesteuereinheit 27, eine Betriebssteuereinheit 28 und eine Bewegungstrajektorienänderungseinheit 29 als Anwendungsprogramme konfiguriert, die in dem ROM gespeichert sind, in den RAM geladen werden und von der CPU ausgeführt werden. Außerdem sind in der ECU 20 eine Bewegungsstrategiedatenbank 24, die ein spezieller Bereich einer Speichervorrichtung ist, und eine Regeldatenbank 26 ausgebildet. Die ECU 20 empfängt das Bildsignal von der Kamera 10 oder das Radarsignal von dem Radar 11 in regelmäßigen Intervallen, und wenn der Insasse einen Berührungsbetrieb der Anzeige 12 durchführt, empfängt sie das Berührungsbetriebssignal von der Anzeige 12. Außerdem führt die ECU 20 Prozesse in den jeweiligen Einheiten 21, 22, 23, 25, 27, 28 und 29 durch und überträgt in dem Fall der Anzeige verschiedener Arten von Informationen auf der Anzeige 12 ein Anzeigesignal an die Anzeige 12.
  • Die Umgebungserkennungseinheit 21 erkennt umgebende Objekte des Host-Fahrzeugs auf der Grundlage des fotografierten Bildes von der Kamera 10 und der Übertragungs-/Empfangsinformationen von dem Radar 11. Insbesondere erkennt die Umgebungserkennungseinheit 21 Attribute der erkannten Objekte (Fahrzeuge, Personen (als detailliertere Attribute Erwachsene, Kinder, alte Personen und Ähnliches), Hunde, Katzen, Fahrräder, Motorräder, Objekte, die einen Aufbau betreffen, fallende Objekte auf einer Fahrbahn, Verkehrszeichen, Fahrbahnmarkierungen, Ampelsignale und Ähnliches). Außerdem erkennt die Umgebungserkennungseinheit 21 die Zustände der erkannten Objekte (eine Position, einen Stoppzustand (insbesondere einen Parkzustand), einen Bewegungszustand (insbesondere einen Fahrzustand), einen Kreuzungs- bzw. Querungszustand, eine Bewegungsgeschwindigkeit, eine Bewegungsrichtung oder unbekannt). Außerdem berechnet die Umgebungserkennungseinheit 21 in Bezug auf das Objekt (Hindernis), das in der Fahrtrichtung des Host-Fahrzeugs vorhanden ist, die Auftrittswahrscheinlichkeit des Objektes für die Position des Host-Fahrzeugs in der Straßenbreitenrichtung. 3 zeigt ein Beispiel einer Verteilung D, die die Auftrittswahrscheinlichkeit eines Hindernisses für die Position in der Straßenbreitenrichtung angibt. Außerdem erkennt die Umgebungserkennungseinheit 21 die Bedingungen (eine Regel, eine Art und Weise und Ähnliches), die die Bewegung des Fahrzeugs vorschreiben. Die Regel ist eine allgemeine Verkehrsregel, die durch ein Verkehrszeichen oder Ähnliches vorgeschrieben ist. In dem Fall eines Signals oder einer Anzeige kann die Regel beispielsweise deren Inhalte (keine Einfahrt, kein Abbiegen nach rechts, kein Abbiegen nach links, Geschwindigkeitsgrenze, kein Vorstehen gegenüber einer gelben Linie und Ähnliches) sein, während in dem Fall eines Ampelsignals die Regel eine Signalfarbe oder eine fahrbare Richtung sein kann. Die Art und Weise ist eine allgemeine Verkehrsart bzw. -weise und kann beispielsweise eine Geschwindigkeitsverringerung beim Passieren der Seite eines Fußgängers sein. In diesem Fall kann ein Erkennungsverfahren oder ein Verfahren zum Berechnen der Auftrittswahrscheinlichkeit gemäß dem Stand der Technik verwendet werden.
  • Außerdem bestimmt die Umgebungserkennungseinheit 21 die Fahrszene (Situation) auf der Grundlage des Ergebnisses der Erkennung der umgebenden Objekte. Insbesondere bestimmt die Umgebungserkennungseinheit 21 in dem Fall, in dem das erkennbare Objekt ein Objekt ist, das ein Hindernis für die Fahrt des Host-Fahrzeugs sein kann, die Fahrszene anhand der Positionsbeziehung zwischen dem Objekt und dem Host-Fahrzeug. Die Fahrszene kann ein typischer Fahrzustand, ein Stagnieren, ein langsames Fahrzeug voraus, ein Fußgänger, der voraus kreuzt (Vorhandensein oder Nichtvorhandensein von kreuzenden Personen), ein rotes Signal voraus, am parkendes Fahrzeug, ein Fußgänger auf der Straße, ein Fahrrad auf der Straße, ein fallendes Objekt auf der Straße, in einer Baustelle oder Ähnliches sein.
  • In dem Fall des Beispiels, das in 2 dargestellt ist, stoppt beispielsweise ein Fahrzeug V1 (ist geparkt) vor dem Host-Fahrzeug auf der Fahrbahn, und die Umgebungserkennungseinheit 21 erkennt das Fahrzeug V1 als ein Attribut „Fahrzeug” und erkennt „geparktes Fahrzeug” als ein Zustand. Außerdem ist eine Person P1 an der Seite des Fahrzeugs V1 vorhanden, und die Umgebungserkennungseinheit 21 kann die Person P1 als ein Objekt erkennen, ist aber nicht in der Lage, das Attribut oder den Zustand zu erkennen, so dass „unbekannt” eingestellt wird. In diesem Fall bestimmt die Umgebungserkennungseinheit 21, da die Umgebungserkennungseinheit 21 erkennt, dass das geparkte Fahrzeug vor dem Host-Fahrzeug vorhanden ist, am voraus geparktes Fahrzeug als die Fahrszene. Außerdem ist ein kreuzender Fußgänger C vorne vorhanden, und die Umgebungserkennungseinheit 21 erkennt den kreuzenden Fußgänger C als am Attribut „kreuzender Fußgänger”. Außerdem ist eine Person P2, die beabsichtigt, über den Zebrastreifen C zu gehen, vorhanden, und somit erkennt die Umgebungserkennungseinheit 21 die Person P2 als das Attribut „Person”, und erkennt „Kreuzungs- bzw. Querungsstart” als den Zustand. Außerdem stoppt auf der gegenüberliegenden Fahrbahn ein Fahrzeug V2 vor dem Zebrastreifen C, und die Umgebungserkennungseinheit 21 erkennt das Fahrzeug V2 als das Attribut „Fahrzeug” und erkennt „gestopptes Fahrzeug” als den Zustand.
  • Die Bewegungstrajektorienerzeugungseinheit 22 stellt die Bewegungsstrategien entsprechend dem Ergebnis (insbesondere der Fahrszene) der Erkennung der Umgebung durch die Umgebungserkennungseinheit 21 ein und erzeugt automatisch die Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien. Hier werden, wann immer die Fahrszene, die von der Umgebungserkennungseinheit 21 bestimmt wird, geändert wird, die Bewegungsstrategien eines voreingestellten Standards entsprechend der Fahrszene eingestellt. Außerdem werden auf der Grundlage der Bewegungsstrategien die Bewegungstrajektorie, deren Position, Bewegungsrichtung und Bewegungsgeschwindigkeit je Zeiteinheit oder Abstandseinheit vorgeschrieben, wenn das Fahrzeug fährt.
  • Die Bewegungsstrategien, die ein höheres Konzept der Bewegungstrajektorie sind, sind Informationen, die eine Basis (Basisverfahrensweise) zum Erzeugen der Bewegungstrajektorie werden. Die Bewegungsstrategien können Bewegungsstrategien zum Fahren geradeaus, Bewegungsstrategien zum Abbiegen nach rechts, Bewegungsstrategien zum Abbiegen nach links, Bewegungsstrategien zum Stoppen vor einem roten Signal oder einem Zebrastreifen, Bewegungsstrategien zum Ändern von Fahrbahnen, Bewegungsstrategien zum Überholen eines geparkten Fahrzeugs oder Bewegungsstrategien zum Umgehen eines Fußgängers oder eines Fahrrads sein. Die Bewegungsstrategien zum Stoppen sind Bewegungsstrategien zum Positionieren in der Fahrzeugfahrtrichtung. Die Bewegungsstrategien zum Ändern von Fahrbahnen, Überholen eines geparkten Fahrzeugs und Umgehen eines Fußgängers sind Bewegungsstrategien zum Positionieren in der Straßenbreitenrichtung. Dementsprechend enthält die Positionierung in einem Straßenbereich zumindest ein Positionieren (geradeaus Fahren oder Stoppen) in der Fahrzeugfahrtrichtung und ein Positionieren in der Straßenbreitenrichtung.
  • Wann immer die Umgebungserkennungseinheit 21 die Fahrszene bestimmt, stellt die Bewegungsstrategieeinstelleinheit 23 die Bewegungsstrategiekandidaten für den Insassen ein, um die Bewegungsstrategien zu ändern. In dem Fall des Beispiels, das in 2 dargestellt ist, können beispielsweise ein Bewegungsstrategiekandidat, der ein geparktes Fahrzeug V1 umgeht, ein Bewegungsstrategiekandidat, der vor einem geparkten Fahrzeug V1 stoppt, ein Bewegungsstrategiekandidat, der geradeaus fährt und vor einem Zebrastreifen C stoppt, und ein Bewegungsstrategiekandidat, der geradeaus bis zu dem Ende des Zebrastreifens C fährt, eingestellt werden. Außerdem können in dem Fall der Bewegungsstrategien zum Umgehen eines geparkten Fahrzeugs V1 mehrere Kandidaten, die geänderte Umgehungsbeträge in der Fahrbahnbreitenrichtung aufweisen, eingestellt werden.
  • Wann immer die Bewegungsstrategien durch den Insassen geändert werden, speichert die Bewegungsstrategieeinstelleinheit 23 die geänderten Bewegungsstrategien und die entsprechende Fahrszene zu diesem Zeitpunkt in der Bewegungsstrategiedatenbank 24. Dementsprechend werden in der Bewegungsstrategiedatenbank 24 die Bewegungsstrategien, die von dem Insassen eingestellt werden, für jedes Fahrszene gespeichert. Dementsprechend sucht die Bewegungsstrategieeinstelleinheit 23 in der Bewegungsstrategiedatenbank 24 nach der Fahrszene, die von der Umgebungserkennungseinheit 21 bestimmt wird, als Schlüssel und extrahiert die Bewegungsstrategien, die dieser Fahrszene entsprechen. Außerdem stellt die Bewegungsstrategieeinstelleinheit 23 die extrahierten Bewegungsstrategien mit einer hohen Priorität als den Bewegungsstrategiekandidaten ein.
  • Die Risikogradberechnungseinheit 25 stellt den Risikograd auf der Grundlage der Kollisionswahrscheinlichkeit des Hindernisses und der Abweichung von der Verkehrsregel für jeden Bewegungsstrategiekandidaten, der entsprechend der Fahrszene eingestellt wird, ein. Hier werden die Auftrittswahrscheinlichkeit eines Hindernisses, die von der Umgebungserkennungseinheit 21 berechnet wird, und eine Regelliste, die in der Regeldatenbank 26 gespeichert ist, verwendet.
  • Insbesondere berechnet die Risikogradberechnungseinheit 25 die Kollisionswahrscheinlichkeit mit Hindernissen in dem Fall, in dem das Host-Fahrzeug in den jeweiligen Richtungen entsprechend dem Bewegungsstrategiekandidaten fährt, auf der Grundlage der Auftrittswahrscheinlichkeit der jeweiligen Hindernisse. In dem Fall des Beispiels, das in 4 dargestellt ist, ist das Host-Fahrzeug an einem Knoten N1 vorhanden, und in dem Fall eines Bewegungsstrategiekandidaten fährt das Host-Fahrzeug von dem Knoten N1 geradeaus und erreicht einen Knoten N2, während in dem Fall eines anderen Bewegungsstrategiekandidaten das Host-Fahrzeug vom Knoten N1 zum Knoten N3 fährt und dann den Knoten N2 erreicht. Zwei Hindernisse sind zwischen dem Knoten N1 und dem Knoten N2 vorhanden, und die Auftrittswahrscheinlichkeit von 0,5 wird anhand der Auftrittswahrscheinlichkeitsverteilung D1 in Bezug auf das erste Hindernis erhalten, während die Auftrittswahrscheinlichkeit von 0,3 aus der Auftrittswahrscheinlichkeitsverteilung D2 in Bezug auf das zweite Hindernis erhalten wird. Dementsprechend wird eine Kollisionswahrscheinlichkeit von 0,8 (= 0,5 + 0,3) berechnet. Ein Hindernis ist zwischen dem Knoten N3 und dem Knoten N3 vorhanden, und die Auftrittswahrscheinlichkeit von 0,4 wird aus der Auftrittswahrscheinlichkeitsverteilung D3 in Bezug auf das Hindernis erhalten. Dementsprechend wird die Kollisionswahrscheinlichkeit gleich 0,4. Wenn die Kollisionswahrscheinlichkeit größer wird, wird die Kollisionswahrscheinlichkeit mit dem Hindernis größer, und somit erhöht sich der Risikograd.
  • Außerdem berechnet die Risikogradberechnungseinheit 25 die Abweichung von den Regeln in dem Fall, in dem das Host-Fahrzeug in den jeweiligen Richtungen entsprechend dem Bewegungsstrategiekandidaten fährt, auf der Grundlage einer Regelliste. 5(a) stellt ein Beispiel einer Regelliste dar, und Kosten (wenn die Kosten größer werden, wird der Risikograd größer) in dem Fall einer Verletzung der Verkehrsregeln sind entsprechend in der Regelliste aufgeführt. In dem Fall der Anwendung der Regelliste der 5(a) auf das Beispiel, das in 4 dargestellt ist, wird die Abweichung von den Regeln wie folgt berechnet. In dem Fall eines Bewegungsstrategiekandidaten sind die Regel 1 und die Regel 3 zwischen dem Knoten N1 und dem Knoten N2 vorhanden, und in dem Fall, in dem das Host-Fahrzeug fährt, kann die Regel 1 beachtet werden, aber die Wahrscheinlichkeit, dass die Regel 3 beachtet werden kann, beträgt etwa 50%. Dementsprechend wird die Abweichung von der Regel als 1,0 × 0 + 0,4 × 0,5 = 0,2 berechnet. In dem Fall des anderen Bewegungsstrategiekandidaten sind die Regel 1 und die Regel N zwischen dem Knoten N1 und dem Knoten N3 vorhanden, und in dem Fall, in dem das Host-Fahrzeug fährt, können weder die Regel 1 noch die Regel N beachtet werden, und somit wird die Abweichung von der Regel als 1,0 × 1 + 0,8 × 1 = 1,8 berechnet. Wenn der Abweichungswert größer wird, wird der Risikograd größer.
  • Außerdem stellt die Risikogradberechnungseinheit 25 einen Risikogradpegel, der der Kollisionswahrscheinlichkeit und der Abweichung von der Regel entspricht, mit Bezug auf ein Risikogradkennlinienfeld ein. 6 zeigt ein Beispiel eines Risikogradkennlinienfeldes, bei dem Risikogradpegel 0 bis 4 mit der Abweichung von der Regel und der Kollisionswahrscheinlichkeit als Parameter eingestellt sind, und wenn der Wert der Kollisionswahrscheinlichkeit größer wird, wird der entsprechende Risikogradpegel größer. In dem Fall des Beispiels, das in 4 und 5 dargestellt ist, werden die Risikogradpegel wie folgt eingestellt. In dem Fall eines Bewegungsstrategiekandidaten ist die Kollisionswahrscheinlichkeit zwischen dem Knoten N1 und dem Knoten N2 gleich 0,8, und die Abweichung von der Regel beträgt 0,2, und somit wird der Risikogradpegel von 0,5 anhand des Risikogradkennlinienfeldes eingestellt. In dem Fall eines anderen Bewegungsstrategiekandidaten ist die Kollisionswahrscheinlichkeit zwischen dem Knoten N1 und dem Knoten N3 gleich 0,4, und die Abweichung von der Regel beträgt 1,8, und somit wird der Risikogradpegel von 1 anhand des Risikogradkennlinienfeldes eingestellt. Dementsprechend weisen in diesem Beispiel die Bewegungsstrategien zum Fahren von dem Knoten 1 zu dem Knoten 3 einen größeren Risikograd auf.
  • Um dem Insassen das Erkennungsergebnis der Umgebungserkennungseinheit 21, die Bewegungstrajektorie, die von der Bewegungstrajektorienerzeugungseinheit 22 erzeugt wird, und den Bewegungsstrategiekandidaten, der von der Bewegungsstrategieeinstelleinheit 23 eingestellt wird, zu präsentieren, erzeugt die Anzeigesteuereinheit 27 ein Bild zum Anzeigen der Informationen und überträgt das Anzeigesignal, das aus den Bildinformationen besteht, an die Anzeige 12. Außerdem erzeugt die Anzeigesteuereinheit 27 in dem Fall, in dem die Bewegungstrajektorienänderungseinheit 29 die Bewegungstrajektorie ändert, ein Bild zum Anzeigen der Bewegungstrajektorie, die von der Bewegungstrajektorienänderungseinheit 29 geändert wird, anstelle der Bewegungstrajektorie, die von der Bewegungstrajektorienerzeugungseinheit 22 eingestellt wird, und überträgt das Anzeigesignal, das aus den Bildinformationen besteht, an die Anzeige 12. Das Basisbild kann ein Bild sein, das von der Kamera 10 fotografiert wird, oder es kann ein Bild sein, das durch Hinzufügen des erkannten Objektes zu einem Bild (CG-Bild), das durch eine Navigationsvorrichtung erzeugt wird, erhalten wird. Verschiedene Anzeigen wie beispielsweise eine ebene Anzeige, eine Hoch-Winkel-Anzeige, eine 3D-Stereo-Anzeige können für das Bild verwendet werden.
  • Das Erkennungsergebnis der Umgebungserkennungseinheit 21, wie es in 2 dargestellt ist, wird als ein Attribut oder ein Zustand eines Objektes mittels Zeichen oder Piktogrammen in Bezug auf die erkannten Objekte angezeigt. Insbesondere wird in dem Fall des bewegten Objektes durch Pfeile oder Ähnliches angegeben, ob sich das Objekt bewegt, und es werden die Bewegungsgeschwindigkeit und die Bewegungsrichtung angegeben. Außerdem wird in dem Fall der Erkennung eines Verkehrszeichens oder einer Ampel die Regel mittels eines Zeichens oder Piktogramms und nach Bedarf eine Art und Weise angezeigt. Außerdem wird die Fahrszene, die in Bezug auf die Bewegungsstrategien bestimmt wird, angezeigt. Weiterhin wird beispielsweise in dem Fall eines bewegten Objektes (insbesondere in dem Fall, in dem das bewegte Objekt ein Hindernis in Bezug auf das Host-Fahrzeug wird) das Objekt mittels eines Rahmens oder Ähnlichem hervorgehoben. Wenn in diesem Fall das Attribut oder der Zustand nicht erkannt werden kann, wird „unbekannt” in Bezug auf das Objekt angezeigt.
  • Die Bewegungstrajektorie, die von der Bewegungstrajektorienerzeugungseinheit 22 eingestellt wird, wird durch eine Linie wie beispielsweise ein Zeichen L und einen Pfeil in 2 angegeben. Zu diesem Zeitpunkt ist in dem Fall der Bewegungstrajektorie wie beispielsweise einem Passieren der Nähe des „unbekannten” Objektes die Zuverlässigkeit niedrig, und es kann ein Hervorheben zur Aufmerksamkeitserregung erfolgen.
  • Beim Zeigen der Bewegungsstrategiekandidaten, die von der Bewegungsstrategieeinstelleinheit 23 eingestellt werden, wie es in 2 gezeigt ist, werden die Bewegungsstrategien S, die die Basis werden, mit Knoten N1, N2, ..., N7 und Linien, die die Knoten verbinden, gezeigt, und dann kann, wie es in 8 dargestellt ist, für jeden Bewegungsstrategiekandidaten gezeigt werden, welchen Knoten die Bewegungsstrategien passieren. Das Beispiel, das in 8 dargestellt ist, entspricht den Bewegungsstrategien für den Kandidaten 1 zum geradeaus Bewegen von dem Knoten 1 zum Knoten 7, den Bewegungsstrategien für den Kandidaten 2 zum geradeaus Bewegen von dem Knoten 1 zum Knoten 6 und zum Anhalten vordem Zebrastreifen C, den Bewegungsstrategien für den Kandidaten 3 zum Anhalten am Knoten 1, der vor dem geparkten Fahrzeug V1 liegt, und den Bewegungsstrategien für den Kandidaten 4 zum Umgehen eines geparkten Fahrzeugs V1, der sich von dem Knoten N1 zum Knoten N2 in der Straßenbreitenrichtung bewegt. Außerdem kann, wie es in 9 dargestellt ist, der Risikograd für jeden Bewegungsstrategiekandidaten angezeigt werden. Wenn mehrere Bewegungsstrategiekandidaten auf der Anzeige 12 angezeigt werden, wie es oben beschrieben ist, kann der Insasse einen Bewegungsstrategiekandidaten zum Durchführen eines Berührungsbetriebs der Anzeige 12 auswählen.
  • Der Bewegungsstrategiekandidat, der von der Bewegungsstrategieeinstelleinheit 23 eingestellt wird, gibt, wie es in 10(a) gezeigt ist, die Basisbewegungsstrategien S1 mit den Knoten N1, N2, ..., N5 und Linien, die die Knoten verbinden, an und ermöglicht es, dass sich die Positionen der Knoten N1, N2, ..., N5 der Bewegungsstrategien S1 auf dem Bildschirm bewegen. Wenn die Bewegungsstrategien S1 auf der Anzeige 12 angezeigt werden, kann der Insasse die Bewegungsstrategien durch Bewegen der Positionen der jeweiligen Knoten durch Berührung der Anzeige 12 frei korrigieren. In dem Fall des Beispiels, das in 10(a) gezeigt ist, erachtetes beispielsweise der Insasse als nicht notwendig, die Bewegungstrajektorie L1, die auf der Vorrichtungsseite eingestellt wird, weiter von der Person P1 zu entfernen und den Knoten N1 und den Knoten N3 nach rechts zu bewegen, da der Insasse das Objekt P1, das als „unbekannt” angezeigt wird, als eine Person erkennt. Außerdem erachtet es der Insasse P2 unter Berücksichtigung einer Person P2, die beabsichtigt, den Zebrastreifen C zu überqueren, als notwendig, die Bewegungstrajektorie L1, die auf der Vorrichtungsseite eingestellt wird, vor dem Zebrastreifen C zu stoppen und bewegt den Knoten N5 bis zu der Vorderseite des Zebrastreifens C. Als Ergebnis enthalten, wie es in 10(b) gezeigt ist, die Bewegungsstrategien 82 eine Bewegung der Positionen der Knoten N2, N3 und N5, und die Basisbewegungstrajektorie wird in die Bewegungstrajektorie S2 geändert.
  • Zu diesem Zeitpunkt wird die Beziehung zwischen dem Objekt, das von der Umgebungserkennungseinheit 21 erkannt wird, und den Bewegungsstrategien berechnet, und nur das Objekt, das eine hohe Beziehung aufweist, wird angezeigt, während das Objekt, das eine niedrige Beziehung aufweist, nicht angezeigt wird. Weiterhin kann eine Datenbank zum Speichern der Bewegungsstrategien, die nicht präsentiert werden, erhalten werden, und die Bewegungsstrategien, die in der Datenbank gespeichert sind, müssen nicht angezeigt werden. Die Bewegungsstrategien, die nicht präsentiert werden, sind Bewegungsstrategien wie beispielsweise eine typische Fahrt und enthalten beispielsweise Bewegungsstrategien zum einfachen geradeaus Bewegen, Bewegungsstrategien zum Abbiegen nach links oder rechts, Bewegungsstrategien während der Fahrt mit einem niedrigen Risikograd (in dem Fall, in dem kein Hindernis oder Ähnliches vorhanden ist) und Bewegungsstrategien während einer Fahrt bei Tag.
  • Wann immer sie ein Berührungsbetriebssignal von der Anzeige 12 empfängt, erkennt die Betriebssteuereinheit 28 den Bewegungsstrategiekandidaten, der von dem Insassen ausgewählt wird, oder die Position des bewegten Knotens auf der Grundlage der Positionsinformationen auf dem Bildschirm der Anzeige 12, die in dem Berührungsbetriebssignal angegeben sind.
  • Zu diesem Zeitpunkt kann in dem Fall einer Konfiguration wie beispielsweise einem Auswählen der Bewegungsstrategien durch Bewegen der Positionen von Knoten, wie es in 10 dargestellt ist, der Grad der Einfachheit (Betriebswiderstand), wenn Knoten durch einen Berührungsbetrieb bewegt werden, entsprechend dem Risikograd für jeden Kandidaten der Bewegungsstrategien geändert werden. In diesem Fall ändert die Betriebssteuereinheit 28 den Betriebswiderstand in dem Fall der Bewegung der jeweiligen Knoten durch einen Berührungsbetrieb entsprechend dem Risikograd und überträgt ein Berührungsbetriebssteuersignal derart an die Anzeige 12, dass der Betriebswiderstand größer wird, wenn der Risikograd größer wird. In dem Fall der Bewegungsstrategien zum Bewegen von den Knoten N2 und N3 in dem Beispiel, das in 10 dargestellt ist, nach links wird beispielsweise der Risikograd größer, und somit wird der Betriebswiderstand der Knoten N2 und N3 größer. Im Gegensatz dazu wird in dem Fall der Bewegungsstrategien zum Bewegen der Knoten N2 und N3 nach links bis zu einem bestimmten Ausmaß der Risikograd niedriger, und somit wird der Betriebswiderstand der Knoten N2 und N3 geringer. Außerdem ist es, wie es in 7 dargestellt ist, durch Ändern des Betriebswiderstands entsprechend der Differenz zwischen den Pegeln der Risikograde der Bewegungsstrategien, die derzeitig eingestellt sind, und dem Risikograd der Bewegungsstrategien, die durch den Insassen geändert werden, möglich, den Betriebswiderstand zu erhöhen, wenn die Pegeldifferenz größer wird.
  • Wenn der Bewegungsstrategiekandidat, der auf der Anzeige 12 angezeigt wird, ausgewählt wird oder die Position eines Knotens bewegt wird, um die Bewegungsstrategien zu ändern, korrigiert die Bewegungstrajektorienänderungseinheit 29 die Bewegungstrajektorie, die auf der Vorrichtungsseite erzeugt wird, auf der Grundlage der Bewegungsstrategien, die von dem Insassen ausgewählt (geändert) werden, und erzeugt automatisch eine neue Bewegungstrajektorie.
  • Im Folgenden wird mit Bezug auf 1 der Betrieb des Bewegungstrajektoriengenerators 1 beschrieben. Hier wird der Betrieb für den Fall beschrieben, in dem der Insasse die Bewegungsstrategien (außerdem die Bewegungstrajektorie) in einem Zustand ändert, in dem der Insasse ein Ziel einstellt, der Bewegungstrajektoriengenerator 1 aufeinanderfolgend die Bewegungstrajektorie zum Erreichen des Ziels erzeugt und das Fahrzeug eine automatisierte Fahrt entsprechend der Bewegungstrajektorie durchführt.
  • Die Kamera 10 fotografiert die Vorderseite des Host-Fahrzeugs in bestimmten Abstände und überträgt ein Bildsignal an die ECU 20, Die ECU 20 empfängt das Bildsignal und erlangt das fotografierte Bild der Kamera 10. Das Radar 11 führt eine Abtastung der Vorderseite des Host-Fahrzeugs in einer horizontalen Ebene mit einer elektromagnetische Welle durch und sendet diese Welle aus, empfängt eine reflektierte Welle, die von einem Objekt reflektiert und zurückgegeben wird, und überträgt das Radarsignal an die ECU 20. Die ECU 20 empfängt das Radarsignal und erlangt Übertragungs-/Empfangsinformationen durch das Radar 11.
  • Die ECU 20 erkennt jeweilige Bedingungen (eine Regel, eine Art und Weise und Ähnliches), die Objekte (Attribut, Zustand und Ähnliches), die das Host-Fahrzeug umgeben, beschreiben, oder eine Bewegung der Objekte auf der Grundlage des fotografierten Bildes der Kamera 10 und der Übertragungs-/Empfangsinformationen des Radars 11 und bestimmt die Fahrszene. Wann immer die Fahrszene bestimmt wird, stellt die ECU 20 außerdem die Bewegungsstrategien entsprechend der bestimmten Fahrszene ein und erzeugt automatisch die Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien.
  • Wann immer die Fahrszene bestimmt wird, stellt die ECU 20 außerdem einen Bewegungsstrategiekandidaten ein. Außerdem stellt die ECU 20 den Risikograd auf der Grundlage der Kollisionswahrscheinlichkeit eines Hindernisses und der Abweichung von der Verkehrsregel für jeden Bewegungsstrategiekandidaten ein. Die ECU 20 erzeugt ein Bild zum Anzeigen des Bewegungsstrategiekandidaten, des Risikograds, der Bewegungstrajektorie, die auf der Vorrichtungsseite eingestellt wird, von erkannten Informationen der jeweiligen Objekte oder einer Fahrszene und überträgt ein Anzeigesignal an die Anzeige 12. Wenn sie das Anzeigesignal empfängt, zeigt die Anzeige 12 ein Bild, das einen Bewegungsstrategiekandidaten, eine Bewegungstrajektorie, erkannte Informationen der jeweiligen Objekte oder eine Fahrszene angibt, auf dem Basisbild auf der Grundlage des Anzeigesignals an.
  • Der Insasse bestätigt die Informationen der jeweiligen Objekte oder die Fahrszene, die auf der Anzeige 12 angezeigt wird, und bestätigt tatsächliche Umgebungssituationen mittels visueller Erkennung. Außerdem bestimmt der Insasse unter Berücksichtigung des Ergebnisses der Bestätigung oder der Präferenz, wenn der Insasse das Fahrzeug fährt, ob es notwendig ist, die Bewegungstrajektorie, die auf der Vorrichtungsseite erzeugt wird, zu ändern. Wenn bestimmt wird, dass es notwendig ist, die Bewegungstrajektorie zu ändern, wählt der Insasse einen Bewegungsstrategiekandidaten (oder bewegt den Knoten) durch einen Berührungsbetrieb auf dem Bildschirm der Anzeige 12 aus.
  • Entsprechend dem Berührungsbetrieb des Insassen überträgt die Anzeige 12 die Positionsinformationen auf dem Bildschirm an die ECU 20 als ein Berührungsbetriebssignal. Wenn dieses Berührungsbetriebssignal empfangen wird, erkennt die ECU 20 den Bewegungsstrategiekandidaten, der von dem Insassen ausgewählt wird, auf der Grundlage der Positionsinformationen auf dem Bildschirm der Anzeige 12. Außerdem ändert die ECU 20 automatisch die Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien, die von dem Insassen ausgewählt werden.
  • Gemäß diesem Bewegungstrajektoriengenerator 1 ist es möglich, in eine geeignete Bewegungstrajektorie entsprechend dem Änderungsbetrieb des Insassen der Bewegungsstrategien zu ändern, da der Insasse den Bewegungsstrategiekandidaten auswählen kann oder die Bewegungsstrategien durch Präsentation des Bewegungsstrategiekandidaten, der ein höheres Konzept der Bewegungstrajektorie ist, oder von Bewegungsstrategien, deren Korrektur frei ist, korrigieren kann. Zu diesem Zeitpunkt ist es möglich, in eine gewünschte Bewegung sogar in einer dynamischen Situation zu ändern, da der Insasse einfach und prompt den Änderungsbetrieb der Bewegungsstrategien durchführen kann. Dementsprechend kann die Fahrlast stark verringert werden. Sogar in dem Fall der Erzeugung der Bewegungstrajektorie, die eine niedrige Zuverlässigkeit aufweist, auf der Vorrichtungsseite kann der Insasse außerdem eine Änderung in geeignete Bewegungsstrategien (außerdem Bewegungstrajektorie) durchführen. Außerdem kann der Insasse in dem Fall eines Auswählens und Änderns des Bewegungsstrategiekandidaten auf einfache Weise die Bewegungsstrategien ändern. Weiterhin wird in dem Fall des Korrigierens und Änderns der Bewegungsstrategien der Freiheitsgrad für die Änderung der Bewegungsstrategien erhöht.
  • Außerdem wird gemäß dem Bewegungstrajektoriengenerator 1 der Risikograd jedes Bewegungsstrategiekandidaten präsentiert, und somit kann der Insasse geeignete Bewegungsstrategien unter Berücksichtigung des Risikograds auswählen. Außerdem kann gemäß dem Bewegungstrajektoriengenerator 1 durch Ändern der Leichtigkeit bzw. Einfachheit, mit der der Korrekturbetrieb durchgeführt werden kann, entsprechend dem Risikograd der jeweiligen Bewegungsstrategiekandidaten die Änderung der Bewegungsstrategien aufgrund einer Fehlbestimmung des Insassen oder einer Fehlkorrektur unterdrückt werden, und der Insasse kann eine Änderung in geeignete Bewegungsstrategien unter Berücksichtigung des Risikograds durchführen.
  • Außerdem wird gemäß dem Bewegungstrajektoriengenerator 1 ein Satz der Auswahl des Insassen der Bewegungsstrategien der Bewegungsszene in der Vergangenheit und zu diesem Zeitpunkt in der Datenbank gespeichert, und durch Präsentieren der Bewegungsstrategien, die in der Vergangenheit ausgewählt wurden, mit höherer Priorität unter Verwendung der Datenbank für den Insassen können die Bewegungsstrategien, die dem Geschmack des Insassen entsprechen, präsentiert werden, und somit fühlt sich der Insasse nicht unkomfortabel.
  • Gemäß dem Bewegungstrajektoriengenerator 1 kann der Insasse dadurch, dass ihm außerdem sogar Informationen der Fahrszene oder des erkannten Objektes präsentiert werden, noch genauer bestimmen, ob die auf der Vorrichtungsseite erzeugte Bewegungstrajektorie geeignet ist, ob die Änderung der Bewegungsstrategien notwendig ist, und falls es notwendig ist, wie viel Änderung notwendig ist.
  • Obwohl oben Ausführungsformen der Erfindung beschrieben wurden, ist die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt und wird auf verschiedene Weisen ausgeführt.
  • In dieser Ausführungsform kann, obwohl die vorliegende Erfindung für ein Fahrzeug mit automatisierter Fahrt verwendet wird, diese für ein Fahrzeug verwendet werden, an dem eine Fahrunterstützungsvorrichtung, die die Bewegungstrajektorie verwendet, montiert ist. Außerdem können in dem Fall der Verwendung der Vorrichtung bei der Entwicklung eines Systems die Richtung zum Lösen des Problems hinsichtlich der Erkennung der Umgebung und der Erzeugung der Bewegungsstrategien oder der Bewegungstrajektorie in Echtzeit untersucht werden.
  • Auch wenn in dieser Ausführungsform der Insasse die Bewegungsstrategien durch einen Berührungsbetrieb der Anzeige, die eine Funktion einer berührungsempfindlichen Fläche aufweist, ändert, ist es außerdem möglich, die Bewegungsstrategien durch andere Betriebe wie beispielsweise einen Joystick-Betrieb, einen Handgriff-Betrieb, einen Tastenbetrieb, einen Spracheingabebetrieb oder Ähnliches zu ändern.
  • Auch wenn in dieser Ausführungsform die Umgebung unter Verwendung der Informationen, die von der Kamera und dem Radar erfasst werden, erkannt wird, können außerdem andere Einrichtungen verwendet werden.
  • Auch wenn in dieser Ausführungsform der Risikograd erhalten wird und der Risikograd zusammen mit dem Bewegungsstrategiekandidaten angezeigt wird oder der Betriebswiderstand des Änderungsbetriebs entsprechend dem Risikograd durch die Betriebssteuereinheit geändert wird, muss die dem Risikograd entsprechende Verarbeitung nicht durchgeführt werden.
  • Außerdem wird in dieser Ausführungsform die Umgebung erkannt, und das Objektattribut, der Zustand, die Regel oder die Art und Weise, die Fahrszene und Ähnliches werden auf der Anzeige als Erkennungsergebnis der Umgebung zusätzlich zu der Bewegungstrajektorie und dem Bewegungsstrategiekandidaten angezeigt. Es können jedoch auch nur einige Informationen unter diesen Erkennungsergebnissen der Umgebung oder Informationen mit der Ausnahme dieser angezeigt werden. Außerdem können Informationen durch andere Einrichtungen wie beispielsweise eine überlappende Anzeige in einer Frontscheibe, eine Tonausgabe, eine Lampe, die Übermittlung eines Gefühls durch Berührung und Ähnliches anstatt der Anzeige bereitgestellt werden.
  • Außerdem wird in dieser Ausführungsform eine Bewegungsstrategiedatenbank zum Speichern der Bewegungsstrategien, die von dem Insassen in der Vergangenheit ausgewählt wurden, und der Fahrszene zu dem Zeitpunkt bereitgestellt, und wenn die Bewegungsstrategien präsentiert werden, werden die Bewegungsstrategien unter Berücksichtigung des Geschmacks des Insassen in der Vergangenheit präsentiert. Um die Verarbeitungs- bzw. Rechenlast oder die Speicherkapazität zu verringern, muss jedoch die Bewegungsstrategiedatenbank nicht vorgesehen sein, und der Geschmack des Insassen muss nicht berücksichtigt werden.
  • Wenn in dieser Ausführungsform das Objektattribut oder der Zustand als Ergebnis der Erkennung der Umgebung unbekannt ist, wird „unbekannt” angezeigt. Der Insasse kann jedoch auch ein genaues Attribut oder einen Zustand in Bezug auf das unbekannte Objekt eingeben. Weiterhin kann das Niveau des Objekterkennungsprozesses durch Lernen auf der Vorrichtungsseite unter Verwendung der Informationen, die von dem Insassen eingegeben werden, verbessert werden.
  • Außerdem wird die Zuverlässigkeit in Bezug auf jeden Bewegungsstrategiekandidaten erhalten, und es kann dem Insassen eine hohe oder niedrige Zuverlässigkeit des Bewegungsstrategiekandidaten präsentiert werden, oder es kann die Leichtigkeit, mit der der Betrieb durchgeführt werden kann, entsprechend der Zuverlässigkeit geändert werden. Wenn beispielsweise die Zuverlässigkeit des Erkennungsergebnisses der Umgebung hoch ist, wird ebenfalls die Zuverlässigkeit des Bewegungsstrategiekandidaten entsprechend dem Erkennungsergebnis erhöht, während, wenn die Zuverlässigkeit des Erkennungsergebnisses der Umgebung niedrig ist (in dem Fall, in dem das Objektattribut oder der Zustand unbekannt ist), wird die Zuverlässigkeit des Bewegungsstrategiekandidaten entsprechend dem Erkennungsergebnis ebenfalls verringert. Außerdem wird die Zuverlässigkeit in Bezug auf die Bewegungstrajektorie, die auf der Vorrichtungsseite eingestellt wurde, erhalten, und es kann dem Insassen eine hohe oder niedrige Zuverlässigkeit der Bewegungstrajektorie präsentiert werden, oder es kann die Leichtigkeit, mit der der Betrieb durchgeführt werden kann, entsprechend der Zuverlässigkeit geändert werden.
  • Außerdem wird der Insassenbeobachtungsbereich erkannt (beispielsweise wird das Gesicht des Insassen von der Kamera fotografiert, und die Richtung des Gesichts des Insassen oder die Blickrichtung wird anhand des fotografierten Bildes erkannt), und es werden nur die Bewegungsstrategien in dem Beobachtungsbereich angezeigt (präsentiert), oder es können nur die Bewegungsstrategien in dem Beobachtungsbereich durch einen Joystick, einen Handgriff oder mittels Spracheingabe geändert werden.
  • Wenn die Bewegungstrajektorie oder die Bewegungsstrategien, die auf der Vorrichtungsseite präsentiert werden, in großem Ausmaß falsch sind, kann eine Nutzerschnittstelle (Tastenbetrieb oder Ähnliches), die sofort einen Notstopp durchführen kann, bereitgestellt werden.
  • Gewerbliche Anwendbarkeit
  • Gemäß der vorliegenden Erfindung kann die Änderung in eine geeignete Bewegungstrajektorie entsprechend einem einfachen Einstellbetrieb der Bewegungsstrategien durch einen Insassen durchgeführt werden, da die Einstellungsinformationen der Bewegungsstrategien, die ein höheres Konzept der Bewegungstrajektorie sind, präsentiert werden und der Insasse die Bewegungsstrategien einstellen kann.
  • Bezugszeichenliste
  • 1
    Bewegungstrajektoriengenerator
    10
    Kamera
    11
    Radar
    12
    Anzeige
    20
    ECU
    21
    Umgebungserkennungseinheit
    22
    Bewegungstrajektorienerzeugungseinheit
    23
    Bewegungsstrategieeinstelleinheit
    24
    Bewegungsstrategiedatenbank
    25
    Risikogradberechnungseinheit
    26
    Regeldatenbank
    27
    Anzeigesteuereinheit
    28
    Betriebssteuereinheit
    29
    Bewegungstrajektorienänderungseinheit

Claims (8)

  1. Bewegungstrajektoriengenerator, der eine Bewegungstrajektorie eines Fahrzeugs erzeugt, und der aufweist: eine Fahrumgebungserkennungseinrichtung zum Erkennen einer Fahrumgebung; eine Bewegungsstrategieerzeugungseinrichtung zum Erzeugen von Bewegungsstrategien zum Positionieren in einem Straßenbereich entsprechend der Fahrumgebung, die von der Fahrumgebungserkennungseinrichtung erkannt wird; eine Präsentationseinrichtung, die einem Insassen Einstellungsinformationen der Bewegungsstrategien präsentiert; eine Einstelleinrichtung zum Empfangen eines Betriebs des Insassen zum Einstellen der Bewegungsstrategien auf der Grundlage der Einstellungsinformationen der Bewegungsstrategen, die von der Präsentationseinrichtung präsentiert werden; und eine Bewegungstrajektorienerzeugungseinrichtung zum Erzeugen der Bewegungstrajektorie auf der Grundlage der Bewegungsstrategien, die von der Einstelleinrichtung eingestellt werden.
  2. Bewegungstrajektoriengenerator nach Anspruch 1, wobei die Präsentationseinrichtung mehrere Bewegungsstrategiekandidaten präsentiert, und die Einstelleinrichtung einen Betrieb eines Insassen zum Auswählen eines der Bewegungsstrategiekandidaten empfängt.
  3. Bewegungstrajektoriengenerator nach Anspruch 2, der außerdem eine Risikograderlangungseinrichtung zum Erlangen eines Risikograds entsprechend den Bewegungsstrategiekandidaten aufweist, wobei die Präsentationseinrichtung die Bewegungsstrategiekandidaten zusammen mit dem Risikograd, der von der Risikograderlangungseinrichtung erlangt wird, präsentiert.
  4. Bewegungstrajektoriengenerator nach Anspruch 1, wobei die Einstelleinrichtung einen Korrekturbetrieb der Bewegungsstrategien durch einen Insassen empfängt.
  5. Bewegungstrajektoriengenerator nach Anspruch 4, der außerdem eine Risikograderlangungseinrichtung zum Erlangen eines Risikograds entsprechend den Bewegungsstrategien aufweist, wobei die Einstelleinrichtung die Leichtigkeit, mit der die Korrektur der Bewegungsstrategien durchgeführt werden kann, entsprechend dem Risikograd, der von der Risikograderlangungseinrichtung erlangt wird, ändert.
  6. Bewegungstrajektoriengenerator nach einem der Ansprüche 1 bis 5, der außerdem eine Erfassungseinrichtung zum Erfassen eines Insassenbeobachtungsbereiches aufweist, wobei die Präsentationseinrichtung die Einstellungsinformationen der Bewegungsstrategien in dem Beobachtungsbereich, der von der Erfassungseinrichtung erfasst wird, präsentiert.
  7. Bewegungstrajektoriengenerator nach einem der Ansprüche 1 bis 6, wobei die Präsentationseinrichtung einen Faktor zum Einstellen der Bewegungsstrategien präsentiert.
  8. Bewegungstrajektoriengenerator nach einem der Ansprüche 1 bis 7, wobei die Fahrumgebungserkennungseinrichtung einen Zustand von umgebenden Objekten erkennt, und die Präsentationseinrichtung außerdem den Zustand der umgebenden Objekte, die von der Fahrumgebungserkennungseinrichtung erkannt werden, präsentiert.
DE112010001354.3T 2009-02-27 2010-02-26 Bewegungsstrajektoriengenerator Active DE112010001354B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009-046056 2009-02-27
JP2009046056A JP4614005B2 (ja) 2009-02-27 2009-02-27 移動軌跡生成装置
PCT/JP2010/053097 WO2010098449A1 (ja) 2009-02-27 2010-02-26 移動軌跡生成装置

Publications (2)

Publication Number Publication Date
DE112010001354T5 true DE112010001354T5 (de) 2012-08-02
DE112010001354B4 DE112010001354B4 (de) 2020-10-08

Family

ID=42665653

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010001354.3T Active DE112010001354B4 (de) 2009-02-27 2010-02-26 Bewegungsstrajektoriengenerator

Country Status (5)

Country Link
US (2) US8983679B2 (de)
JP (1) JP4614005B2 (de)
CN (1) CN102334151B (de)
DE (1) DE112010001354B4 (de)
WO (1) WO2010098449A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214481A1 (de) 2013-07-24 2015-01-29 Bayerische Motoren Werke Aktiengesellschaft Vorrangassistent
DE102015205131A1 (de) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines zumindest teilweise automatisiert fahrenden Fahrzeugs innerhalb einer Fahrstrecke
DE102019202586A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
US11498557B2 (en) 2015-07-14 2022-11-15 Bayerische Motoren Werke Aktiengesellschaft Longitudinally guiding driver assistance system in a motor vehicle
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4254844B2 (ja) * 2006-11-01 2009-04-15 トヨタ自動車株式会社 走行制御計画評価装置
CN102449672B (zh) * 2009-06-02 2013-05-01 丰田自动车株式会社 车辆用周边监视装置
JP5510378B2 (ja) * 2011-03-31 2014-06-04 株式会社エクォス・リサーチ 車両および車両制御プログラム
CN103052151A (zh) * 2011-10-14 2013-04-17 中国电信股份有限公司 终端定位方法、装置和移动终端
JP5604011B2 (ja) * 2011-10-31 2014-10-08 本田技研工業株式会社 車両周辺監視装置
US8700251B1 (en) 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
DE102012208254A1 (de) * 2012-05-16 2013-11-21 Continental Teves Ag & Co. Ohg Verfahren und System zur Erstellung eines aktuellen Situationsabbilds
EP2894619A4 (de) * 2012-09-03 2016-03-16 Toyota Motor Co Ltd Kollisionsbestimmungsvorrichtung und kollisionsbestimmungsverfahren
JP5527382B2 (ja) * 2012-10-12 2014-06-18 トヨタ自動車株式会社 走行支援システム及び制御装置
CN102945602B (zh) * 2012-10-19 2015-04-15 上海交通大学无锡研究院 一种用于交通事件检测的车辆轨迹分类方法
DE102012022336A1 (de) * 2012-11-14 2014-05-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
US9242647B2 (en) * 2013-02-06 2016-01-26 GM Global Technology Operations LLC Display systems and methods for autonomous vehicles
US10347127B2 (en) 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
US9008890B1 (en) 2013-03-15 2015-04-14 Google Inc. Augmented trajectories for autonomous vehicles
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
CN104251700A (zh) * 2013-06-27 2014-12-31 珠海世纪鼎利通信科技股份有限公司 室内位置自动化描述的方法和设备
BR112016004552B1 (pt) * 2013-08-29 2021-02-17 Nissan Motor Co., Ltd. dispositivo e método de orientação de condução de veículo
JP6291787B2 (ja) * 2013-10-24 2018-03-14 日産自動車株式会社 車両用表示装置
EP2902864B1 (de) 2014-01-30 2017-05-31 Volvo Car Corporation Steueranordnung für autonom angetriebenes Fahrzeug
EP3121085B1 (de) * 2014-03-18 2019-10-16 Nissan Motor Co., Ltd Fahrzeugbetriebsvorrichtung
JP6308032B2 (ja) * 2014-06-04 2018-04-11 株式会社デンソー 運転操作を生成するシステムおよび方法
KR102329444B1 (ko) * 2014-07-04 2021-11-24 주식회사 만도모빌리티솔루션즈 자동차의 제어 시스템 및 제어방법
JP6314744B2 (ja) * 2014-08-21 2018-04-25 日産自動車株式会社 移動物体進路予測装置
CN107074178B (zh) * 2014-09-16 2018-07-24 本田技研工业株式会社 驾驶辅助装置
US9965956B2 (en) * 2014-12-09 2018-05-08 Mitsubishi Electric Corporation Collision risk calculation device, collision risk display device, and vehicle body control device
DE102015201878A1 (de) * 2015-02-04 2016-08-04 Continental Teves Ag & Co. Ohg Halbautomatisierter Spurwechsel
JP6372384B2 (ja) * 2015-02-09 2018-08-15 株式会社デンソー 車間マネジメント装置及び車間マネジメント方法
JP6642972B2 (ja) * 2015-03-26 2020-02-12 修一 田山 車輌用画像表示システム及び方法
JP6447481B2 (ja) * 2015-04-03 2019-01-09 株式会社デンソー 起動提案装置及び起動提案方法
WO2016157814A1 (ja) * 2015-04-03 2016-10-06 株式会社デンソー 起動提案装置及び起動提案方法
JP6598019B2 (ja) 2015-04-21 2019-10-30 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
DE102015207821A1 (de) * 2015-04-28 2016-11-03 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
DE102015106575A1 (de) * 2015-04-29 2016-11-03 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Verfahren und Einrichtung zur Geschwindigkeitsregulierung eines Fahrzeugs
DE102015209190A1 (de) * 2015-05-20 2016-11-24 Volkswagen Aktiengesellschaft Verfahren zur nutzerdefinierten Bereitstellung eines Fahrzeugs
KR102371587B1 (ko) * 2015-05-22 2022-03-07 현대자동차주식회사 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
US10131362B1 (en) * 2015-06-23 2018-11-20 United Services Automobile Association (Usaa) Automobile detection system
JP6470839B2 (ja) * 2015-06-29 2019-02-13 株式会社日立製作所 走行指令生成装置
DE102015213190B3 (de) 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
DE102015213183A1 (de) 2015-07-14 2017-01-19 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug
CN107851372B (zh) * 2015-07-21 2022-01-04 日产自动车株式会社 驾驶计划装置、行驶辅助装置、驾驶计划方法
BR112018001073B1 (pt) * 2015-07-21 2023-02-14 Nissan Motor Co., Ltd. Dispositivo de planejamento de condução, aparelho de auxílio de deslocamento, e método para planejamento de condução
CN107851374B (zh) * 2015-07-21 2019-05-10 日产自动车株式会社 场景评估装置、行驶辅助装置、场景评估方法
JP5957744B1 (ja) 2015-07-31 2016-07-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP5866594B1 (ja) 2015-07-31 2016-02-17 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP5957745B1 (ja) 2015-07-31 2016-07-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP5910904B1 (ja) * 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP5910903B1 (ja) * 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP5945999B1 (ja) 2015-07-31 2016-07-05 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
EP3133455B1 (de) * 2015-08-17 2021-04-14 Honda Research Institute Europe GmbH Vorrichtung zum autonomen oder teilweise autonomen fahren eines fahrzeugs mit einem kommunikationsmodul zum erhalt zusätzlicher daten von einem fahrzeugfahrer und entsprechendes verfahren
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
US9969325B2 (en) 2015-09-15 2018-05-15 International Business Machines Corporation Projected surface markings
US20170109671A1 (en) * 2015-10-19 2017-04-20 Adapt Ready Inc. System and method to identify risks and provide strategies to overcome risks
DE102015220360A1 (de) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Verfahren zur Auswahl einer optimierten Trajektorie
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
WO2017077621A1 (ja) * 2015-11-05 2017-05-11 株式会社日立製作所 移動体移動システム及び移動経路選択方法
JP6582936B2 (ja) * 2015-12-01 2019-10-02 株式会社デンソー 経路生成装置、自動走行制御システム
US9707961B1 (en) 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
JP6558738B2 (ja) * 2016-03-16 2019-08-14 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP6090727B2 (ja) * 2016-03-16 2017-03-08 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP6689365B2 (ja) * 2016-03-28 2020-04-28 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6671019B2 (ja) * 2016-05-18 2020-03-25 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム、自動運転車両及び自動運転制御システム
JP6575915B2 (ja) * 2016-05-31 2019-09-18 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10719083B2 (en) * 2016-07-01 2020-07-21 Uatc, Llc Perception system for autonomous vehicle
US10571913B2 (en) 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
JP6702089B2 (ja) * 2016-08-29 2020-05-27 日産自動車株式会社 車両の運動制御方法及び車両の運動制御装置
EP3298874B1 (de) * 2016-09-22 2020-07-01 Honda Research Institute Europe GmbH Robotergartenarbeitsvorrichtung und verfahren zur steuerung davon
JP6714714B2 (ja) * 2016-10-18 2020-06-24 本田技研工業株式会社 車両制御装置
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
CN109844837A (zh) * 2016-10-26 2019-06-04 三菱电机株式会社 显示控制装置、显示装置及显示控制方法
JP6621032B2 (ja) * 2017-01-30 2019-12-18 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2018133031A (ja) * 2017-02-17 2018-08-23 オムロン株式会社 運転切替支援装置、及び運転切替支援方法
KR102313026B1 (ko) * 2017-04-11 2021-10-15 현대자동차주식회사 차량 및 차량 후진 시 충돌방지 보조 방법
JP6624150B2 (ja) 2017-04-11 2019-12-25 トヨタ自動車株式会社 自動運転システム
JP6869468B2 (ja) * 2017-05-11 2021-05-12 アイシン精機株式会社 警告制御装置
CN110809749A (zh) * 2017-06-16 2020-02-18 本田技研工业株式会社 互动装置、互动方法及程序
CN107402013A (zh) * 2017-07-27 2017-11-28 惠州市格农科技有限公司 共享自行车道路电子化方法
US20190079517A1 (en) * 2017-09-08 2019-03-14 nuTonomy Inc. Planning autonomous motion
EP3580625B1 (de) * 2017-09-18 2024-02-14 Baidu.com Times Technology (Beijing) Co., Ltd. Auf fahrszenario basierende spurleitlinien zur wegplanung von autonom fahrenden fahrzeugen
CN111133489B (zh) * 2017-10-05 2022-02-11 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN107808549B (zh) * 2017-11-08 2020-06-16 华为技术有限公司 移动控制的方法、装置和系统
JP6984341B2 (ja) * 2017-11-17 2021-12-17 株式会社アイシン 重畳画像表示装置及びコンピュータプログラム
JP7132713B2 (ja) 2017-12-28 2022-09-07 株式会社Soken 車両走行制御装置、車両走行制御システムおよび車両走行制御方法
JP6954850B2 (ja) * 2018-02-09 2021-10-27 トヨタ自動車株式会社 表示装置
WO2019200563A1 (en) * 2018-04-18 2019-10-24 Baidu. Com Times Technology (Beijing) Co., Ltd. Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway
JP7119653B2 (ja) * 2018-07-02 2022-08-17 株式会社デンソー 車両制御装置
JP7056420B2 (ja) * 2018-07-06 2022-04-19 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
CN109115206A (zh) * 2018-09-17 2019-01-01 联想(北京)有限公司 导航方法和导航系统
JP7023817B2 (ja) * 2018-09-19 2022-02-22 本田技研工業株式会社 表示システム、表示方法、およびプログラム
US20220032948A1 (en) * 2018-12-06 2022-02-03 Hitachi Astemo, Ltd. Vehicle travel assistance method, vehicle travel assistance device, and autonomous driving system
JP6997118B2 (ja) * 2019-01-23 2022-01-17 日立Astemo株式会社 車両制御システム
JP7324600B2 (ja) 2019-03-19 2023-08-10 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11105642B2 (en) * 2019-04-17 2021-08-31 Waymo Llc Stranding and scoping analysis for autonomous vehicle services
JP2021009653A (ja) * 2019-07-03 2021-01-28 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US10943456B1 (en) * 2019-09-30 2021-03-09 International Business Machines Corporation Virtual safety guardian
US11801867B2 (en) 2020-03-30 2023-10-31 Honda Motor Co., Ltd. Vehicle control device and vehicle control method
JP2021160714A (ja) * 2020-03-30 2021-10-11 本田技研工業株式会社 車両制御装置および車両制御方法
US11682272B2 (en) * 2020-07-07 2023-06-20 Nvidia Corporation Systems and methods for pedestrian crossing risk assessment and directional warning
JP2022114504A (ja) * 2021-01-27 2022-08-08 日立Astemo株式会社 電子制御装置および車両制御システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005053373A (ja) 2003-08-05 2005-03-03 Denso Corp 車両制御装置
WO2006064544A1 (ja) 2004-12-14 2006-06-22 Hitachi, Ltd. 自動車庫入れ装置
JP2008002854A (ja) 2006-06-20 2008-01-10 Toyota Motor Corp 経路案内装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870303A (en) * 1987-11-20 1999-02-09 Philips Electronics North America Corporation Method and apparatus for controlling maneuvers of a vehicle
US5956250A (en) * 1990-02-05 1999-09-21 Caterpillar Inc. Apparatus and method for autonomous vehicle navigation using absolute data
JPH0593630A (ja) * 1991-10-01 1993-04-16 Toshiba Corp 車載ナビゲーシヨンシステム
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
FR2743162B1 (fr) * 1995-12-27 1998-05-07 Dassault Electronique Dispositif de commande pour la securisation d'un vehicule rapide, notamment guide par un operateur embarque ou non dans ledit vehicule
US6745168B1 (en) * 1998-01-28 2004-06-01 Fujitsu Limited Intention achievement information processing apparatus
JP4114292B2 (ja) * 1998-12-03 2008-07-09 アイシン・エィ・ダブリュ株式会社 運転支援装置
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
JP2002123894A (ja) * 2000-10-16 2002-04-26 Hitachi Ltd プローブカー制御方法及び装置並びにプローブカーを用いた交通制御システム
JP2002139329A (ja) * 2000-11-06 2002-05-17 Mazda Motor Corp 車両用表示処理方法及び車両用表示処理装置、並びにコンピュータ可読記憶媒体
DE10117650A1 (de) * 2001-04-09 2002-10-10 Daimler Chrysler Ag Verfahren und Vorrichtung zum Verbringen eines Kraftfahrzeuges in eine Zielposition
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
JP2004086450A (ja) * 2002-08-26 2004-03-18 Nissan Motor Co Ltd 車両用分岐路選択装置および走行制御装置
DE10250021A1 (de) * 2002-10-25 2004-05-13 Donnelly Hohe Gmbh & Co. Kg Verfahren zum Betrieb eines Darstellungssystems in einem Fahrzeug zum Auffinden eines Parkplatzes
US6940426B1 (en) * 2003-09-05 2005-09-06 Ridgeback Systems Llc Aircraft flight risk measuring system and method of operation
DE102004001113A1 (de) * 2004-01-07 2005-07-28 Robert Bosch Gmbh Informationssystem für Fortbewegungsmittel
JP4161938B2 (ja) * 2004-06-01 2008-10-08 トヨタ自動車株式会社 走行制御装置
DE102005023185A1 (de) * 2005-05-19 2006-11-23 Robert Bosch Gmbh Spurwechselassistent für Kraftfahrzeuge
JP4333639B2 (ja) * 2005-06-13 2009-09-16 株式会社豊田中央研究所 障害物回避制御装置及び障害物回避制御プログラム
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
JP4847178B2 (ja) * 2006-03-30 2011-12-28 本田技研工業株式会社 車両用運転支援装置
DE102006026092A1 (de) * 2006-06-03 2007-12-06 Bayerische Motoren Werke Ag Verfahren zur Steuerung eines Einparkvorgangs
JP4062353B1 (ja) * 2006-11-10 2008-03-19 トヨタ自動車株式会社 障害物進路予測方法、装置、およびプログラム
JP4930167B2 (ja) * 2007-04-16 2012-05-16 株式会社デンソー 進路推定装置、および衝突緩和装置
US7710248B2 (en) * 2007-06-12 2010-05-04 Palo Alto Research Center Incorporated Human-machine-interface (HMI) customization based on collision assessments
FR2924828B1 (fr) * 2007-12-11 2010-09-24 Airbus France Procede et dispositif de conduite au moins partiellement automatique d'un aeronef roulant au sol
JP4604103B2 (ja) * 2008-03-31 2010-12-22 トヨタ自動車株式会社 交差点見通し検出装置
US8056667B2 (en) * 2008-04-22 2011-11-15 GM Global Technology Operations LLC Autonomous parking strategy based on available parking space
US8160811B2 (en) * 2008-06-26 2012-04-17 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system to estimate driving risk based on a hierarchical index of driving
JP4807385B2 (ja) * 2008-08-25 2011-11-02 トヨタ自動車株式会社 干渉評価方法、装置、およびプログラム
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8384531B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Recommended following distance on full-windshield head-up display
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
US9146898B2 (en) * 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005053373A (ja) 2003-08-05 2005-03-03 Denso Corp 車両制御装置
WO2006064544A1 (ja) 2004-12-14 2006-06-22 Hitachi, Ltd. 自動車庫入れ装置
JP2008002854A (ja) 2006-06-20 2008-01-10 Toyota Motor Corp 経路案内装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013214481A1 (de) 2013-07-24 2015-01-29 Bayerische Motoren Werke Aktiengesellschaft Vorrangassistent
DE102015205131A1 (de) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines zumindest teilweise automatisiert fahrenden Fahrzeugs innerhalb einer Fahrstrecke
US11498557B2 (en) 2015-07-14 2022-11-15 Bayerische Motoren Werke Aktiengesellschaft Longitudinally guiding driver assistance system in a motor vehicle
DE102019202586A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system

Also Published As

Publication number Publication date
JP4614005B2 (ja) 2011-01-19
US9417080B2 (en) 2016-08-16
CN102334151B (zh) 2014-07-09
US20150032290A1 (en) 2015-01-29
US8983679B2 (en) 2015-03-17
JP2010198578A (ja) 2010-09-09
WO2010098449A1 (ja) 2010-09-02
US20120022716A1 (en) 2012-01-26
DE112010001354B4 (de) 2020-10-08
CN102334151A (zh) 2012-01-25

Similar Documents

Publication Publication Date Title
DE112010001354B4 (de) Bewegungsstrajektoriengenerator
EP3454013B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102017202115B4 (de) Fahrzeugeigene vorrichtung, verfahren zum steuern einer fahrzeugeigenen vorrichtung und computerlesbares speichermedium
EP3426535B1 (de) Verfahren zum betreiben des fahrerassistenzsystems und fahrerassistenzsystem
EP3543059A1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
WO2012034834A1 (de) Visuelles fahrerinformations- und warnsystem für einen fahrer eines kraftfahrzeugs
DE102014221132B4 (de) Verfahren und Vorrichtung zum Anzeigen einer Verfügbarkeit eines ersten Fahrmodus eines Fahrzeugs
DE102009020328A1 (de) Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
DE102017221191A1 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102013213039A1 (de) Assistenzsystem und Assistenzverfahren zur Unterstützung bei der Steuerung eines Kraftfahrzeugs
DE102019202581B4 (de) Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
DE102018210226A1 (de) Verfahrung und vorrichtung für die verwendung mit fahrzeugen mit autonomem fahrmodus
DE102008028374A1 (de) Verfahren zur kombinierten Ausgabe eines Bildes und einer Lokalinformation, sowie Kraftfahrzeug hierfür
DE102016220647A1 (de) Verfahren zum Darstellen mindestens einer ergänzenden Differenz-Fahrbahnausstattung
EP3592604A1 (de) Kraftfahrzeug mit einem beleuchtungsmodul zur generierung einer symbolik
DE102017223439B4 (de) Warnvorrichtung vor Gefahrensituationen für ein Kraftfahrzeug
EP3385932B1 (de) Technik zur ausgabe von fahrzeugmeldungen
DE102009021283A1 (de) Vorrichtung und Verfahren zur Unterstützung eines Fahrzeugführers
DE102011082609A1 (de) Verfahren und Vorrichtung zur Markierung eines relevanten Punktes
DE102014214507A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214505A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102018213745A1 (de) Verfahren zum Betreiben eines Infotainmentsystems für einen Passagier in einem Ego-Fahrzeug und Infotainmentsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: WINTER, BRANDL, FUERNISS, HUEBNER, ROESS, KAIS, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence