DE112013007522T5 - Fahrassistenzgerät und Fahrassistenzverfahren - Google Patents

Fahrassistenzgerät und Fahrassistenzverfahren Download PDF

Info

Publication number
DE112013007522T5
DE112013007522T5 DE112013007522.9T DE112013007522T DE112013007522T5 DE 112013007522 T5 DE112013007522 T5 DE 112013007522T5 DE 112013007522 T DE112013007522 T DE 112013007522T DE 112013007522 T5 DE112013007522 T5 DE 112013007522T5
Authority
DE
Germany
Prior art keywords
information
moving body
landmark object
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112013007522.9T
Other languages
English (en)
Inventor
Kumi Nishibashi
Takashi Irie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112013007522T5 publication Critical patent/DE112013007522T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/086Detection of language

Abstract

Eine Navigationsvorrichtung 1 umfasst eine Routenberechnungseinheit 16a, eine Umgebungsinformationserfassungseinheit 15 und eine Steuereinheit 16. Die Routenberechnungseinheit 16a berechnet eine Route zu einem Ziel basierend auf Karteninformationen, einer Position eines Fahrzeugs und einem Ziel des Fahrzeugs. Zu dem Zeitpunkt, wenn der sich bewegende Körper bei einem durch eine Führung angegebenen Punkt ankommt, bei welchem die sprachliche Ausgabe gegeben ist, erfasst die Umgebungsinformationserfassungseinheit 15 Umgebungsinformationen betreffend eine Umgebung eines Äußeren des sich bewegenden Körpers. Die Steuereinheit 16 veranlasst, dass eine Audioausgabevorrichtung 51 einen Namen oder ein Merkmal des Orientierungspunktobjekts basierend auf den Umgebungsinformationen selektiv sprachlich ausgibt, bei einem durch eine Führung angegebenen Punkt.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Fahrassistenzvorrichtung und ein Fahrassistenzverfahren, welche eine Bewegung eines sich bewegenden Körpers unterstützen, durch Veranlassen einer sich mit dem bewegenden Körper bewegenden Audioausgabevorrichtung, eine Ansage eines Orientierungspunktobjekts sprachlich auszugeben.
  • Stand der Technik
  • Eine Fahrassistenzvorrichtung, welche eine Bewegung eines sich bewegenden Körpers durch ein sprachliches Ausgeben einer Ansage eines Orientierungspunktobjekts wie beispielsweise eines Orientierungspunktgebäudes für einen Fahrer unterstützt, ist bekannt. Beispielsweise beschreibt Patentdokument 1 eine Navigationsvorrichtung, welche eine Farbe oder Ähnliches einer Einrichtung für die Einrichtung (Gebäude) sprachlich ausgibt, welche ein Orientierungspunkt einer Kreuzung vor dieser Kreuzung (Führungszielpunkt) ist, bei welcher ein Fahrzeug rechts oder links abbiegen muss. Diese Navigationsvorrichtung ermöglicht es dem Fahrer hörend eine Einrichtung (Orientierungspunktobjekt) zu erkennen, welche ein Orientierungspunkt eines Führungszielpunkts ist, bevor der Fahrer an dem Führungszielpunkt ankommt.
  • Stand der Technik Dokument
  • Patentdokument
    • Patentdokument 1: japanische Patentoffenlegungsschrift Nr. 11-6743 (1999)
  • Zusammenfassung der Erfindung
  • Aufgabenstellung der Erfindung
  • Allerdings kann eine konventionelle Navigationsvorrichtung für ein Orientierungspunktobjekt, welches ein Orientierungspunkt eines Führungszielpunkts ist, nur entweder dessen Namen sprachlich ausgeben oder dessen Merkmal, wie beispielsweise eine Farbe, sprachlich ausgeben. Daher kann ein Fahrer das sprachlich angesagte Orientierungspunktobjekt in manchen Fällen nicht angemessen erkennen.
  • Wenn eine Navigationsvorrichtung versucht, sowohl einen Namen als auch ein Merkmal eines Orientierungspunktobjekts, welches ein Orientierungspunkt eines Führungszielpunkts ist, sprachlich auszugeben, muss die Navigationsvorrichtung dabei den Namen und das Merkmal des Orientierungspunktobjekts deutlich vor dem Führungszielpunkt sprachlich ausgeben. Daher hat ein Fahrer eher Schwierigkeiten beim Erkennen eines Orientierungspunktobjekts.
  • Daher wurde die vorliegende Erfindung im Lichte des obigen Problems gemacht und eine Aufgabe der vorliegenden Erfindung ist es, eine Technik bereitzustellen, welche eine Ansage eines Orientierungspunktobjekts sprachlich angemssen ausgeben kann.
  • Mittel zum Lösen der Aufgabe
  • Eine Fahrassistenzvorrichtung entsprechend der vorliegenden Erfindung ist eine Fahrassistenzvorrichtung, welche eine Bewegung eines sich bewegenden Körpers unterstützt, durch Veranlassen einer sich mit dem bewegenden Körper bewegenden Audioausgabevorrichtung, eine Ansage eines Orientierungspunktobjekts sprachlich auszugeben, und umfasst: eine Karteninformationenerfassungseinheit, welche Karteninformationen erfasst; eine Positionserfassungseinheit, welche eine Position des sich bewegenden Körpers erfasst; und eine Zielerfassungseinheit, welche ein Ziel des sich bewegenden Körpers erfasst. Weiter umfasst die Fahrassistenzvorrichtung: eine Routenerfassungseinheit, welche eine Route zu dem erfassten Ziel basierend auf den Karteninformationen, der Position des sich bewegenden Körpers und dem Ziel des sich bewegenden Körpers erfasst; eine Umgebungsinformationenerfassungseinheit, welche, zum Zeitpunkt, an dem der sich bewegende Körper bei einem durch eine Führung angegebenen Punkt ankommt, welcher zu der Route gehört und bei welchem die sprachliche Ausgabe ausgegeben wird, Umgebungsinformationen betreffend eine Umgebung eines äußeren des sich bewegenden Körpers erfasst; und eine Steuereinheit, welche die Audioausgabevorrichtung veranlasst, einen Namen oder ein Merkmal des Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf den Umgebungsinformationen an dem durch eine Führung angegebenen Punkt.
  • Effekte der Erfindung
  • Die vorliegende Erfindung veranlasst eine Audioausgabevorrichtung einen Namen oder ein Merkmal eines Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf Umgebungsinformationen bei einem durch eine Führung angegebenen Punkt. Folglich ist es möglich, eine Ansage des Orientierungspunktobjekts geeignet sprachlich auszugeben.
  • Eine Aufgabe, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden deutlicher aus der nachfolgenden detaillierten Beschreibung und den beigefügten Figuren werden.
  • Kurzbeschreibung der Figuren
  • 1 ist ein Blockdiagramm, welches ein Beispiel einer Hardwarekonfiguration einer Navigationsvorrichtung entsprechend einer ersten Ausführungsform zeigt.
  • 2 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung entsprechend der ersten Ausführungsform zeigt.
  • 3 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung entsprechend der ersten Ausführungsform zeigt.
  • 4 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung entsprechend der ersten Ausführungsform zeigt.
  • 5 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung entsprechend der ersten Ausführungsform zeigt.
  • 6 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung entsprechend der ersten Ausführungsform zeigt.
  • 7 ist ein Flussdiagramm, welches einen Betrieb einer Navigationsvorrichtung entsprechend einem modifizierten Beispiel 1 zeigt.
  • 8 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung entsprechend einem modifizierten Beispiel 2 zeigt.
  • 9 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung entsprechend dem modifizierten Beispiel 2 zeigt.
  • 10 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung entsprechend einem modifizierten Beispiel 3 zeigt.
  • 11 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung entsprechend einem modifizierten Beispiel 4 zeigt.
  • 12 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Rotationsrichtung entsprechend einem modifizierten Beispiel 5 zeigt.
  • 13 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung entsprechend einem modifizierten Beispiel 6 zeigt.
  • Beschreibung einer Ausführungsform
  • <Erste Ausführungsform>
  • Eine erste Ausführungsform der vorliegenden Erfindung wird unter Verwendung eines Beispiels beschrieben, wobei eine Fahrassistenzvorrichtung entsprechend der vorliegenden Erfindung auf eine in einem Fahrzeug angebrachte Navigationsvorrichtung angewendet wird. 1 ist ein Blockdiagramm, welches ein Beispiel einer Hardwarekonfiguration einer Navigationsvorrichtung zeigt. 2 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration der Navigationsvorrichtung zeigt. Ein Fahrzeug, bei welchem eine Navigationsvorrichtung 1, gezeigt in den 1 und 2, angebracht ist, wird als ein „Fahrzeug“ bezeichnet und nachfolgend beschrieben.
  • Zuerst wird eine Hardwarekonfiguration der Navigationsvorrichtung 1 mit Bezug zu 1 beschrieben. Die Navigationsvorrichtung 1 umfasst eine Audioausgabevorrichtung 51, eine Speichervorrichtung 52, einen GPS-(globales Positionierungssystem)Empfänger 53, einen Richtungssensor 54, eine Informationskommunikationsvorrichtung 55, eine Kamera 56, einen Helligkeitssensor 57, eine Eingabevorrichtung 58 und eine Steuereinheit 59, welche diese Komponenten integral steuert.
  • Die Audioausgabevorrichtung 51 ist eine Vorrichtung, welche beispielsweise einen Lautsprecher umfasst und welche sich mit dem Fahrzeug bewegt und eine Ansage von verschiedenen Teilen von Informationen für einen Fahrer sprachlich ausgibt.
  • Die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform berechnet einen Führungszielpunkt (beispielsweise einen Punkt, bei welchem das Fahrzeug links oder rechts abbiegen muss, einen Durchgangspunkt oder ein Ziel) auf einer Route von einer aktuellen Position zu dem Ziel. Dann bestimmt die Navigationsvorrichtung 1, ob der Führungszielpunkt ein vorbestimmtes Orientierungspunktobjekt wie beispielsweise eine Orientierungspunkteinrichtung (beispielsweise ein Gebäude benachbart zu einer Kreuzung) umfasst. Weiterhin veranlasst die Navigationsvorrichtung 1 die Audioausgabevorrichtung 51, eine Ansage des Orientierungspunktobjekts sprachlich auszugeben, wenn das Fahrzeug an einem Punkt ankommt, welcher einen vorbestimmten Abstand beabstandet von dem Führungszielpunkt ist, für welchen diese bestimmt hat, dass der Führungszielpunkt das Orientierungspunktobjekt umfasst. Somit kann die Navigationsvorrichtung 1 eine Bewegung des Fahrzeugs durch ein sprachliches Ausgeben einer Ansage des Orientierungspunktobjekts unterstützen.
  • Zusätzlich wird ein Punkt, bei welchem eine Ansage eines Orientierungspunktobjekts sprachlich ausgegeben wird, nachfolgend als ein „durch eine Führung angegebener Punkt“ bezeichnet werden. Beispielsweise wird auf den vorbestimmten Abstand zum Bestimmen, ob das Fahrzeug an dem durch eine Führung angegebenen Punkt angekommen ist oder nicht, ungefähr 500 m angewendet, wenn der Führungszielpunkt eine örtliche Straße ist, oder ungefähr 2 km wird angewendet, wenn der Führungszielpunkt eine Autobahn ist. Natürlich ist der Abstand nicht auf die als Beispiel beschriebenen Abstände beschränkt (ungefähr 500 m und ungefähr 2 km).
  • Die Speichervorrichtung 52 umfasst beispielsweise ein HDD (Festplattenlaufwerk), eine DVD (digitale versatile Disk) und eine DVD Laufwerksvorrichtung. Die Speichervorrichtung 52 erhält digitalisierte Karteninformationen 52a von außerhalb der Navigationsvorrichtung 1 vorab und speichert die Karteninformationen 52a.
  • Diesbezüglich umfassen die Karteninformationen 52a Informationen (z.B. Polygondaten) zur Anzeige einer Karte, Informationen (z.B. Daten eines Knotens, welcher zu einem Punkt auf einer Straße gehört, oder Daten einer Verbindung, welche zu einer durch einen Knoten geteilten Straße gehört) zum Berechnen einer Route und hörbare Führungsphrasen, umfassend Audiodaten die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform veranlasst die Audioausgabevorrichtung 51 eine hörbare Führungsphrase sprachlich auszugeben, welche ein Orientierungspunktobjekt betrifft, aus den hörbaren Führungsphrasen, umfasst in den Karteninformationen 52a, wenn das Fahrzeug an einem durch eine Führung angegebenen Punkt ankommt. Somit kann die Navigationsvorrichtung 1 das Orientierungspunktobjekt bei dem durch eine Führung angegebenen Punkt ansagen.
  • Weiter speichert die Speichervorrichtung 52 nicht nur die oben beschriebenen Karteninformationen 52a, sondern speichert ebenso eine Region (z.B. ein Land), erhalten durch Teilen von Bereichen auf einer Karte, und Informationen, bezeichnet als „regions/sprachverknüpfte Informationen“ nachfolgend), bei welchem die Region und eine Hauptsprache der Region verknüpft sind.
  • Der GPS-Empfänger 53 empfängt ein Signal von einem GPS-Satelliten und diktiert eine aktuelle Position des Fahrzeugs (beispielsweise eine Koordinate eines Breitengrads und einer Lebenslängengrads) basierend auf dem Signal.
  • Der Richtungssensor 54 detektiert eine Winkelgeschwindigkeit eines Gierwinkels des Fahrzeugs und detektiert eine Fahrtrichtung des Fahrzeugs basierend auf der Winkelgeschwindigkeit.
  • Die Informationsfunkkommunikationsvorrichtung 55 ist beispielsweise eine Kommunikationsvorrichtung wie beispielsweise ein Mobiltelefon oder ein Smartphone oder ein Empfänger, welcher ein Signal von einem TMC (Verkehrsnachrichtenkanal), einem VICS (Fahrzeuginformations und Kommunikationssystem) (eingetragene Handelsmarke) oder einem DSRC (zugeordneten Kurzbereich Kommunikation) empfängt. Die Informationskombinationsvorrichtung 55, welche solch ein Empfänger ist, kann verschiedene Informationselemente von einem Kommunikationsnetzwerk empfangen, umfassend eine Webseite, durch eine drahtlose Kommunikation mit einer externen Kommunikationsvorrichtung.
  • Die Kamera 56 nimmt ein Bild einer Situation vor dem Fahrzeug auf und erzeugt das die Situation zeigende Bild.
  • Der Helligkeitssensor 57 ist ein Sensor, welcher eine Helligkeit (eine Bildhelligkeit) eines Äußeren des Fahrzeugs erfasst. Zusätzlich können, wenn die durch den Helligkeitssensor 57 detektiert Helligkeit gleich einem vorbestimmten Schwellenwert oder weniger wird (wenn beispielsweise die Sonne untergeht), die Scheinwerfer des Fahrzeugs automatisch eingeschaltet werden.
  • Die Eingabevorrichtung 58 umfasst beispielsweise eine Druckknopfvorrichtung oder ein Touch Panel und empfängt eine Eingabe eines Anwenders von verschiedenen Teilen von Informationen (z.B. ein Ziel) zum Betreiben der Navigationsvorrichtung 1.
  • Die Steuereinheit 54 ist eine Einheit, welche die Gesamtheit der Navigationsvorrichtung 1 steuert und verschiedene Berechnungen ausführt und eine CPU (Zentrale Prozesseinheit) 60, eine ROM (Nur Lesespeicher) 61, einen RAM (einen Arbeitsspeicher) 62 oder ein I/O (Eingabeausgabevorrichtung) 63 umfasst. In dem ROM 61 werden Programmkonstanten gespeichert, welche in einem Prozess eines Betriebs (einer Verarbeitung) des CPUs 60 verwendet werden. In dem RAM 62 werden ein Speicherbereich vorbereitet, in welchem ein Programm oder Kartendaten optional in einem Prozess des Betriebs (Verarbeitung) der CPUs 60 ausgedehnt werden, und ein Speicherbereich, bei welchem ein Berechnungsergebnis optional gelesen und geschrieben wird.
  • Eine für hörbare Führungsphrasen verwendete Sprache wird vorab in der Navigationsvorrichtung 1 durch beispielsweise den Fahrer eingestellt. In dem ROM 61 oder dem RAM 62 wird die Sprache (bezeichnet nachfolgend als „eingestellte Sprache“), welche in der Navigationsvorrichtung 1 eingestellt ist, gespeichert. Für die eingestellte Sprache wird beispielsweise eine Muttersprache des Fahrers oder eine Sprache wie beispielsweise Englisch, welche in der Welt weithin verwendet wird, verwendet.
  • Die I/O 63 ist eine Schnittstelle, welche verschiedene Teile von Informationen zwischen der Steuereinheit 59 und Komponenten (der Audioausgabevorrichtung 51 bis zu der Eingabevorrichtung 58) mit Ausnahme der Steuereinheit 59 überträgt und empfängt. Weiterhin ist die I/O 63 die Schnittstelle, welche Fahrzeuginformationen (z.B. Informationen, welche einen Steuerzustand eines Scheibenwischers angeben) aus den Komponenten des Fahrzeugs mit Ausnahme der Navigationsvorrichtung 1 erhält.
  • Die CPU 60 führt ein Programm aus, welches in dem ROM 61 bestimmt ist, und führt eine Berechnung basierend auf den in dem ROM 61 und dem RAM 62 gespeicherten Informationen und den durch die I/O 63 erhaltenen Informationen aus. Somit wird eine Funktion zum Berechnen einer Route und eine Funktion zum Bestimmen und identifizieren einer Helligkeit durch die CPU 60 realisiert.
  • Als Nächstes wird eine funktionale Konfiguration, welche durch die oben beschriebene Hardwarekonfiguration realisiert ist, das heißt die funktionelle Konfiguration der Navigationsvorrichtung 1, mit Bezug zu 2 beschrieben.
  • Eine hörbare Führungseinheit 11 unterstützt die oben beschriebene Audioausgabevorrichtung 51 und gibt eine Ansage eines Orientierungspunktobjekts sprachlich aus.
  • Ein Karteninformationsspeicher 12 (karteninformations-Erfassungseinheit) unterstützt die oben beschriebene Speichervorrichtung 52, erfasst die Karteninformationen 52a vorab von außerhalb der Navigationsvorrichtung 1 und speichert die Karteninformationen 52a.
  • Ein aktueller Positionsdetektor 13 (Positionserfassungseinheit) unterstützt den oben beschriebenen GPS-Empfänger 53 und Richtungssensor 54 und detektiert eine aktuelle Position des Fahrzeugs. Diesbezüglich korrigiert der aktuelle Positionsdetektor 13 die aktuelle Position des Fahrzeugs, welche durch den GPS-Empfänger 53 detektiert ist, basierend auf der durch den Richtungssensor 54 detektierten Richtung und die Steuereinheit 16 verwendet die korrigierte aktuelle Position des Fahrzeugs.
  • Eine Eingabeeinheit 14 (Zielerfassungseinheit) unterstützt die oben beschriebene Eingabevorrichtung 58 und empfängt eine Einstellung, (Eingabe) eines Anwenders eines Ziels des Fahrzeugs.
  • Eine Umgebungsinformationserfassungseinheit 15 erfasst eine Umgebungsinformation, welche eine Umgebung außerhalb des Fahrzeugs betrifft. Diesbezüglich umfasst die Umgebungsinformationserfassungseinheit 15 eine Helligkeitserfassungseinheit 15a, eine Informationskommunikationserfassungseinheit 15b, eine Fahrzeugfrontbilderfassungseinheit 15c oder eine Spracherfassungseinheit 15d.
  • Die Helligkeitserfassungseinheit 15a unterstützt den oben beschriebenen Helligkeitssensor 57 und erfasst eine Helligkeit außerhalb des Fahrzeugs.
  • Die Informationskommunikationserfassungseinheit 15b unterstützt die oben beschriebene Informationskombinationsvorrichtung 55 und erfasst Informationen (bezeichnet nachfolgend als „Wetterinformationen“), welche ein Wetter außerhalb des Fahrzeugs oder verschiedene Teile von Informationen durch eine Kommunikation angeben.
  • Die Fahrzeugfrontbilderfassungseinheit 15c unterstützt die oben beschriebene Kamera 56 und erfasst ein Bild, welches eine Situation vor dem Fahrzeug zeigt. Zusätzlich, wie nachfolgend beschrieben, wird das durch die Fahrzeugfrontbilderfassungseinheit 15c erhaltene Bild als eine Information zum Identifizieren verwendet, ob es ein visuelles Hindernis (ein visuelles Hindernis zwischen dem Fahrzeug und einem Orientierungspunktobjekt) vor dem Fahrzeug gibt oder nicht.
  • Die Spracherfassungseinheit 15b unterstützt die oben beschriebene Speichervorrichtung 52, den GPS-Empfänger 53 und die Steuereinheit 59. Die Spracherfassungseinheit 15b ruft eine Region ab, welche zu einer aktuellen Position des Fahrzeugs gehört, welche durch den GPS-Empfänger 53 detektiert ist, aus den oben beschriebenen Region/sprachverknüpften Informationen ab, welche in der Speichervorrichtung 52 gespeichert sind und erfasst eine Hauptsprache in der Region. Eine Hauptsprache einer Region, welche zu einer aktuellen Position des Fahrzeugs gehört, das heißt eine Hauptsprache des Bereichs, in welchem das Fahrzeug positioniert ist, wird nachfolgend als eine „regionale Hauptsprache“ bezeichnet. Zusätzlich, wie nachfolgend beschrieben, ist die regionale Hauptsprache, welche durch die Spracherfassungseinheit 15d erhalten ist, ein Ziel, für welches festgestellt wird, ob oder ob nicht das Ziel mit der oben beschriebenen eingestellten Sprache (der in dem ROM 61 oder dem RAM 62 gespeicherten Sprache) übereinstimmt.
  • Die Umgebungsinformationserfassungseinheit 15, umfassend die obigen Komponenten (die Helligkeitserfassungseinheit 15a bis zu der Sprachenerfassungseinheit 15d), erfasst die Helligkeit außerhalb des Fahrzeugs, Wetterinformationen außerhalb des Fahrzeugs, das Bild, welches die Situation vor dem Fahrzeug zeigt, oder die regionale Hauptsprache als Umgebungsinformationen.
  • Eine Steuereinheit 16 unterstützt die oben beschriebene Steuereinheit 59, realisiert die Funktion zum Berechnen einer Route und die Funktion zum Bestimmen und identifizieren einer Helligkeit und empfängt eine Eingabe von Fahrzeuginformationen. Diesbezüglich realisiert die Steuereinheit 16 eine Funktion einer Routenberechnungseinheit 16a (Routenerfassungseinheit), eines Routenspeichers 16b, einer Helligkeitsidentifizierungseinheit 16c, einer Wetteridentifizierungseinheit 16d, einer Fahrzeugfrontinformationsidentifizierungseinheit 16e, einer Sprachenidentifizierungseinheit 16f oder einer hörbar Führungsphrase-Auswahleinheit 16g.
  • Die Routenberechnungseinheit 16a berechnet eine Route von einer aktuellen Position zu einem Ziel basierend auf den Karteninformationen 52a, wobei die aktuelle Position des Fahrzeugs durch den aktuellen Positionsdetektor 13 detektiert ist und das Ziel durch die Eingabeeinheit 14 empfangen ist.
  • Der Rutenspeicher 16b unterstützt den oben beschriebenen RAM 62 und speichert optional eine durch die Routenberechnungseinheit 16a berechnete Route.
  • Die Helligkeitsidentifizierungseinheit 16c identifiziert, ob die Helligkeit unzureichend für eine Fahrt ist oder nicht. Diesbezüglich identifiziert die Helligkeitsidentifizierungseinheit 16c, dass das Äußere des Fahrzeugs dunkel ist (die Helligkeit unzureichend ist), wenn die durch die Helligkeitserfassungseinheit 15a erfasste Helligkeit ein vorbestimmter Schwellenwert oder weniger ist, und identifiziert, dass das Äußere des Fahrzeugs hell ist (die Helligkeit ausreichend ist), wenn die durch die Helligkeitserfassungseinheit 15a erfasste Helligkeit höher als der vorbestimmte Schwellenwert ist.
  • Die Wetteridentifizierungseinheit 16d entnimmt Wetterinformationen aus den durch die Informationskommunikationserfassungseinheit 15b empfangenen Informationen und identifiziert, ob die Wetterinformationen ein vorbestimmtes Wetter angeben oder nicht. Zusätzlich werden auf das vorbestimmte Wetter wie beispielsweise ein heftiger Regen, ein dichter Nebel und ein Nebel, welcher eine Sicht eines Fahrers schlecht macht, angewendet.
  • Die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifiziert, ob es ein visuelles Hindernis vor dem Fahrzeug gibt, durch analysieren des Bilds, welches durch die Fahrzeugfrontbilderfassungseinheit 15c erhalten ist und die Situation vor dem Fahrzeug zeigt. Beispielsweise werden in der Fahrzeugfrontinformationsidentifizierungseinheit 16e Hindernisdaten (Polygondaten oder Bilddaten, welche einen Weg, einen Bus oder ein baustellenangebendes Zeichen angegeben), welche ein visuelles Hindernis angeben, vorab vorbereitet. Weiter identifiziert die Fahrzeugfrontinformationsidentifizierung seit 16e, dass es ein visuelles Hindernis vor dem Fahrzeug gibt, wenn es ein visuelles Hindernis gibt, welches durch vorab vorbereitete Hindernisdaten in dem Bild angibt, welches durch die Fahrzeugfrontbilderfassungseinheit 15c erfasst ist und die Situation vor dem Fahrzeug zeigt, und wenn ein Bereich, welchen das visuelle Hindernis in dem Bild belegt, ein vorbestimmter Schwellenwert oder mehr ist. Die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifiziert, dass es kein visuelles Hindernis andernfalls gibt, das heißt, wenn es kein visuelles Hindernis gibt, welches durch die vorab vorbereiteten Hindernisdaten angegeben wird, oder wenn ein Bereich, welchen das visuelle Hindernis in dem Bild belegt, geringer als ein vorbestimmter Schwellenwert ist. Diesbezüglich, dass die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifiziert, ob es ein visuelles Hindernis vor dem Fahrzeug gibt oder nicht, ist nicht auf die obige Konfiguration beschränkt. Wenn beispielsweise ein Hindernis vor dem Fahrzeug durch Verwenden eines Radars detektiert wird, kann die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifizieren, dass es ein visuelles Hindernis vor dem Fahrzeug gibt.
  • Die Sprachenidentifizierungseinheit 16f identifiziert, ob die regionale Hauptsprache, welche durch die Spracherfassungseinheit 15d erfasst ist, mit der obigen eingestellten Sprache (der in dem ROM 61 oder dem RAM 62 gespeicherten Sprache) übereinstimmt (nicht übereinstimmt) oder nicht.
  • Die Hörbare-Führungsphrasenauswahleinheit 16g wählt eine hörbare Führungsphrase aus den Karteninformationen 52a basierend auf einem Identifikationsergebnis der Helligkeitsidentifizierungseinheit 16c, der Wetteridentifizierungseinheit 16d, der Fahrzeugfrontinformationsidentifizierungseinheit 16e und der Sprachenidentifizierungseinheit 16f aus.
  • Diesbezüglich umfasst die hörbare Führungsphrase Audiodaten, welche einen Namen (z.B. einen richtiges Substantiv) eines Orientierungspunktobjekts angibt, und Audiodaten, welche ein Merkmal des Orientierungspunktobjekts (z.B. äußere Aussehens Informationen wie beispielsweise eine Farbe, eine Höhe und eine Form und Attributs Informationen wie beispielsweise ein Buchgeschäft oder ein Blumengeschäft) angegeben. Weiter wählt die hörbare Führungsphasenauswahleinheit 16g eine der hörbaren Führungsphrasen dessen Namens und der hörbaren Führungsphrase des Merkmals des Orientierungspunktobjekts basierend auf einem Identifikationsergebnis der Helligkeitsidentifizierungseinheit 16c zu der Sprachenidentifizierungseinheit 16f aus und veranlasst die Audioausgabevorrichtung 51 die ausgewählte hörbare Führungsphrase bei einem durch eine Führung angegebenen Punkt sprachlich auszugeben.
  • Zusätzlich in der ersten Ausführungsform, wie oben beschrieben, sagt die Hörbare-Führungsphrasenauswahleinheit 16g ein Orientierungspunktobjekt an durch Auswählen einer hörbaren Führungsphrase, umfassen die Audiodaten, umfasst in den Karteninformationen 52a, und durch Veranlassen der hörbaren Führungseinheit 11, dass die Audioausgabevorrichtung 51 ist, die ausgewählte hörbare Führungsphrase sprachlich auszugeben. Indessen ist jede hörbare Führungsphrase nicht auf eine Audiodaten umfassende hörbare Führungsphrase beschränkt und kann Textdaten und TTS (Text zu Sprache) Phonem Daten umfassen, welche in Audiodaten aus Textdaten umgewandelt werden können. Das heißt, die Hörbare-Führungsphrasenauswahleinheit 16g kann ein Orientierungspunktobjekt durch Auswählen von Textdaten und TTS Phoneme Daten, umfasst in den Karteninformationen 52a, und durch Veranlassen einer TTS Engine, welche die Audioausgabevorrichtung 51 ist welche an der hörbaren Führungseinheit 11 angebracht ist zum sprachlichen Ausgeben der ausgewählten Textdaten und der TTS Phoneme Daten, Ansagen.
  • Entsprechend der obigen Konfiguration kann die Steuereinheit 16 die Audioausgabevorrichtung 51 veranlassen zum selektiven sprachlichen Ausgeben des Namens oder des Merkmals des Orientierungspunktobjekts bei dem durch eine Führung angegebenen Punkt, basierend auf den durch die Umgebungsinformationserfassungseinheit 15 erfassten Umgebungsinformationen.
  • <Betrieb betreffend eine Helligkeit eines Äußeren des Fahrzeugs>
  • 3 ist ein Flussdiagramm, welches einen Betrieb betreffend eine Helligkeit der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform zeigt. Der Betrieb betreffend die Helligkeit der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform wird mit Bezug zu 3 nachfolgend beschrieben.
  • Als erstes detektiert in Schritt S1 der aktuelle Positionsdetektor 13 eine aktuelle Position des Fahrzeugs und die Eingabeeinheit 14 empfängt das Ziel des Fahrzeugs. Weiter berechnet die Routenberechnungseinheit 16a eine Route von einer aktuellen Position zu einem Ziel basierend auf den Karteninformationen 52a, der aktuellen Position des Fahrzeugs und dem Ziel. Dann berechnet die Steuereinheit 16 einen Führungszielpunkt basierend auf der berechneten Route (nachfolgend bezeichnet als „berechnete Route“) und den Karteninformationen 52a. Es wird angenommen, dass der Fahrer das Fahrzeug nach Schritt S1 fährt
  • In Schritt S2 detektiert der aktuelle Positionsdetektor 13 die aktuelle Position des Fahrzeugs.
  • In Schritt S3 bestimmt die Steuereinheit 16, ob die in Schritt S2 detektierte aktuelle Position des Fahrzeugs ein durch eine Führung angegebener Punkt eines Führungszielpunkts ist, welcher nicht das Orientierungspunktobjekt umfasst (der durch eine Führung angegebene Punkt gehört zu der berechneten Route). Diesbezüglich, wenn ein Abstand zwischen der aktuellen Position des Fahrzeugs und dem Führungszielpunkt, welcher nicht das Orientierungspunktobjekt umfasst, der oben beschriebene vorbestimmte Abstand oder weniger ist, bestimmt die Steuereinheit 16, dass die aktuelle Position des Fahrzeugs der durch eine Führung angegebene Punkt des Führungszielpunkts ist, welcher nicht das Orientierungspunktobjekt umfasst, und der Fluss geht weiter zu Schritt S4. Falls dies nicht der Fall ist, geht der Fluss weiter mit Schritt S5.
  • Wenn der Fluss von Schritt S3 zu Schritt S4 geht, veranlasst in Schritt S4 die Steuereinheit 16 die Audioausgabevorrichtung 51 Führungsinformationen des Führungszielpunkts sprachlich auszugeben (beispielsweise Informationen wie eine Richtung zu fahren von dem Führungszielpunkt oder einem Straßennamen). Nachfolgend kehrt der Fluss zurück zu Schritt S2.
  • Wenn der Fluss von Schritt S3 zu Schritt S5 geht bestimmt in Schritt S5 die Steuereinheit 16, ob die in Schritt S2 detektiert der aktuelle Position des Fahrzeugs ein führungsebener Punkt eines Führungszielpunkts ist, welcher das Orientierungspunktobjekt umfasst (der durch eine Führung angegebene Punkt gehört zu der berechneten Route). Diesbezüglich, wenn ein Abstand zwischen der aktuellen Position des Fahrzeugs und dem Führungszielpunkt, welcher das Orientierungspunktobjekt umfasst, der oben beschriebene vorbestimmte Abstand oder weniger ist, bestimmt die Steuereinheit 16, dass die aktuelle Position des Fahrzeugs der durch eine Führung angegebene Punkt des Führungszielpunkts ist, welcher das Orientierungspunktobjekt umfasst, und der Fluss geht zu Schritt S6. Falls dies nicht der Fall ist, kehrt der Fluss zurück zu Schritt S2.
  • In Schritt S6 erfass die Helligkeitserfassungseinheit 15a eine Helligkeit außerhalb des Fahrzeugs. Das heißt die Umgebungsinformationserfassungseinheit 15 erfasst die Helligkeit außerhalb des Fahrzeugs als Umgebungsinformation.
  • In Schritt S7 identifiziert die Helligkeitsidentifikationseinheit 16c (Steuereinheit 16), ob die Helligkeit, welche durch die Helligkeitserfassungseinheit 15a erfasst ist unzureichend für eine Fahrt ist oder nicht. Der Fluss geht zu Schritt S8, wenn die Helligkeitsidentifizierungseinheit 16c identifiziert, dass die Helligkeit unzureichend ist (die durch die Helligkeitserfassungseinheit 15a erfasste Helligkeit gleich dem vorbestimmten Schwellenwert oder weniger ist), und der Fluss geht zu Schritt S9, wenn die Helligkeitsidentifizierungseinheit 16c identifiziert, dass die Helligkeit ausreichend ist (die durch die Helligkeitserfassungseinheit 15a erfasste Helligkeit höher als der vorbestimmte Schwellenwert ist).
  • Zusätzlich, wenn der in dem Schritt S7 verwendete Schwellenwert auf denselben Wert wie der Schwellenwert zum automatischen einschalten oder ausschalten der Frontscheinwerfer eingestellt ist, falls der Fluss sich von Schritt S7 zu Schritt S8 bewegt, werden die Frontscheinwerfer automatisch eingeschaltet und, falls der Fluss von Schritt S7 zu Schritt S9 geht, werden die Frontscheinwerfer automatisch ausgeschaltet.
  • In Schritt S8 veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51 den Namen des Orientierungspunktobjekts sprachlich auszugeben. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen Führungsinformationen des Führungszielpunkts ähnlich zu Schritt S4 sprachlich auszugeben. Folglich geht der Fluss zu Schritt S10.
  • In Schritt S9 veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51, ein Merkmal (z.B. eine Farbe) des Orientierungspunktobjekts sprachlich auszugeben. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen, Führungsinformationen des Führungszielpunkts ähnlich zu Schritt S4 sprachlich auszugeben. Nachfolgend geht der Fluss zu Schritt S10.
  • In Schritt S10 bestimmt die Steuereinheit 16, ob die in Schritt S2 detektierte aktuelle Position des Fahrzeugs ein Ziel ist. Der in 3 gezeigte Betrieb wird beendet, wenn die Steuereinheit 16 bestimmt, dass die aktuelle Position das Ziel ist, und der Fluss kehrt zu Schritt S2 zurück, wenn die Steuereinheit 16 bestimmt, dass die aktuelle Position nicht das Ziel ist.
  • <Effekt>
  • Beispielsweise bei Tageslicht, während die Helligkeit außerhalb des Fahrzeugs hoch ist, kann der Fahrer das Orientierungspunktobjekt einfach durch visuelles überprüften des Merkmals (z.B. Farbe) des Orientierungspunktobjekts erkennen. Indessen zur Mitternacht, während die Helligkeit außerhalb des Fahrzeugs gering ist, hat der Fahrer Schwierigkeiten bei einem visuellen Überprüfen des Merkmals (z.B. Farbe) des Orientierungspunktobjekts. Allerdings, wenn ein Orientierungspunktobjekt ein Gebäude ist, ist es sehr wahrscheinlich, dass einen Namen des Gebäudes angebende Zeichen und ein Bezeichnungsschild des Gebäudes beleuchtet sind bei Mitternacht. Daher wird angenommen, dass der Fahrer das Orientierungspunktobjekt basierend auf dessen Namen als einen Hinweis erkennen kann.
  • Somit veranlasst die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform die Audioausgabevorrichtung 51 den Namen oder das Merkmal des Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf der durch die Helligkeitserfassungseinheit 15a erfassten Helligkeit (den durch die Umgebungsinformationserfassungseinheit 15 erfassten Umgebungsinformationen). Die Navigationsvorrichtung 1 gibt das Merkmal (z.B. Farbe) des Orientierungspunktobjekts sprachlich aus, wenn z.B. die Helligkeit außerhalb des Fahrzeugs hoch ist, und gibt den Namen des Orientierungspunktobjekts sprachlich aus, wenn die Helligkeit außerhalb des Fahrzeugs gering ist. Das heißt, es ist möglich das Orientierungspunktobjekt geeignet sprachlich auszugeben, sodass der Fahrer das Orientierungspunktobjekt, welches sprachlich ausgegeben ist, erkennen kann.
  • Zusätzlich entsprechend der oben beschriebenen Konfiguration, wenn das Fahrzeug bei einem durch eine Führung angegebenen Punkt ankommt (Schritt S5), wird die durch die Helligkeitserfassungseinheit 15a erfasste Helligkeit (Schritt S6) in dem Schritt S7 nachfolgenden Schritt verwendet. Allerdings ist die Erfindung nicht darauf beschränkt. Die durch die Helligkeitserfassungseinheit 15a zu einem Zeitpunkt erfasste Helligkeit, wenn das Fahrzeug bei einem durch eine Führung angegebenen Punkt ankommt (bevor das Fahrzeug an dem durch eine Führung angegebenen Punkt ankommt oder wenn das Fahrzeug an dem durch eine Führung angegebenen Punkt ankommt), muss lediglich in dem Schritt S7 nachfolgenden Schritt verwendet werden. Beispielsweise kann die Helligkeitserfassungseinheit 15a ausgebildet sein zum wiederholten erfassen und aktualisieren einer Helligkeit bevor das Fahrzeug bei einem durch eine Führung angegebenen Punkt ankommt (vor Schritt S5), und die erfasste Helligkeit zu verwenden, wenn das Fahrzeug an dem durch eine Führung angegebenen Punkt in dem Schritt S7 nachfolgenden Schritt ankommt.
  • Weiter wurde oben eine Konfiguration zum Anwenden der durch den Helligkeitssensor 57 detektierten Helligkeit auf die Umgebungsinformationen beschrieben. Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Beispielsweise anstelle der oben beschriebenen Helligkeit kann ein Zustand, wobei die durch eine manuelle Bedienung des Fahrers geschalteten Frontscheinwerfer ein oder ausgeschaltet werden, konfiguriert sein, um auf Umgebungsinformationen angewendet zu werden. Entsprechend dieser Konfiguration ist der Helligkeitssensor 57 nicht unabdingbar.
  • <Betrieb betreffend Wetterinformationen eines Äußeren des Fahrzeugs>
  • 4 ist ein Flussdiagramm, welches einen Betrieb betreffend Wetterinformationen der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform zeigt. Der Betrieb betreffend die Wetterinformationen der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform wird nachfolgend mit Bezug zu 4 beschrieben. Zusätzlich ist das in 4 gezeigte Flussdiagramm, bei welchem Schritte S6 und S7 des in 3 gezeigten Flussdiagramms zu den Schritten S6a und S7a geändert sind. Somit werden nur die Schritte S6a und S7a nachfolgend beschrieben.
  • In Schritt S6a erfasst die Informationskommunikationserfassungseinheit 15b Wetterinformationen außerhalb des Fahrzeugs. Das heißt, die Umgebungsinformationserfassungseinheit 15 erfasst die Wetterinformationen außerhalb des Fahrzeugs als Umgebungsinformationen.
  • In Schritt S7a identifiziert die Wetteridentifizierungseinheit 16d (Steuereinheit 16) ob die Wetterinformationen, erhalten durch die Informationspublikationserfassungseinheit 15b ein vorbestimmtes Wetter angeben oder nicht, das heißt ein Wetter, welches eine Sicht schlecht macht. Der Fluss geht zu Schritt S8, wenn die Wetteridentifizierungseinheit 16d identifiziert, dass die Wetterinformationen das Wetter angeben, welches die Sicht schlecht macht, und geht zu Schritt S9, wenn die Wetterinformationen dieses Wetter nicht angeben.
  • <Effekt>
  • An beispielsweise einem schönen Tag, während welchem die Sicht nicht schlecht wird, kann der Fahrer das Orientierungspunktobjekt durch visuelles überprüfen des Merkmals (z.B. Farbe) des Orientierungspunktobjekts erkennen. Indessen, während heftigem Regen, was die Sicht schlecht macht, kann der Fahrer nur ein partielles Merkmal eines Orientierungspunktobjekts erkennen. Im Ergebnis erkennt der Fahrer fälschlicherweise als das Orientierungspunktobjekt ein anderes Gebäude, welches das partielle Merkmal aufweist. Allerdings im Fall von heftigem Regen, da der Fahrer vorab über einen Namen wie beispielsweise ein geeignetes Substantiv eines Orientierungspunktobjekts benachrichtigt ist, kann der Fahrer ein Gesamtbild des Orientierungspunktobjekts abrufen und folglich die obige fälschliche Erkennung vermeiden.
  • Somit veranlasst die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform die Audioausgabevorrichtung 51 den Namen oder das Merkmal des Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf den durch die Informationskommunikationserfassungseinheit 15b erfassten Wetterinformationen (den Umgebungsinformation, erhalten durch die Umgebungsinformationserfassungseinheit 15). Die Navigationsvorrichtung 1 gibt ein Merkmal (z.B. Farbe) eines Orientierungspunktobjekts sprachlich aus, wenn beispielsweise ein Wetter außerhalb des Fahrzeugs ein Wetter ist, welches die Sicht nicht schlecht macht, und gibt einen Namen des Orientierungspunktobjekts sprachlich aus, wenn das Wetter außerhalb des Fahrzeugs ein Wetter ist, welches die Sicht schlecht macht. Das heißt es ist möglich das Orientierungspunktobjekt geeignet sprachlich auszugeben, sodass der Fahrer das Orientierungspunktobjekt, welches sprachlich ausgegeben ist, richtig erkennen kann.
  • Zusätzlich entsprechend der oben beschriebenen Konfiguration, wenn das Fahrzeug bei einem durch eine Führung angegebenen Punkt ankommt (Schritt S5), werden die durch die Informationskommunikationserfassungseinheit 15b erfassten Wetterinformationen (Schritt S6a) in einem dem Schritt S7a nachfolgenden Schritt verwendet. Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Die durch die Informationskommunikationserfassungseinheit 15b zu dem Zeitpunkt erfassten Wetterinformationen, wenn das Fahrzeug bei einem durch eine Führung angegebenen Punkt ankommt (bevor das Fahrzeug bei den durch eine Führung angegebenen Punkt ankommt oder wenn das Fahrzeug bei den durch eine Führung angegebenen Punkt ankommt), müssen lediglich in dem dem Schritt S7a nachfolgenden Schritt verwendet werden. Beispielsweise kann die Informationskommunikationserfassungseinheit 15b ausgebildet sein Wetterinformationen wiederholt zu erfassen und zu aktualisieren, bevor das Fahrzeug bei einem durch eine Führung angegebenen Punkt beispielsweise zu einem Zeitpunkt einer Aktivierung ankommt (vor Schritt S5) und die erhaltenen Wetterinformationen zu verwenden, wenn das Fahrzeug an dem durch eine Führung angegebenen Punkt in dem Schritt S7a nachfolgenden Schritt ankommt.
  • Weiter wurde eine Konfiguration zum Anwenden der durch die Informationskommunikationsvorrichtung 55 empfangenen Wetterinformationen auf die Umgebungsinformationen oben beschrieben. Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Anstelle der oben beschriebenen Wetterinformationen kann beispielsweise das durch die Kamera 56 erzeugte Bild oder ein Steuerzustand eines Scheibenwischers konfiguriert sein, um auf die Umgebungsinformationen angewendet zu werden. Insbesondere kann die Navigationsvorrichtung 1 einen Namen eines Orientierungspunktobjekts sprachlich ausgeben für den Fall eines Zustands, bei welchem der Scheibenwischer betrieben wird, und ein Merkmal (z.B. Farbe) des Orientierungspunktobjekts sprachlich ausgeben für einen Fall eines Steuerzustands, bei welchem der Scheibenwischer nicht betrieben wird. Entsprechend dieser Konfiguration ist die Informationskommunikationsvorrichtung 55 nicht unabdingbar.
  • <Betrieb betreffend ein Bild, zeigend eine Situation vor einem Fahrzeug>
  • 5 ist ein Flussdiagramm, welches einen Betrieb betreffend einem Bild zeigt, welches eine Situation vor dem Fahrzeug der Navigationsvorrichtung 1 zeigt, entsprechend der ersten Ausführungsform. Der Betrieb betreffend dem Bild, zeigend die Situation vor dem Fahrzeug der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform, wird nachfolgend mit Bezug zu 5 beschrieben. Zusätzlich ist das in 5 gezeigte Flussdiagramm ein Flussdiagramm, bei welchem die Schritte S6 bis S9 des in 3 gezeigten Flussdiagramms zu den Schritten S6b bis S9b geändert sind. Somit werden nur die Schritte S6b bis S9b nachfolgend beschrieben.
  • In Schritt S6b erfasst die Fahrzeugfrontbilderfassungseinheit 15c ein Bild, welches die Situation vor dem Fahrzeug zeigt. Das heißt die Umgebungsinformationserfassungseinheit 15 erfasst das Bild, welches die Situation vor dem Fahrzeug zeigt, als Umgebungsinformation.
  • In Schritt S7b identifiziert die Fahrzeugfrontinformationsidentifizierungseinheit 16e (Steuereinheit 16), ob es ein visuelles Hindernis vor dem Fahrzeug gibt, durch analysieren des durch die Fahrzeugfrontbilderfassungseinheit 15c erfassten Bildes und zeigt die Situation vor dem Fahrzeug an. Der Fluss geht zu Schritt S8b, wenn die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifiziert, dass es dieses visuelle Hindernis gibt, und geht zu Schritt S9b, wenn die Fahrzeugfrontinformationsidentifizierungseinheit 16e identifiziert, dass es dieses visuelle Hindernis nicht gibt.
  • Im Schritt S8b veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51 ein Merkmal (z.B. Höhe) des Orientierungspunktobjekts sprachlich auszugeben. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen Führungsinformationen des Führungszielpunkts sprachlich auszugeben. Nachfolgend geht der Fluss zu Schritt S10.
  • In Schritt S9b veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51 den Namen des Orientierungspunktobjekts sprachlich auszugeben. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen Führungsinformationen des Führungszielpunkts sprachlich auszugeben. Nachfolgend geht der Fluss zu Schritt S10.
  • <Effekt>
  • Es ist gedacht, wenn beispielsweise es ein visuelles Hindernis vor dem Fahrzeug gibt, selbst falls ein Name eines Orientierungspunktobjekts sprachlich ausgegeben wird, hat der Fahrer Schwierigkeiten bei einem visuellen Überprüfen des Namens. Allerdings ist es gedacht, dass, selbst wenn es ein visuelles Hindernis gibt, falls das Orientierungspunktobjekt hoch ist, vorab bekannt ist, der Fahrer das Orientierungspunktobjekt durch Verwenden eines Hinweises eines oberen Teils des Orientierungspunktobjekts, welches aus einem Umriss des visuellen Hindernisses erscheint, erkennen kann.
  • Somit veranlasst die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform die Audioausgabevorrichtung 51 den Namen oder das Merkmal des Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf dem durch die Fahrzeugfrontbilderfassungseinheit 15c erfassten Bildes und zeigt eine Situation vor dem Fahrzeug (die durch die Umgebungsinformationserfassungeinheit 15 erfassten Umgebungsinformation). Beispielsweise gibt die Navigationsvorrichtung 1 das Merkmal (z.B. Höhe) des Orientierungspunktobjekts sprachlich aus, wenn es beispielsweise ein visuelles Hindernis vor dem Fahrzeug gibt, und gibt den Namen des Orientierungspunktobjekts sprachlich aus, wenn es kein visuelles Hindernis vor dem Fahrzeug gibt. Das heißt es ist möglich das Orientierungspunktobjekt geeignet sprachlich auszugeben, sodass der Fahrer das Orientierungspunktobjekt, welches sprachlich ausgegeben ist, schnell erkennen kann.
  • Zusätzlich zu der oben beschriebenen Konfiguration anstelle eines Veranlassens der Audioausgabevorrichtung 51 zum sprachlichen Ausgeben eines Merkmals eines Orientierungspunktobjekts, kann die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen ein Merkmal einer Einrichtung in der Nähe des Orientierungspunktobjekts oder einen Punkt (beispielsweise ein zu einer diesseitigen Seite des Orientierungspunktobjekt benachbartes Gebäude oder einen großen zu einer jenseitigen Seite des Orientierungspunktobjekts benachbarten großen Parks) sprachlich auszugeben. Entsprechend dieser Konfiguration kann der Fahrer das Orientierungspunktobjekt, welches sprachlich ausgegeben ist, schnell erkennen.
  • <Betrieb betreffend regionalen Hauptsprache>
  • 6 ist ein Flussdiagramm, welches einen Betrieb betreffend eine regionale Hauptsprache der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform zeigt. Der Betrieb betreffend der regionalen Hauptsprache der Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform wird nachfolgend mit Bezug zu 6 beschrieben. Zusätzlich ist das in 6 gezeigte Flussdiagramm ein Flussdiagramm, bei welchem die Schritte S6 bis S9 des in 3 gezeigten Flussdiagramms durch die Schritte S6c bis S9c geändert sind. Somit werden nur die Schritte S6c bis S9c nachfolgend beschrieben
  • In Schritt S6c erfasst die Sprachenerfassungseinheit 15d die oben beschriebene regionale Hauptsprache (eine Sprache, welche hauptsächlich in einem Gebiet verwendet wird, welches zu der aktuellen Position des Fahrzeugs gehört). Das heißt die Umgebungsinformationserfassungseinheit 15 erfasst die regionale Hauptsprache als eine Umgebungsinformation.
  • In Schritt S7c identifiziert die Sprachidentifizierungseinheit 16f (Steuereinheit 16) ob die regionale Hauptsprache, welche durch die Spracherfassungseinheit 15d erfasst ist, nicht mit der oben beschriebenen eingestellten Sprache (die in dem ROM 61 oder dem RAM 62 gespeicherte Sprache) übereinstimmt. Der Fluss geht zu Schritt S8c, wenn die Sprachidentifizierungseinheit 16f identifiziert, dass die regionale Hauptsprache nicht mit der oben beschriebenen eingestellten Sprache übereinstimmt, und geht zu Schritt S9c, wenn die regionale Hauptsprache mit der oben beschriebenen eingestellten Sprache übereinstimmt.
  • In Schritt S8c veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51 ein Merkmal (z.B. Farbe) des Orientierungspunktobjekts sprachlich auszugeben, durch Verwenden der eingestellten Sprache. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen Führungsinformationen des Führungszielpunkts sprachlich auszugeben. Nachfolgend geht der Fluss zu Schritt S10.
  • In Schritt S9c veranlasst die Steuereinheit 16 die Audioausgabevorrichtung 51 den Namen des Orientierungspunktobjekts sprachlich auszugeben. Zusätzlich kann in diesem Fall die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen Führungsinformationen des Führungszielpunkts sprachlich auszugeben. Nachfolgend geht der Fluss zu Schritt S10.
  • <Effekt>
  • Es ist gedacht, dass, wenn beispielsweise ein Reisender in eine Region (Land) fährt, in welchem eine andere Sprache als eine Muttersprache verwendet wird, die regionale Hauptsprache nicht mit der eingestellten Sprache übereinstimmt. In einem solchen Fall wird angenommen, dass, selbst wenn der Name des Orientierungspunktobjekts durch Verwenden einer Hauptsprache dieser Region sprachlich ausgegeben wird, der Fahrer den Namen oder die dem Orientierungspunktobjekt gegebenen Zeichen nicht hören kann. Somit ist es gedacht, dass, wenn das Merkmal des Orientierungspunktobjekts vorab durch Verwenden der eingestellten Sprache (der Muttersprache des Fahrers oder einer Sprache wie beispielsweise Englisch, welche weithin in der Welt verwendet wird) benachrichtigt wird, der Fahrer das Orientierungspunktobjekts durch Verwenden dieses Merkmals als einen Hinweis erkennen kann.
  • Somit veranlasst die Navigationsvorrichtung 1 entsprechend der ersten Ausführungsform die Audioausgabevorrichtung 51 den Namen oder das Merkmal des Orientierungspunktobjekts sprachlich auszugeben, basierend auf der regionalen Hauptsprache, erhalten durch die Spracherfassungseinheit 15d (die Umgebungsinformation, erhalten durch die Umgebungsinformationserfassungseinheit 15). Beispielsweise gibt die Navigationsvorrichtung 1 das Merkmal (z.B. Farbe) des Orientierungspunktobjekts sprachlich aus durch Verwenden der eingestellten Sprache, wenn beispielsweise die regionale Hauptsprache nicht mit der eingestellten Sprache übereinstimmt, und gibt den Namen des Orientierungspunktobjekts sprachlich aus, wenn die regionale Hauptsprache mit der eingestellten Sprache übereinstimmt. Das heißt, es ist möglich das Orientierungspunktobjekt geeignet sprachlich auszugeben, sodass der Fahrer das Orientierungspunktobjekt, welches sprachlich ausgegeben ist, einfach erkennen kann.
  • <Modifiziertes Beispiel 1>
  • Wenn Karteninformationen 52a nicht aktualisierten sind, wurde ein Gebäude, welches ein Orientierungspunktobjekt eines Führungszielpunkts auf den Karteninformationen 52a ist, bereits entfernt oder wurde zu einem anderen Gebäude verändert. In einem solchen Fall ist es nicht bevorzugt ein Orientierungspunktobjekt basierend auf den Karteninformationen 52a anzusagen (sprachlich auszugeben). Somit kann eine Navigationsvorrichtung 1 entsprechend einem modifizierten Beispiel 1 der vorliegenden Erfindung ein ansagen (sprachliches Ausgeben) des Orientierungspunktobjekts anhalten, wenn die Karteninformationen 52a nicht geeignet sind.
  • 7 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 1 zeigt. Der Betrieb der Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 1 wird nachfolgend mit Bezug zu 7 beschrieben. Zusätzlich sind die Schritte S1 bis S5 und S10 des in 7 gezeigten Flussdiagramms identisch zu den Schritten S1 bis S5 und S10 des in 3 gezeigten Flussdiagramms und daher werden nur die Schritte S11 bis S14 mit Ausnahme der Schritte S1 bis S5 und S10 beschrieben
  • In Schritt S11 nach dem Schritt S5 erzeugt (erfasst) eine Kamera 56 (eine Fahrzeugfrontbilderfassungseinheit 15c) ein Bild, welches die Situation vor einem Fahrzeug zeigt. Weiter erfasst eine Informationskommunikationserfassungseinheit 15b Informationen entsprechend den Karteninformationen 52a von einem Kommunikationsnetzwerk. Wie oben beschrieben erfasst eine Umgebungsinformationserfassungseinheit 15 das durch die Kamera 56 erzeugte Bild und Informationen von dem Kommunikationsnetzwerk.
  • In Schritt S12 bestimmt eine Steuereinheit 16 für das Orientierungspunktobjekt, ob die Karteninformationen 52a mit dem durch die Kamera 56 erzeugten Bild übereinstimmen oder nicht. Zusätzlich bestimmt die Steuereinheit 16 für das Orientierungspunktobjekt, ob die Karteninformationen 52a mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen oder nicht.
  • Zusätzlich ist ein Verfahren zum Bestimmen, ob die Karteninformationen 52a mit dem durch die Kamera 56 erzeugten Bild übereinstimmen oder nicht, beispielsweise ausgebildet in den Karteninformationen 52a Szenendaten (z.B. Bilddaten oder Polygondaten) zu umfassen, welche eine Szene zeigen, gesehen in einer Erweiterungsrichtung einer Route von einem jeden Punkt der Route. Weiter umfasst ein Verfahren, dass die Steuereinheit 16 veranlasst zu bestimmen, wie oben beschrieben, ob bezüglich einem Zeichen, einem Zeichenschild und Fahrten, welche einem Orientierungspunktobjekt gegeben sind, die in den Karteninformationen 52a umfassten Szenedaten und das durch die Kamera 56 erzeugte Bild übereinstimmen oder nicht.
  • Weiterhin ist das Verfahren zum Bestimmen, ob die Karteninformationen 52a und die Informationen von dem Kommunikationsnetzwerk, beispielsweise ein Verfahren zum Veranlassen der Steuereinheit 16, die oben beschriebene Bestimmung in Abhängigkeit davon auszuführen, ob Namen eines Orientierungspunktobjekts der Karteninformationen 52a mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen.
  • Falls bestimmt ist in dem obigen Schritt S12, dass die Karteninformationen 52a mit dem durch die Kamera 56 erzeugten Bild übereinstimmen, falls bestimmt ist, dass die Karteninformationen 52a mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen oder in beiden diesen Fällen, geht der Fluss zu Schritt S13. Indessen, wenn bestimmt ist, dass die Karteninformation 52a nicht mit dem durch die Kamera 56 erzeugten Bild übereinstimmen und die Karteninformationen 52a nicht mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen, geht der Fluss zu Schritt S14.
  • In Schritt S13 sagt eine Steuereinheit 16 das Orientierungspunktobjekt basierend auf Umgebungsinformationen, beschrieben der ersten Ausführungsform, an (gibt diese sprachlich aus). Zusätzlich kann in diesem Fall die Steuereinheit 16 Führungsinformationen eines Führungszielpunkts ebenso sprachlich ausgeben. Nachfolgend geht der Fluss zu Schritt S10.
  • In Schritt S14 hält die Steuereinheit 16 ein Ansagen (sprachliches Ausgeben) des Orientierungspunktobjekts basierend auf den Umgebungsinformationen, beschrieben in der ersten Ausführungsform, an. Diesbezüglich kann die Steuereinheit 16 Führungsinformationen des Führungszielpunkts sprachlich ausgeben. Nachfolgend geht der Fluss zu Schritt S10.
  • In der Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 1, welches die obige Konfiguration verwendet, hält die Steuereinheit 16 ein sprachliches Ausgeben eines Namens und eines Merkmals eines Orientierungspunktobjekts basierend auf einem Bestimmungsergebnis an, ob die Karteninformationen 52a mit einem durch die Kamera 56 erzeugten Bild übereinstimmen oder nicht, und einem Bestimmungsergebnis, ob die Karteninformationen 52a mit Informationen von dem Kommunikationsnetzwerk übereinstimmen oder nicht. Diesbezüglich sind das durch die Kamera 56 erzeugte Bild und die Informationen von dem Kommunikationsnetzwerk im Allgemeinen neuer und genauer als die Karteninformationen 52a. Folglich, wenn die Karteninformationen 52a nicht mit dem durch die Kamera 56 erzeugten Bild übereinstimmen und nicht geeignet sind, wird ein Ansagen (sprachliches Ausgeben des Orientierungspunktobjekts angehalten, sodass es möglich ist das Orientierungspunktobjekt geeignet anzusagen.
  • Zusätzlich, wie oben beschrieben, in Schritt S11 erfasst die Umgebungsinformationserfassungseinheit 15 das durch die Kamera 56 erzeugte Bilden und die Informationen von dem Kommunikationsnetzwerk und in Schritt S12 hält die Steuereinheit 16 ein sprachliches Ausgeben eines Namens und eines Merkmals eines Orientierungspunktobjekts basierend auf einem Bestimmungsergebnis an, ob die Karteninformationen 52a mit einem durch die Kamera 56 erfassten Bild übereinstimmen oder nicht, und einem Bestimmungsergebnis, ob die Karteninformationen 52a mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen oder nicht. Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Beispielsweise kann in Schritt S11 die Umgebungsinformationserfassungseinheit 15 das durch die Kamera 56 erzeugte Bild erfassen, ohne die Informationen von dem Kommunikationsnetzwerk zu erfassen, und in Schritt S12 kann die Steuereinheit 16 ein sprachliches Ausgeben eines Namens und eines Merkmals eines Orientierungspunktobjekts basierend auf einem Bestimmungsergebnis anhalten, ob die Karteninformationen 52a mit dem durch die Kamera 56 erzeugten Bild übereinstimmen. Weiter kann beispielsweise in Schritt S11 die Umgebungsinformationserfassungseinheit 15 die Informationen von dem Kommunikationsnetzwerk erfassen, ohne dass durch die Kamera 56 erzeugte Bild zu erfassen, und in Schritt S12 kann die Steuereinheit 16 ein sprachliches Ausgeben eines Namens und eines Merkmals eines Orientierungspunktobjekts anhalten, basierend auf einem Bestimmungsergebnis, ob die Karteninformationen 52a mit den Informationen von dem Kommunikationsnetzwerk übereinstimmen.
  • <Modifiziertes Beispiel 2>
  • Entsprechend der oben beschriebenen Konfigurationen in der ersten Ausführungsform und dem modifizierten Beispiel 1, wenn ein Merkmal eines Orientierungspunktobjekts sprachlich ausgegeben wird (Schritt S9 in den 3 und 4, Schritt S8b in 5 und Schritt S8c 6), kann nur ein Merkmal des Orientierungspunktobjekts sprachlich ausgegeben werden oder es kann eine Vielzahl von Merkmalen sprachlich ausgegeben werden.
  • Diesbezüglich, wenn alle einer Vielzahl von Merkmalen sprachlich ausgegeben werden, müssen die Merkmale deutlich vor einem Führungszielpunkt sprachlich ausgegeben werden. Daher hat ein Fahrer dagegen Schwierigkeiten bei einem Erkennen eines Orientierungspunktobjekts. Somit in einem modifizierten Beispiel der vorliegenden Erfindung ist es möglich Merkmale zu begrenzen, welche sprachlich ausgegeben werden.
  • 8 ist ein Blockdiagramm, welches ein Beispiel einer funktionalen Konfiguration einer Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 2 zeigt. Wie in dieser 8 gezeigt verwendet die Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 2 die oben beschriebene Konfiguration der ersten Ausführungsform, wobei ein Audionachrichtengenerator 16h hinzugefügt ist. Diesbezüglich sind die Komponenten mit Ausnahme einer Hörbaren-Führungsphrasenauswahleinheit 16g und des Audionachrichtengenerators 16h identisch zu denen der ersten Ausführungsform und daher werden nur die Hörbare-Führungsphrasenauswahleinheit 16g und der Audionachrichtengenerator 16h nachfolgend beschrieben.
  • Die Hörbare-Führungsphrasenauswahleinheit 16g bestimmt, ob es eine Vielzahl von hörbaren Führungsphrasen gibt oder nicht, welche Merkmale eines Orientierungspunktobjekts angeben, wenn die Merkmale des einen Orientierungspunktobjekts sprachlich ausgegeben werden. Wenn bestimmt wird, dass es eine Vielzahl von hörbaren Führungsphrasen gibt, wählt die Hörbare-Führungsphrasenauswahleinheit 16g zumindest eine einer Vielzahl von hörbaren Führungsphrasen basierend auf einer vorbestimmten Priorität aus.
  • In der nachfolgenden Beschreibung wählt die Hörbare-Führungsphrasenauswahleinheit 16g N obere hörbare Führungsphrasen entsprechend der Priorität aus. Weiterhin ist die Priorität in einer Reihenfolge von kürzeren hörbaren Führungsphrasen.
  • Das heißt, in der nachfolgenden Beschreibung wählt die Hörbare-Führungsphrasenauswahleinheit 16g die N oberen kurzen hörbaren Führungsphrasen aus, wenn es eine Vielzahl von hörbaren Führungsphrasen gibt, welche Merkmale von einem Orientierungspunktobjekt angeben. Zusätzlich ist ein Wert von N ein Anfangswert einer Vorrichtung (System) oder wird durch einen Fahrer vorab eingestellt. Wenn N = 1 eingestellt ist, wählt die Hörbare-Führungsphrasenauswahleinheit 16g die kürzeste Phrase einer Vielzahl von hörbaren Führungsphrasen aus.
  • Wenn die Hörbare-Führungsphrasenauswahleinheit 16g die N (wobei N ≥ 2) hörbare Führungsphrasen auswählt, erzeugt der Audionachrichtengenerator 16h eine Audionachricht durch Kombinieren der N hörbaren Führungsphrasen. Weiter veranlasst der Audionachrichtengenerator 16h eine Audioausgabevorrichtung 51 die erzeugte Audionachricht bei einem durch eine Führung angegebenen Punkt auszugeben.
  • Somit kann die Steuereinheit 16 die Audioausgabevorrichtung 51 dazu veranlassen bei zumindest einem von einer Vielzahl von Merkmalen basierend auf einer vorbestimmten Priorität, wenn das Orientierungspunktobjekt, für welches eine sprachliche Ausgabe gegeben ist, eine Vielzahl von Merkmalen umfasst, sprachlich auszugeben.
  • 9 ist ein Flussdiagramm, welches einen Betrieb der Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 2 zeigt. Der Betrieb der Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel 2 wird nachfolgend mit Bezug zu 9 beschrieben. Zusätzlich wird dieser Betrieb als Schritte S9, S8b und S8c ausgeführt.
  • Als Erstes bestimmt in Schritt S21 eine Steuereinheit 16, ob es eine Vielzahl von hörbaren Führungsphrasen gibt oder nicht, welche Merkmale von einem Orientierungspunktobjekt angeben, dessen Merkmale anzusagen sind (sprachlich auszugeben sind). Der Fluss geht zu Schritt S22, wenn bestimmt ist, dass es keine Vielzahl von hörbaren Führungsphrasen gibt (das heißt es gibt nur ein Merkmal), und geht zu Schritt S23, wenn bestimmt ist, dass es eine Vielzahl von hörbaren Führungsphrasen gibt (das heißt es gibt eine Vielzahl von Merkmalen). Indessen, selbst wenn es eine Vielzahl von hörbaren Führungsphrasen gibt, falls N = 1 eingestellt ist, geht der Fluss zu Schritt S22.
  • In Schritt S22 veranlasst die Steuereinheit 16 eine Audioausgabevorrichtung 51 eine ein Merkmal angebende hörbare Führungsphrase sprachlich auszugeben. Nachfolgend ist der in 9 gezeigte Betrieb, das heißt der Betrieb in den Schritten S9, S8b und S8c, beendet.
  • In Schritt S23 kombiniert die Steuereinheit 16 die N (N ≥ 2) obere kurze hörbare Führungsphrasen aus hörbaren Führungsphrasen, welche eine Vielzahl von Merkmalen angeben, und veranlasst die Audioausgabevorrichtung 51 die durch diese Kombination erzeugte Audionachricht sprachlich auszugeben. Nachfolgend ist der in 9 gezeigte Betrieb, das heißt der Betrieb in den Schritten S9, S8b und S8c, beendet.
  • Die obige Navigationsvorrichtung 1 entsprechend dem modifizierten Beispiel kann Merkmale begrenzen, welche sprachlich ausgegeben werden, und folglich kann diese ein Orientierungspunktobjekt geeignet sprachlich ausgeben.
  • Zusätzlich das oben beschrieben wurde, dass die Priorität in einer Reihenfolge von kürzeren hörbaren Führungsphrasen ist. Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Beispielsweise kann eine Priorität mit Bezug zu Typen von Merkmalen wie beispielsweise eine Farbe, eine Höhe und eine Form bestimmt werden. Weiter kann diese Priorität nur mit Bezug zu bestimmten Umgebungsinformationen bestimmt werden (z.B. einer regionalen Hauptsprache) und kann weiter nur durch eine bestimmte Region (Land) in diesem Fall bestimmt werden. Weiter können Informationen betreffend die Priorität in einem Tabellenformat in einer Speichervorrichtung 52 gespeichert werden.
  • <Modifiziertes Beispiel 3>
  • Ein modifiziertes Beispiel 3 nimmt eine Konfiguration an, welche durch Entfernen einer Informationskommunikationserfassungseinheit 15b, einer Fahrzeugfrontbilderfassungseinheit 15c, einer Sprachenerfassungseinheit 15d, einer Wetteridentifizierungseinheit 16d, einer Fahrzeugfrontinformationsidentifizierungseinheit 16e und einer Sprachenidentifizierungseinheit 16f von der in 2 gezeigten Konfiguration wie in 10 gezeigt, erhalten wird. Eine in 10 gezeigt Navigationsvorrichtung kann einen Betrieb betreffend eine Helligkeit eines Äußeren eines Fahrzeugs ausführen, beschrieben mit Bezug zu 3.
  • <Modifiziertes Beispiel 4>
  • ein modifiziertes Beispiel 4 nimmt eine Konfiguration an, welche durch Entfernen einer Helligkeitserfassungseinheit 15a, einer Fahrzeugfronbilderfassungseinheit 15c, einer Sprachenerfassungseinheit 15d, einer Helligkeitsidentifizierungseinheit 16c, einer Fahrzeugfrontinformationsidentifizierungseinheit 16e und einer Sprachenidentifizierung 16f von der in 2 gezeigten Konfiguration, wie in 11 gezeigt, erhalten wird. Eine in 11 gezeigte Navigationsvorrichtung kann einen Betrieb betreffend Wetterinformationen eines Äußeren des Fahrzeugs ausführen, welcher mit Bezug zu 4 beschrieben ist.
  • <Modifiziertes Beispiel 5>
  • ein modifiziertes Beispiel 5 nimmt eine Konfiguration an, welche durch Entfernen einer Helligkeitserfassungseinheit 15a, einer Informationskommunikationserfassungseinheit 15b, einer Sprachenerfassungseinheit 15d, einer Helligkeitsidentifizierungseinheit 16c, einer Wetteridentifizierungseinheit 16d und einer Sprachenidentifizierung 16f von der in 2 gezeigten Konfiguration, wie in 12 gezeigt, erhalten wird. Eine in 12 gezeigte Navigationsvorrichtung 1 kann einen Betrieb betreffend ein Bild ausführen, welches eine Situation vor einem Fahrzeug zeigt, welcher mit Bezug zu 5 beschrieben ist.
  • <Modifiziertes Beispiel 6>
  • ein modifizierten Beispiel 6 nimmt eine Konfiguration an, welche durch Entfernen einer Helligkeitserfassungseinheit 15a, einer Informationskommunikationserfassungseinheit 15b, einer Fahrzeugfrontbilderfassungseinheit 15c, einer Helligkeitsidentifizierungseinheit 16c, einer Wetteridentifizierungseinheit 16d und einer Fahrzeugfrontinformationsidentifizierungseinheit 16e von der in 2 gezeigten Konfiguration, wie in 13 gezeigt, erhalten wird. Eine in 13 gezeigte Navigationsvorrichtung 1 kann einen Betrieb betreffend einer regionalen Hauptsprache ausführen, welche mit Bezug zu 6 beschrieben ist.
  • <Modifiziertes Beispiel 7>
  • In der ersten Ausführungsform kann eine Steuereinheit 16 eine Audioausgabevorrichtung dazu veranlassen, einen Namen oder ein Merkmal eines Orientierungspunktobjekts selektive sprachlich auszugeben, basierend auf einem Identifikationsergebnis einer Helligkeitsidentifizierungseinheit 16c zu einer Sprachenidentifizierungseinheit 16f.
  • Allerdings ist die vorliegende Erfindung nicht darauf beschränkt. Die Steuereinheit 16 kann die Audioausgabevorrichtung dazu veranlassen einen Namen oder ein Merkmal eines Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf allen Identifikationsergebnissen der Helligkeitsidentifizierungseinheit 16c bis zu der Sprachenidentifizierungseinheit 16f. Die Steuereinheit 16 kann ausgebildet sein, wenn beispielsweise die Anzahl von Identifikationsergebnissen zum sprachlichen Ausgeben von Merkmalen aus einer Vielzahl von Identifikationsergebnissen, welche durch die Helligkeitsidentifizierungseinheit 16c bis zu der Sprachenidentifizierungseinheit 16f erhalten sind, die Anzahl von Identifizierungsergebnissen zum sprachlichen Ausgeben eines Namens oder mehr ist, zum Veranlassen der Audioausgabevorrichtung die Merkmale eines Orientierungspunktobjekts sprachlich auszugeben, und zum Veranlassen der Audioausgabevorrichtung mit dem Namen des Orientierungspunktobjekts sprachlich auszugeben, falls dies nicht ein Fall ist.
  • Insbesondere wird angenommen, dass ein Identifikationsergebnis, welches den Fluss veranlasst von Schritt S7 zu Schritt S8 in 3 zu gehen (ein Identifikationsergebnis zum sprachlichen Ausgeben eines Namens), erhalten wird, ein Identifikationsergebnis, welches den Fluss dazu veranlasst von dem Schritt S7a zu dem Schritt S9 in 4 zu gehen (ein Identifikationsergebnis zum sprachlichen Ausgeben von Merkmalen), erhalten wird, und ein Identifikationsergebnis, welches den Fluss dazu veranlasst von dem Schritt S7b zu dem Schritt S8b in 5 zu geben (Identifikationsinformation zum sprachlichen Ausgeben von Merkmalen), erhalten ist. In diesem Fall ist die Anzahl (2) von Identifikationsergebnissen und zum sprachlichen Ausgeben von Merkmalen die Anzahl von (1) von Identifikationsergebnissen zum sprachlichen Ausgeben eines Namens oder mehr und die Steuereinheit 16 veranlasst eine Audioausgabevorrichtung 51 zum sprachlichen Ausgeben der Merkmale des Orientierungspunktobjekts.
  • <Modifiziertes Beispiel, wobei eine Fahrassistenzvorrichtung auf eine andere als eine Navigationsvorrichtung angewendet wird>
  • Die oben beschriebene Fahrassistenzvorrichtung ist nicht nur auf die in einem Fahrzeug angebrachte Navigationsvorrichtung 1 anwendbar, sondern auch auf eine Fahrassistenzvorrichtung, welche in einem Fahrzeug angebracht sein kann und als ein System gebildet ist durch optionales Kombinieren einer PND (tragbar – Navigationsvorrichtung), einem mobilen Endgerät (z.B. ein Mobiltelefon, ein Smartphone und einem Tablet) und einem Server. In diesem Fall wird jede Funktion oder jede Komponente der Navigationsverrichtung 1, welche oben beschrieben ist, in einer verteilten Anordnung in jeder Vorrichtung bereitgestellt, welche das System bildet
  • Beispielsweise wurde eine Konfiguration, wobei die Fahrassistenzvorrichtung auf die Navigationsvorrichtung 1 angewendet ist, oben beschrieben. Allerdings ist die Fahrassistenzvorrichtung nicht darauf beschränkt und kann auf eine aus der Gruppe einer PND, eines mobilen Endgeräts und einem Server angewendet werden.
  • Weiter wurde eine Konfiguration, wobei ein Karteninformationsspeicher 12, welcher Karteninformationen 52a von außerhalb der Navigationsvorrichtung 1 abruft und die Karteninformationen 52a speichert, auf eine Karteninformationserfassungseinheit angewendet, oben beschrieben. Allerdings ist die Karteninformationserfassungseinheit nicht auf den Karteninformationsspeicher 12 beschränkt, solange die Karteninformationserfassungseinheit die Karteninformationen 52a erfasst, und kann beispielsweise eine Kommunikationseinheit sein, welche zum Empfangen der Karteninformationen 52a ausgebildet ist. Weiter, wenn beispielsweise eine Fahrassistenzvorrichtung auf ein Smartphone, einen Speicher entsprechend dem Karteninformationsspeicher 12 aus Komponenten des Smartphones angewendet wird, kann die Karteninformationserfassungseinheit angewendet werden. Weiter, wenn beispielsweise eine Fahrassistenzvorrichtung auf einen Server angewendet wird, kann ein Speicher entsprechend dem Karteninformationsspeicher 12 aus Komponenten des Servers auf die Karteninformationserfassungseinheit angewendet werden.
  • Noch weiter wurde eine Konfiguration, wobei ein aktueller Positionsdetektor 13, welcher eine aktuelle Position eines Fahrzeugs detektiert, auf eine Positionserfassungseinheit angewendet wird, oben beschrieben. Allerdings ist die Positionserfassungseinheit nicht auf den aktuellen Positionsdetektor 13 beschränkt, solange die Positionserfassungseinheit eine Position eines Fahrzeugs von Interesse erfasst. Wenn beispielsweise eine Fahrassistenzvorrichtung auf ein Smartphone angewendet wird, kann ein Detektor entsprechend dem aktuellen Positionsdetektor 13 aus Komponenten des Smartphones auf die Positionserfassungseinheit angewendet werden. Weiter, wenn beispielsweise die Fahrassistenzvorrichtung auf den Server angewendet wird, kann eine Kommunikationseinheit, welche eine Position eines Fahrzeugs von Interesse empfängt, aus Komponenten des Servers auf die Positionserfassungseinheit angewendet werden.
  • Weiterhin wurde eine Konfiguration, wobei eine Eingabeeinheit 14, welche eine Einstellung (Eingabe) eines Ziels eines Fahrzeugs von Interesse von einem Anwender empfängt, auf eine Zielerfassungseinheit angewendet, oben beschrieben. Allerdings ist die Zielerfassungseinheit nicht auf die Eingabeeinheit 14 beschränkt, solange die Zielerfassungseinheit ein Ziel eines Fahrzeugs von Interesse erfasst. Wenn beispielsweise eine Fahrassistenzvorrichtung auf ein Smartphone angewendet wird, kann eine Eingabeeinheit entsprechend der Eingabeeinheit 14 aus Komponenten des Smartphones auf die Zielerfassungseinheit angewendet werden. Weiter, wenn beispielsweise eine Fahrassistenzvorrichtung auf einen Server angewendet wird, kann eine Kommunikationseinheit, welche ein Ziel eines Fahrzeugs von Interesse empfängt, aus Komponenten des Servers ebenso auf die Zielerfassungseinheit angewendet werden. Zusätzlich ist das identische modifizierte Beispiel wie das der Eingabeeinheit 14 auf eine Umgebungsinformationserfassungseinheit 15 ebenso anwendbar.
  • Weiter wurde eine Konfiguration, wobei eine Routenberechnungseinheit 16a, welche eine Route aus einer aktuellen Position zu einem Ziel basierend auf den Karteninformationen 52a und einer Position und einem Ziel eines Fahrzeugs von Interesse berechnet, auf eine Routenerfassungseinheit angewendet, oben beschrieben. Allerdings ist die Routenerfassungseinheit nicht auf die Routenberechnungseinheit 16a beschränkt, solange die Routenerfassungseinheit eine basierend auf den Karteninformationen 52a und einer Position und einem Ziel des Fahrzeugs von Interesse berechneten Route erfasst, und kann eine Kommunikationseinheit sein, welche beispielsweise die obige Route von einem Server empfängt. Weiter, wenn beispielsweise eine Fahrassistenzvorrichtung auf ein Smartphone angewendet wird, kann eine Berechnungseinheit entsprechend der Routenberechnungseinheit 16a aus Komponenten des Smartphones auf die Routenerfassungseinheit angewendet werden. Weiter, wenn beispielsweise eine Fahrassistenzvorrichtung auf einen Server angewendet wird, kann eine Berechnungseinheit entsprechend der Routenberechnungseinheit 16a aus Komponenten des Servers auf die Routenerfassungseinheit angewendet werden.
  • Weiter wurde eine Konfiguration, wobei die Audioausgabevorrichtung 51 der Navigationsvorrichtung 1 auf eine Audioausgabevorrichtung angewendet wird, oben beschrieben. Allerdings ist die Audioausgabevorrichtung nicht auf die Audioausgabevorrichtung 51 der Navigationsvorrichtung 1 beschränkt, solange die Audioausgabevorrichtung eine sprachliche Ausgabe ausgeben kann und eine Audioausgabevorrichtung entsprechend der Audioausgabevorrichtung 51 aus Komponenten eines Smartphones kann angewendet werden. Weiter wurde ein Fall beschrieben, wobei ein sich bewegende Körper ein Fahrzeug ist. Allerdings ist die vorliegende Ausführungsform nicht darauf beschränkt und der bewegende Körper ist nicht auf eine Person beschränkt.
  • Zusätzlich können entsprechend der vorliegenden Erfindung Ausführungsformen optional modifiziert oder ausgelassen werden, ohne von dem Schutzbereich der Erfindung abzuweichen.
  • Die vorliegende Erfindung wurde genau beschrieben. Allerdings ist die obige Beschreibung eine illustrative Beschreibung in allen Aspekten und die vorliegende Erfindung ist in keiner Weise darauf beschränkt. Es wird verstanden, dass eine unendliche Anzahl von modifizierten Beispielen, welche nicht dargestellt sind, angenommen wird, ohne von dem Schutzbereich der vorliegenden Erfindung abzuweichen.
  • Bezugszeichenliste
  • 1
    Navigationsvorrichtung
    12
    Karteninformationsspeicher
    13
    aktueller Positionsdetektor
    14
    Eingabeeinheit
    15
    Umgebungsinformationserfassungseinheit
    16
    Steuereinheit
    16a
    Routenberechnungseinheit
    51
    Audioausgabevorrichtung

Claims (6)

  1. Eine Fahrassistenzvorrichtung, welche eine Bewegung eines sich bewegenden Körpers unterstützt, durch Veranlassen einer sich mit dem sich bewegenden Körper bewegenden Audioausgabevorrichtung, eine Ansage eines Orientierungspunktobjekts sprachlich auszugeben, wobei die Fahrassistenzvorrichtung umfasst: eine Karteninformationserfassungseinheit, welche Karteninformationen erfasst; eine Positionserfassungseinheit, welche eine Position des sich bewegenden Körpers erfasst; eine Zielerfassungseinheit, welche ein Ziel des sich bewegenden Körpers erfasst; eine Routenerfassungseinheit, welche eine Route zu dem Ziel erfasst, basierend auf den Karteninformationen, der Position des sich bewegenden Körpers und dem Ziel des sich bewegenden Körpers; eine Umgebungsinformationserfassungseinheit, welche zu dem Zeitpunkt, zu dem der sich bewegende Körper an einem durch eine Führung angegebenen Punkt ankommt, welcher zu der Route gehört und bei welchem die sprachliche Ausgabe ausgegeben wird, Umgebungsinformationen betreffend eine äußere Umgebung des sich bewegenden Körpers erfasst; und eine Steuereinheit, welche die Audioausgabevorrichtung dazu veranlasst, selektiv einen Namen oder ein Merkmal des Orientierungspunktobjekts sprachlich auszugeben, basierend auf den Umgebungsinformationen an dem durch eine Führung angegebenen Punkt.
  2. Fahrassistenzvorrichtung gemäß Anspruch 1, wobei die Umgebungsinformationen zumindest eines der folgenden Elemente umfassen eine Helligkeit außerhalb des sich bewegenden Körpers, Informationen, welche ein Wetter außerhalb des sich bewegenden Körpers angeben, Informationen zum Identifizieren, ob es ein visuelles Hindernis vor dem sich bewegenden Körper gibt oder nicht, und eine Sprache, welche ein Ziel ist, für welches bestimmt ist, ob das Ziel mit einer Sprache übereinstimmt, welche bei der Fahrassistenzvorrichtung eingestellt ist, und welche in einer Region verwendet wird, welche zu der Position des sich bewegenden Körpers gehört.
  3. Fahrassistenzvorrichtung gemäß Anspruch 2, wobei die Steuereinheit veranlasst, dass die Audioausgabevorrichtung ein Merkmal einer Einrichtung oder eines Punktes in der Nähe des Orientierungspunktobjekts sprachlich ausgibt, anstatt zu veranlassen, dass die Audioausgabevorrichtung das Merkmal des Orientierungspunktobjekts sprachlich ausgibt.
  4. Fahrassistenzvorrichtung gemäß Anspruch 1, wobei die Umgebungsinformationserfassungseinheit zumindest ein Bild, welches durch eine Kamera erzeugt ist und eine Situation vor dem sich bewegenden Körper zeigt, und/oder Informationen von einem Kommunikationsnetzwerk erfasst und die Steuereinheit ein sprachliches Ausgeben eines Namens und eines Merkmals des Orientierungspunktobjekts anhält, basierend darauf, ob die Karteninformationen mit zumindest dem Bild, welches durch die Umgebungsinformationserfassungseinheit erfasst ist und die Situation zeigt, und/oder den Informationen von dem Kommunikationsnetzwerk übereinstimmen oder nicht.
  5. Fahrassistenzvorrichtung gemäß Anspruch 1, wobei die Steuereinheit veranlasst, dass die Audioausgabevorrichtung zumindest eines aus einer Vielzahl von den Merkmalen sprachlich ausgibt, basierend auf einer vorbestimmten Priorität, wenn das Orientierungspunktobjekt, für welches eine sprachliche Ausgabe gegeben ist, eine Vielzahl von diesen Merkmalen umfasst.
  6. Ein Fahrassistenzverfahren zum Unterstützen einer Bewegung eines sich bewegenden Körpers durch Veranlassen einer sich mit dem sich bewegenden Körper bewegenden Audioausgabevorrichtung, eine Ansage eines Orientierungspunktobjekts sprachlich auszugeben, wobei das Fahrassistenzverfahren umfasst: (a) Erfassen einer Position des sich bewegenden Körpers; (b) Erfassen eines Ziels des sich bewegenden Körpers; (c) Erfassen einer Route zu dem Ziel basierend auf Karteninformationen, der Position des sich bewegenden Körpers und dem Ziel des sich bewegenden Körpers; (d) zu dem Zeitpunkt, zu dem der sich bewegende Körper an einem durch eine Führung angegebenen Punkt ankommt, welcher zu der Route gehört, und bei welchem die sprachliche Ausgabe gegeben ist, Erfassen von Umgebungsinformation betreffend eine Umgebung eines Äußeren des sich bewegenden Körpers; und (e) Veranlassen der Audioausgabevorrichtung, einen Namen oder ein Merkmal des Orientierungspunktobjekts selektiv sprachlich auszugeben, basierend auf den Umgebungsinformationen, an dem durch eine Führung angegebenen Punkt.
DE112013007522.9T 2013-10-25 2013-10-25 Fahrassistenzgerät und Fahrassistenzverfahren Withdrawn DE112013007522T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/078929 WO2015059812A1 (ja) 2013-10-25 2013-10-25 移動支援装置及び移動支援方法

Publications (1)

Publication Number Publication Date
DE112013007522T5 true DE112013007522T5 (de) 2016-07-07

Family

ID=52992448

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013007522.9T Withdrawn DE112013007522T5 (de) 2013-10-25 2013-10-25 Fahrassistenzgerät und Fahrassistenzverfahren

Country Status (5)

Country Link
US (1) US10082401B2 (de)
JP (1) JP6289489B2 (de)
CN (1) CN105659055B (de)
DE (1) DE112013007522T5 (de)
WO (1) WO2015059812A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016006504B4 (de) * 2016-03-29 2021-02-04 Mitsubishi Electric Corporation Sprachführungseinrichtung und Sprachführungsverfahren

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3232159A4 (de) * 2014-12-08 2018-08-15 Hitachi Automotive Systems, Ltd. Vorrichtung zur positionsschätzung eines host-fahrzeugs
US20160335399A1 (en) * 2015-03-16 2016-11-17 Outside The Leather, Llc System and method for a patient initiated medical interview using a voice-based medical history questionnaire
US10126141B2 (en) * 2016-05-02 2018-11-13 Google Llc Systems and methods for using real-time imagery in navigation
JP2019158648A (ja) * 2018-03-14 2019-09-19 トヨタ自動車株式会社 運転支援装置、制御方法、及びプログラム
JP2020094928A (ja) * 2018-12-13 2020-06-18 本田技研工業株式会社 経路案内装置およびその制御方法、情報処理サーバ、ならびに経路案内システム
JP7207045B2 (ja) * 2019-03-15 2023-01-18 トヨタ自動車株式会社 サーバ装置および情報処理方法
JP7246254B2 (ja) * 2019-05-28 2023-03-27 株式会社Nttドコモ 情報処理装置及びプログラム
JP7200866B2 (ja) * 2019-07-19 2023-01-10 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、および情報処理方法
US11437018B2 (en) * 2020-03-13 2022-09-06 Pony Ai Inc. Vehicle output based on local language/dialect
KR20210158706A (ko) * 2020-06-24 2021-12-31 현대자동차주식회사 차량 및 그 제어방법
JP2022059958A (ja) * 2020-10-02 2022-04-14 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーション装置
JP2022123940A (ja) * 2021-02-15 2022-08-25 本田技研工業株式会社 車両制御装置
US11458891B1 (en) * 2021-04-05 2022-10-04 Toyota Research Institute, Inc. Secondary horn system for a vehicle

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935186A (ja) 1995-07-13 1997-02-07 Alpine Electron Inc 車載用ナビゲーション装置
JP3704925B2 (ja) 1997-04-22 2005-10-12 トヨタ自動車株式会社 移動端末装置及びその音声出力プログラムを記録した媒体
JP2002116033A (ja) 2000-10-10 2002-04-19 Nippon Signal Co Ltd:The ランドマーク案内装置並びに方法、情報記憶媒体、及びランドマーク登録装置並びに方法
EP1507129B1 (de) * 2003-08-14 2008-01-02 Harman/Becker Automotive Systems GmbH Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
JP2005249485A (ja) * 2004-03-02 2005-09-15 Alpine Electronics Inc 車載用ナビゲーション装置の音声案内方法
JP2009025071A (ja) 2007-07-18 2009-02-05 Funai Electric Co Ltd ナビゲーション装置
US7825824B2 (en) * 2007-09-18 2010-11-02 At&T Intellectual Property I, L.P. Collaborative environmental reporting
US8155877B2 (en) * 2007-11-29 2012-04-10 Microsoft Corporation Location-to-landmark
JP2009186372A (ja) * 2008-02-07 2009-08-20 Nissan Motor Co Ltd ナビゲーション装置およびナビゲーション方法
JP4881493B1 (ja) 2010-12-24 2012-02-22 パイオニア株式会社 ナビゲーション装置、制御方法、プログラム、及び記憶媒体
US8744771B2 (en) * 2012-03-26 2014-06-03 Navteq B.V. Reverse natural guidance
US9043140B2 (en) * 2012-06-29 2015-05-26 Here Global B.V. Predictive natural guidance

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016006504B4 (de) * 2016-03-29 2021-02-04 Mitsubishi Electric Corporation Sprachführungseinrichtung und Sprachführungsverfahren

Also Published As

Publication number Publication date
US20160231135A1 (en) 2016-08-11
JPWO2015059812A1 (ja) 2017-03-09
JP6289489B2 (ja) 2018-03-07
WO2015059812A1 (ja) 2015-04-30
CN105659055A (zh) 2016-06-08
US10082401B2 (en) 2018-09-25
CN105659055B (zh) 2018-11-02

Similar Documents

Publication Publication Date Title
DE112013007522T5 (de) Fahrassistenzgerät und Fahrassistenzverfahren
DE102014221895B4 (de) System zur Bestimmung der Durchfahrtshöhe von bevorstehenden Überkopfstrukturen
DE102016222592A1 (de) Verkehrszeichenerkennungsvorrichtung und dazugehöriges eine Geschwindigkeitsbegrenzung bereitstellendes Verfahren
DE69731860T2 (de) Navigationsgerät für Landfahrzeuge mit beschränkter Anzeige für die Zielführung zur Verbesserung der Lesbarkeit
DE60318430T2 (de) Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
DE112008003588B4 (de) Navigationsgerät verwendend Videobilder einer Kamera
EP3022528A1 (de) Verfahren zum betrieb einer navigationseinrichtung, navigationseinrichtung und kraftfahrzeug
DE112012006997B4 (de) Navigationsvorrichtung
DE112013006503T5 (de) Bewegungsassistenzvorrichtung und Bewegungsassistenzverfahren
DE102015006138A1 (de) Fahrerassistenzsystem und Verfahren zur Vermeidung von Kollisionen
DE102011084993A1 (de) Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem
DE102006015719A1 (de) Navigationssystem und Programm
DE102007014674A1 (de) Navigationsvorrichtung und Verfahren zum Navigieren eines Fahrzeugs
DE112009000732T5 (de) Fahrzeug-Navigationsvorrichtung, tragbares Informationsterminal und Fahrzeug-Navigationssystem
DE112012007236T5 (de) Sichtbarkeitsschätzungsgerät, Sichtbarkeitsschätzungsverfahren und Fahrsicherheitsunterstützungssystem
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102013211696A1 (de) Verfahren zum Vervollständigen und/oder Aktualisieren einer digitalen Straßenkarte, Vorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE112012006711T5 (de) Im Fahrzeug-Verkehrsinformation-Benachrichtigungsvorrichtung
DE112014000297T5 (de) Spracherkennungsvorrichtung und Anzeigeverfahren
DE102007050375A1 (de) Verfahren zur Verwendung von Wetterinformationen in einem Fahrzeug
WO2014032660A1 (de) Verfahren zur elektronischen erkennung von verkehrszeichen
DE102008028374A1 (de) Verfahren zur kombinierten Ausgabe eines Bildes und einer Lokalinformation, sowie Kraftfahrzeug hierfür
DE102017209240A1 (de) Verfahren zur Ansteuerung wenigstens einer Vorrichtung von einem Kraftfahrzeug
DE102015220613A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Aufstellortes für ein Warndreieck im Straßenverkehrsraum sowie Verfahren und Vorrichtung zum Unterstützen eines Insassen eines Fahrzeugs beim Aufstellen eines Warndreiecks
EP2156142B1 (de) Verfahren und anordnung zur ausgabe von zielführungshinweisen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee