DE102004059372A1 - Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem - Google Patents

Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem Download PDF

Info

Publication number
DE102004059372A1
DE102004059372A1 DE102004059372A DE102004059372A DE102004059372A1 DE 102004059372 A1 DE102004059372 A1 DE 102004059372A1 DE 102004059372 A DE102004059372 A DE 102004059372A DE 102004059372 A DE102004059372 A DE 102004059372A DE 102004059372 A1 DE102004059372 A1 DE 102004059372A1
Authority
DE
Germany
Prior art keywords
speech
information
conversation document
document generation
speech conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004059372A
Other languages
English (en)
Inventor
Yuta Kawana
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE102004059372A1 publication Critical patent/DE102004059372A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Navigationssystem schließt eine Fahrzeugeinbaueinheit 1 ein, einen Sprachkonversationsdokument-Erzeugungsserver 2 und einen Informationsauffindeserver 3, und die Fahrzeugeinbaueinheit 1 erzeugt eine das Suchwort und die von einem Positionserfassungsteil 12 von einem Steuerteil 14 ermittelte Momentanpositionsinformation einschließende Anfrage und sendet die Anfrage dem Server 2, wenn ein Suchwort von einem Spracherkennungsteil 11 ermittelt worden ist und wenn eine Evaluierung durch einen Fahrverhaltenevaluierungsteil 13 eine vorbestimmte Referenz erfüllt, die Einheit 1 analysiert ein von dem Server 2 als Reaktion hierauf gesendetes Sprachkonversationsdokument durch einen Sprachkonversationsdokumentanalyseteil 16 und führt Sprachkonversation mit Hilfe von Sprachkonversationsteilen 17, 18, 19, 10, 11 durch und gibt ein Ergebnis durch einen Ausgabeteil 21 aus, und wobei der Server 2 den Server 3 durch einen Informationsauffindeteil 36 durchsucht unter Verwendung eines auf dem in der von der Fahrzeugeinbaueinheit 1 empfangenen Anfrage eingeschlossenen erkannten Wort basierenden Informationssuchworts und bringt die ermittelte Information in ein Sprachkonversationsdokument ein durch den Sprachkonversationsdokument-Erzeugungsteil 33 und sendet das Sprachkonversationsdokument an die Fahrzeugeinbaueinheit 1.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine in oder an einem Fahrzeug montierte Einheit, nachstehend Fahrzeugeinbaueinheit genannt, einen Sprachkonversationsdokument-Erzeugungsserver und ein diese verwendendes Navigationssystem, und insbesondere eine Technik, um einen Benutzer mit geeigneter Information zu versorgen als Reaktion auf die Konversation eines Passagiers in einem Fahrzeug.
  • Beschreibung des Standes der Technik
  • Ein Fahrzeugeinbauinformationsendgerät, das in einem Fahrzeug montiert ist und einen Passagier mit verschiedenen Arten von Information versorgt, und ein Informationsbereitstellungssystem, das mit diesem Informationsendgerät versehen ist, sind konventionell bekannt (siehe beispielsweise Patentdokument 1). Wenn in diesem Fahrzeugeinbauinformationsendgerät und dem mit diesem Endgerät versehenen Informationsbereitstellungssystem eine Tatsache durch Positionsdaten erfasst wird, dass ein von den Positionsdaten einer von einem Teletextrundsendeempfangsteil empfangenen Zeicheninformation gezeigter Bereich in einer nun auf einem Anzeigeteil angezeigten Straßenkarte enthalten ist, wird der Anzeigeteil durch einen Fahrzeugeinbausteuerteil gesteuert wird zum Anzeigen einer Empfangsmarkierung, die den Bereich auf der momentan angezeigten Straßenkarte zeigt, und ferner wird ein lokaler Datenbankteil von dem Fahrzeugeinbausteuerteil gesteuert zum Speichern der Zeicheninformation diesen Bereichs. Und wenn eine Empfangsmarkierung ausgewählt wird während die Empfangsmarkierung angezeigt wird, wird die Zeicheninformation des Bereichs, der zu der von dem Fahrzeugeinbausteuerteil ausgewählten Empfangsmarkierung korrespondiert, aus dem Lokaldatenbankteil ausgelesen und auf dem Anzeigeteil angezeigt. Mit dieser Anordnung kann es leicht sein, Information diesbezüglich zu beurteilen, welcher Bereich empfangen wird und die Information über einen bestimmten Bereich aus den empfangenen verschiedenen Informationen zu kennen.
  • Andererseits ist in den jüngsten Jahren ein Fahrzeugnavigationssystem vom Konversationstyp entwickelt worden, das eine Anweisung durch Sprache erkennt, um entsprechend der Anweisung zu arbeiten und eine durch Sprache und Bild synthetisierte Antwort wiederzugeben. Als eine Techniken der Spracherkennung und Sprachausgabe verwendende Einrichtung ist eine Konversationseinrichtung bekannt gewesen, die eine Konversation realisieren kann, welche das Gefühl vermittelt, die Konversation mit einem wirklichen Menschen zu führen mit Hilfe von beispielsweise Computergraphiken und Spracherkennung und Sprachsynthese (siehe beispielsweise Patentdokument 2). Diese Konversationseinrichtung schließt ein: einen Spracheingabeteil, in welchen ein Benutzer Sprache eingibt; einen Spracherkennungsteil, der die eingegebene Sprache erkennt; einen Antwortsatzkompositionsteil, der einen Antwortsatz aus der erkannten Sprache komponiert; einen Sprachsyntheseteil, der den komponierten Antwortsatz umsetzt in synthetisierte Sprache; einen Ausgabeteil synthetisierter Sprache, der die synthetisierte Sprache ausgibt; einen Bilderzeugungsteil, der das Bild eines Roboters erzeugt, welcher verschiedene Handlungen entsprechend den komponierten Antwortsätzen vornimmt; einen Bildanzeigeteil, der das erzeugte Bild auf einer Anzeigeeinrichtung anzeigt; und einen Datenspeicherteil, der die Modelldaten der Kollektion der Antwortsätze, Roboterdaten und persönlicher Informationsdaten speichert, welche für diese Verarbeitung erforderliche Daten sind. Gemäß dieser Konversationseinrichtung kann durch die Computergraphiken und die Spracherkennung und Sprachsynthese eine Konversation realisiert werden, die das Gefühl vermittelt, eine Konversation mit einem wirklichen Menschen zu führen.
    • [Patentdokument 1] japanische ungeprüfte Patentveröffentlichung Nr. 11-37772.
    • [Patentdokument 2] japanische ungeprüfte Patentveröffentlichung Nr. 2000-259601
  • Im übrigen kann ein Navigationssystem, in welchem ein Benutzer eine Konversation mit einer Fahrzeugeinbaueinheit mit Hilfe von Sprache hat zum Ermitteln einer gewünschten Information als durch eine Kombination der in dem Patentdokument 1 offenbarten Fahrzeugeinbaueinheit und der in dem Patentdokument 2 offenbarten Konversationseinrichtung vorgestellt werden. In einem solchen Fall muss die Fahrzeugeinbaueinheit immer Spracherkennung ausführen und wenn die Fahrzeugeinbaueinheit so aufgebaut ist, dass sie immer Spracherkennung ausführt, kann man sich vorstellen, dass die Fahrzeugeinbaueinheit auch auf Umgebungsgeräusche und gewöhnliche Konversation im Fahrzeug anspricht, wodurch sie das Ergebnis von der Erkennung unbewusster Sprache eines Benutzers erzeugt.
  • Andererseits ist auch eine andere Fahrzeugeinbaueinheit bekannt gewesen, in welcher die gesamte Information, die von einem Benutzer benötigt wird, in der Fahrzeugeinbaueinheit gespeichert ist und dem Benutzerin geeigneter Weise bereitgestellt wird. In der Fahrzeugeinbaueinheit wie dieser, muss eine enorme Informationsmenge gespeichert werden und die Information verliert mit Verstreichen der Zeit an Aktualität. Demnach kann in einem Fall, in dem die gespeicherte Information nicht regelmäßig aktualisiert wird, die Fahrzeugeinbaueinheit dieses Typs den Benutzer nicht mit der neuesten Information versorgen. Demnach benötigt es in dieser Art von Fahrzeugeinbaueinheit einen enormen Zeitaufwand und Arbeit, die Information zu aktualisieren und es ist unvermeidbar, die Kosten zu erhöhen.
  • RESÜMEE DER ERFINDUNG
  • Die vorliegende Erfindung wurde gemacht, um die obigen Probleme zu lösen. Das Ziel der Erfindung ist es, eine Fahrzeugeinbaueinheit und einen Sprachkonversationsdokument-Erzeugungsserver bereitzustellen, die das Durchführen von Sprachkonversation mit Hilfe von Spracherkennung unter Berücksichtigung von Umgebungsumständen ausführen können und einen Benutzer durch die Sprachkonversation mit der neuesten Information versorgen können, und ein diese verwendendes Navigationssystem.
  • Um das oben beschriebene Ziel zu erreichen, schließt eine Fahrzeugeinbaueinheit in Übereinstimmung mit der vorliegenden Erfindung ein: einen Spracherkennungsteil, der eingegebene Sprache erkennt zum Ausgeben der eingegebenen Sprache als ein erkanntes Wort; einen Positionserfassungsteil, der eine momentane Position eines Fahrzeugs erfasst und die momentane Position als Momentanpositionsinformation ausgibt; einen Fahrverhaltensevaluierungsteil, der das Fahrverhalten evaluiert; einen Steuerteil, der eine Sprachkonversationsdokument-Erzeugungsanfrage erzeugt, die das von dem Spracherkennungsteil erhaltene Wort einschließt und die von dem Positionserfassungsteil, wenn das erkannte Wort von dem Spracherkennungsteil erhalten worden ist und wenn das Evaluieren durch den Fahrverhaltensevaluierungsteil eine vorbestimmte Referenz erfüllt, erhaltene Momentanpositionsinformation einschließt; einen Sendeteil, der die Sprachkonversationsdokument-Erzeugungsanfrage, die von dem Steuerteil erzeugt worden ist, nach außen sendet; einen Empfangsteil, der ein von außen als Reaktion auf das Senden von dem Sendeteil gesendetes Sprachkonversationsdokument empfängt; einen Sprachkonversationsdokument-Analyseteil, der das von dem Empfangsteil empfangene Sprachkonversationsdokument analysiert; einen Sprachkonversationsteil, der Sprachkonversation in Übereinstimmung mit einem Analyseergebnis durch den Sprachkonversationsdokument-Analyseteil ausführt; und einen Ausgabeteil synthetischer Sprache, der ein von der Sprachkonversation durch den Sprachkonversationsteil hergeleitetes Ergebnis ausgibt.
  • Ferner schließt ein Sprachkonversationsdokument-Erzeugungsserver in Übereinstimmung mit der vorliegenden Erfindung ein: einen Empfangsteil, der eine Sprachkonversationsdokument-Erzeugungsanfrage empfängt, die von einem bewegten Gegenstand gesendet worden ist und ein erkanntes Wort und die momentane Positionsinformation des bewegten Gegenstandes einschließt; einen Informationsauffindeteil, der einen externen Informationsauffindeserver absucht unter Verwendung eines Informationssuchworts, das basierend auf dem in der von dem Empfangsteil empfangenen Sprachkonversationsdokument-Erzeugungsanfrage enthaltenen Worts erzeugt wird; einen Sprachkonversationsdokument-Erzeugungsteil, der ein von dem externen Informationsauffindeserver durch den Informationsauffindeteil als Reaktion auf die von dem Empfangsteil empfangene Sprachkonversationsdokument-Erzeugungsanfrage aufgefundene Information einschließendes Sprachkonversationsdokument erzeugt; und einen Sendeteil, der das von dem Sprachkonversationsdokument-Erzeugungsteil erzeugte Sprachkonversationsdokument sendet.
  • Noch ferner schließt ein Navigationssystem in Übereinstimmung mit der vorliegenden Erfindung ein: eine Fahrzeugeinbaueinheit, einen Sprachkonversationsdokument-Erzeugungsserver; und einen Informationsauffindeserver, wobei die Fahrzeugeinbaueinheit einschließt: einen Positionserfassungsteil, der eine momentane Position eines Fahrzeugs erfasst und die momentane Position als Momentanpositionsinformation ausgibt; einen Fahrverhaltensevaluierungsteil, der das Fahrverhalten evaluiert; einen Steuerteil, der eine Sprachkonversationsdokument-Erzeugungsanfrage erzeugt, die das von dem Spracherkennungsteil erhaltene Wort einschließt und die von dem Positionserfassungsteil, wenn das erkannte Wort von dem Spracherkennungsteil erhalten worden ist und wenn das Evaluieren durch den Fahrverhaltensevaluierungsteil eine vorbestimmte Referenz erfüllt, erhaltene Momentanpositionsinformation einschließt; einen ersten Sendeteil, der die Sprachkonversationsdokument-Erzeugungsanfrage, die von dem Steuerteil erzeugt worden ist, nach außen sendet; einen ersten Empfangsteil, der ein von außen als Reaktion auf das Senden von dem ersten Sendeteil gesendetes Sprachkonversationsdokument empfängt; einen Sprachkonversationsdokument-Analyseteil, der das von dem ersten Empfangsteil empfangene Sprachkonversationsdokument analysiert; einen Sprachkonversationsteil, der Sprachkonversation in Übereinstimmung mit einem Analyseergebnis durch den Sprachkonversationsdokument-Analyseteil ausführt; und einen Ausgabeteil synthetischer Sprache, der ein von der Sprachkonversation durch den Sprachkonversationsteil hergeleitetes Ergebnis ausgibt; wobei der Sprachkonversationsdokument-Erzeugungsserver einschließt: einen Empfangsteil, der von der Fahrzeugeinbaueinheit gesendete Sprachkonversationsdokument-Erzeugungsanfrage empfängt; einen Informationsauffindeteil, der einen externen Informationsauffindeserver absucht unter Verwendung eines Informationssuchworts, das basierend auf dem in der von dem Empfangsteil empfangenen Sprachkonversationsdokument-Erzeugungsanfrage enthaltenen Worts erzeugt wird; einen Sprachkonversationsdokument-Erzeugungsteil, der ein von dem externen Informationsauffindeserver durch den Informationsauffindeteil als Reaktion auf die von dem Empfangsteil empfangene Sprachkonversationsdokument-Erzeugungsanfrage aufgefundene Information einschließendes Sprachkonversationsdokument erzeugt; und einen zweiten Sendeteil, der das von dem Sprachkonversationsdokument-Erzeugungsteil erzeugte Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit sendet.
  • Die Fahrzeugeinbaueinheit gemäß der vorliegenden Erfindung ist so aufgebaut, dass sie eine Sprachkonversationsdokument-Erzeugungsanfrage erzeugt und die Anfrage nach außen in einem Fall sendet, in dem das erkannte Wort von dem Spracherkennungsteil ermittelt worden ist und wenn die Evaluierung durch den Fahrverhaltenevaluierungsteil die vorbestimmte Referenz erfüllt. Wenn demnach die Umgebungsgeräusche groß sind, und selbst wenn eine gewöhnliche Konversation im Fahrzeug ausgeführt wird, erfüllt die Evaluierung durch den Fahrverhaltenevaluierungsteil nicht die vorbestimmte Referenz, und die Sprachkonversationsdokument-Erzeugungsanfrage wird nicht nach außen gesendet. Demnach kann Sprachkonversation durch die Spracherkennung unter Berücksichtigung der Umgebungsumstände ausgeführt werden und demnach wird eine unbedachte Sprachkonversation des Benutzers nicht gestartet und es wird auch kein von der Sprachkonversation hergeleitetes Ergebnis ausgegeben.
  • Gemäß dem Sprachkonversationsdokument-Erzeugungsserver kann in einem Fall, in dem die Sprachkonversationsdokument-Erzeugungsanfrage von außen empfangen wird, das Sprachkonversationsdokument einschließlich der von dem externen Informationsauffindeserver geholten Information erzeugt werden. Demnach ist es möglich, ein Sprachkonversationsdokument basierend auf der neuesten Information zu erzeugen. Daher wird immer die neueste Information hergeleitet durch die Sprachkonversation, die basierend auf dem Sprachkonversationsdokument ausgeführt wird und demnach kann der Benutzer mit der neuesten Information versorgt werden. Gemäß dem Navigationssystem in Übereinstimmung mit der vorliegenden Erfindung ist es möglich, ein Navigationssystem bereitzustellen mit den Vorteilen sowohl der Fahrzeugeinbaueinheit als auch des Sprachkonversationsdokument-Erzeugungsservers.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1 den Gesamtaufbau eines Navigationssystems gemäß Ausführungsform 1 der vorliegenden Erfindung;
  • 2 ein Blockdiagramm des Detailaufbaus des Navigationssystems in Übereinstimmung mit Ausführungsform 1 der vorliegenden Erfindung;
  • 3 ein Ablaufdiagramm einer Verarbeitungsprozedur von der Spracherkennung zum Senden einer Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsserver, welche von der Fahrzeugeinbaueinheit ausgeführt wird;
  • 4 ein Ablaufdiagramm des Betriebs des Sprachkonversationsdokument-Erzeugungsservers, der die Sprachkonversationsdokument-Erzeugungsanfrage von der Fahrzeugeinbaueinheit empfängt; und
  • 5 ein Ablaufdiagramm einer Verarbeitungsprozedur, durch welche eine Fahrzeugeinbaueinheit ein Sprachkonversationsdokument von dem Sprachkonversationsdokument-Erzeugungsserver empfängt und Sprachkonversation ausführt.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Nachstehend wird die bevorzugte Ausführungsform der vorliegenden Erfindung detailliert unter Bezugnahme auf die Zeichnungen beschrieben.
  • Ausführungsform 1
  • Zuerst wird eine Gliederung des Navigationssystems in Übereinstimmung mit der Ausführungsform 1 der vorliegenden Erfindung beschrieben. 1 zeigt den Gesamtaufbau des Navigationssystems in Übereinstimmung mit Ausführungsform 1 der vorliegenden Erfindung. Dieses Navigationssystem setzt sich aus einer Fahrzeugeinbaueinheit 1 zusammen, die in einem Fahrzeug montiert ist, einem Sprachkonversationsdokument-Erzeugungsserver 2 und einer Vielzahl von Informationsauffindeservern 31, 32, 33 (diese werden nachstehend durch ein Bezugszeichen "3" versinnbildlicht). Die Fahrzeugeinbaueinheit 1 ist mit dem Sprachkonversationsdokument-Erzeugungsserver 2 über eine Drahtloskommunikationsleitung verbunden. Ferner ist der Sprachkonversationsdokument-Erzeugungsserver 2 mit einer Vielzahl von Informationsauffindeservern 3 über Drahtloskommunikationsleitungen oder verdrahtete Kommunikationsleitungen verbunden.
  • Die Fahrzeugeinbaueinheit erzeugt eine Sprachkonversationsdokument-Erzeugungsanfrage, die ein durch Erkennen von in einem Fahrzeug geäußerter Sprache ermitteltes erkanntes Wort und die Momentanpositionsinformation des Fahrzeugs einschließt, und sendet die Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsserver 2. Ferner führt die Fahrzeugeinbaueinheit 1 Sprachkonversation mit einem Benutzer durch Sprache durch in Übereinstimmung mit einem Sprachkonversationsdokument, das von dem Sprachkonversationsdokument-Erzeugungsserver 2 gesendet worden ist und stellt dem Benutzer geeignete Information in Bezug auf das Ergebnis dieser Sprachkonversation bereit. Der detaillierte Aufbau dieser Fahrzeugeinbaueinheit 1 wird später beschrieben.
  • Der Sprachkonversationsdokument-Erzeugungsserver 2 erzeugt das Sprachkonversationsdokument in Übereinstimmung mit der Sprachkonversationsdokument-Erzeugungsanfrage, die von der Fahrzeugeinbaueinheit 1 gesendet wird. Das Sprachkonversationsdokument ist ein Dokument, in welchem eine Abfolge von Konversation zwischen der Fahrzeugeinbaueinheit 1 und dem Benutzer beschrieben wird. Ferner, wenn der Sprachkonversationsdokument-Erzeugungsserver 2 das Sprachkonversationsdokument erzeugt, durchsucht der Sprachkonversationsdokument-Erzeugungsserver 2 den Informationsauffindeserver 3 unter Verwendung eines Informationssuchworts, das basierend auf dem erkannten Wort und der Momentanpositionsinformation des Fahrzeugs erzeugt wird, welche in der Sprachkonversationsdokument-Erzeugungsanfrage enthalten sind. Der Sprachkonversationsdokument-Erzeugungsserver 2 bringt von dem Informationsauffindeserver 3 ermittelte Information in das Sprachkonversationsdokument ein. Das Sprachkonversationsdokument, das von dem Sprachkonversationsdokument-Erzeugungsserver 2 erzeugt wird, wird zu der Fahrzeugeinbaueinheit 1 gesendet. Der detaillierte Aufbau dieses Sprachkonversationsdokument-Erzeugungsservers 2 wird später beschrieben.
  • Der Informationsauffindeserver 3 setzt sich zusammen aus beispielsweise verschiedenen Servern, die mit einem Netz verbunden sind. Der Informationsauffindeserver 3 findet Information in Bezug auf das Informationssuchwort, welches von dem Sprachkonversationsdokument-Erzeugungsserver 2 gesendet worden ist, aus der darin gespeicherten Information und sendet die ermittelte Information an den Sprachkonversationsdokument-Erzeugungsserver 2.
  • Als nächstes wird der detaillierte Aufbau des Navigationssystems beschrieben, das in der oben beschriebenen Weise aufgebaut ist. 2 ist ein Blockdiagramm zum Zeigen des detaillierten Aufbaus des Navigationssystems in Übereinstimmung mit Ausführungsform 1 der vorliegenden Erfindung.
  • Zuerst wird die Fahrzeugeinbaueinheit 1 beschrieben. Die Fahrzeugeinbaueinheit 1 setzt sich aus einem Spracheingabeteil 10, einem Spracherkennungsteil 11, einem Positionserfassungsteil 12, einem Fahrverhaltenevaluierungsteil 13, einem Steuerteil 14, einem Kommunikationsteil (Sendeteil und Empfangsteil oder erster Sendeteil und erster Empfangsteil) 15, einem Sprachkonversationsdokumentanalyseteil 16, einem Sprachkonversationsteil 17, einem Sprachsyntheseteil 18, einem Ausgabeteil synthetisierter Sprache 19, einem Pfadsuchteil 20 und einem Anzeigeteil 21 zusammen.
  • Der Spracheingabeteil 10 besteht beispielsweise aus einem Mikrofon, einem Verstärker und ähnlichem und nimmt die Konversation eines Fahrzeuginsassen auf und erzeugt ein Sprachsignal. Das von dem Spracheingabeteil 10 erzeugte Sprachsignal wird zu dem Spracherkennungsteil 11 gesendet.
  • Der Spracherkennungsteil 11 führt eine Spracherkennungsverarbeitung des von dem Spracheingabeteil 10 gesendeten Sprachsignals aus. Ein erkanntes Wort, das durch die Spracherkennungsverarbeitung in dem Spracherkennungsteil 11 erkannt wird, wird zu dem Steuerteil 14 gesendet, wenn Sprachkonversation nicht ausgeführt worden ist oder zu dem Sprachkonversationsdokumentanalyseteil 16, wenn die Sprachkonversation ausgeführt worden ist.
  • Der Positionserfassungsteil 12 erfasst die momentane Position des Fahrzeugs. Der Positionserfassungsteil 12 schließt einen GPS-Empfänger ein, einen Richtungssensor, einen Entfernungssensor und ähnliches, obwohl sie nicht in der Zeichnung gezeigt sind, und kann immer die Momentanposition des Fahrzeugs ermitteln, unabhängig von den Umgebungsumständen. Die Momentanpositionsinformation, die die Momentanposition des Fahrzeugs zeigt, welche von dem Positionserfassungsteil 12 erfasst wird, wird zu dem Steuerteil 14 gesendet.
  • Der Fahrverhaltenevaluierungsteil 13 digitalisiert und speichert ein Fahrverhalten von Fahrer und Fahrzeug. Beispielsweise erfasst der Fahrverhaltenevaluierungsteil 13 die kontinuierliche Fahrzeit, die Anzahl von Unterbrechungszeiten, die Anzahl von Kurven und ähnliches des Fahrzeugs mit Hilfe verschiedener Arten von in dem Fahrzeug vorgesehener Sensoren und evaluiert den Ermüdungsgrad des Fahrers für ein Maximum von beispielsweise 1000 Markierungen basierend auf diesen Erfassungsergebnissen und speichert den Ermüdungsgrad des Fahrers als Fahrverhaltenspunkt. Der in diesem Fahrverhaltenevaluierungsteil 13 gespeicherte Fahrverhaltenspunkt wird von dem Steuerteil 14 gelesen.
  • Wenn der Steuerteil 14 das erkannte Wort von dem Spracherkennungsteil 11 ermittelt, liest der Steuerteil 14 den Evaluierungspunkt von dem Fahrverhaltensevaluierungsteil 13 und vergleicht den Evaluierungspunkt mit einem vorbestimmten Referenzwert zum Bestimmen von Bedingungen des Fahrers. In einem Fall, in dem der Evaluierungspunkt den Referenzwert übersteigt, das heißt, die Evaluierung erfüllt die vorbestimmte Referenz, erzeugt der Steuerteil 14 eine Sprachkonversationsdokument-Erzeugungsanfrage, die die von dem Positionserfassungsteil 12 ermittelte Momentanpositionsinformation und das erkannte Wort einschließt und sendet die Sprachkonversationsdokument- Erzeugungsanfrage an den Sprachkonversationsdokument-Erzeugungsserver 2 über den Kommunikationsteil 15.
  • Der Kommunikationsteil 15 steuert die Kommunikationsabläufe zwischen der Fahrzeugeinbaueinheit 1 und dem Sprachkonversationsdokument-Erzeugungsserver 2. Das heißt, der Kommunikationsteil 15 übermittelt durch Funkkommunikation die von dem Steuerteil 14 gesendet Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsserver 2 und schließt das erkannte Wort und die Momentanpositionsinformation ein und empfängt das Sprachkonversationsdokument, welches von dem Sprachkonversationsdokument-Erzeugungsserver 2 gesendet worden ist, über Funkkommunikation und sendet das Sprachkonversationsdokument zu dem Sprachkonversationsdokument-Analyseteil 16.
  • Der Sprachkonversationsdokument-Analyseteil 16 analysiert das Sprachkonversationsdokument, welches von dem Sprachkonversationsdokument-Erzeugungsserver 2 über den Kommunikationsteil 15 empfangen worden ist und sendet Analyseergebnisse zu dem Sprachkonversationsteil 17. Ferner führt der Sprachkonversationsdokument-Analyseteil 16 eine Verarbeitung des Fortschreitens der Sprachkonversation aus, wenn der Sprachkonversationsdokument-Analyseteil 16 das erkannte Wort von dem Spracherkennungsteil 11 während der Sprachkonversation empfängt. Noch ferner zeigt der Sprachkonversationsdokument-Analyseteil 16 Ergebnisse, die von der Sprachkonversation ermittelt worden sind, auf dem Anzeigeteil 21 an, um den Benutzer mit Information zu versorgen. Noch ferner weist in einem Fall, in dem die dem Benutzer bereitgestellte Information eine positionszeigende Information einschließt, der Sprachkonversationsdokument-Analyseteil 16 den Pfadsuchteil 20 an, einen Pfad zu einem bestimmten Ort der Position zu suchen oder einen Pfad, der die Position durchläuft.
  • Der Sprachkonversationsteil 17 führt eine Verarbeitung in Bezug auf das Realisieren von Sprachkonversation aus, basierend auf den Analyseergebnissen, die von dem Sprachkonversationsdokument-Analyseteil 16 gesendet worden sind. Verarbeitungsergebnisse in dem Sprachkonversationsteil 17 werden als Sprachdaten zu dem Sprachsyntheseteil 18 gesendet.
  • Der Sprachsyntheseteil 18 führt basierend auf von dem Sprachkonversationsteil 17 gesendeten Sprachdaten Sprachsyntheseverarbeitung aus zum Erzeugen eines Sprachsignals. Das von dem Sprachsyntheseteil 18 erzeugte Sprachsignal wird an den Ausgabeteil für synthetisierte Sprache 19 gesendet. Der Ausgabeteil 19 für synthetisierte Sprache besteht beispielsweise aus einem Lautsprecher und erzeugt Sprache in Übereinstimmung mit dem Sprachsignal von dem Sprachsyntheseteil 18.
  • Wenn der Pfadsuchteil 20 durch den Sprachkonversationsdokument-Analyseteil 16 angewiesen wird, einen Pfad zu suchen, sucht der Pfadsuchteil 20 einen Pfad von der Momentanposition zu einem Bestimmungsort oder einer Zwischenstation und stellt eine Anleitung in Bezug auf den gesuchten Pfad bzw. die Strecke bereit. Pfaddaten und Anweisungsdaten, die von dem Pfadsuchteil 20 beim Suchen eines Pfades ermittelt worden sind, werden zu dem Anzeigeteil 21 gesendet. Der Anzeigeteil 21 besteht beispielsweise aus einer Flüssigkristallanzeige und zeigt Information an, die von dem Sprachkonversationsdokument-Analyseteil 16 gesendet wird und dem Benutzer bereitzustellen ist, zeigt basierend auf den Pfaddaten, die von dem Pfadsuchteil 20 gesendet worden sind, eine Strecke an und zeigt eine Anleitungsmeldung basierend auf den Anleitungsdaten an, die von dem Pfadsuchteil 20 gesendet worden sind. Wenn der Benutzer auf diesen Anzeigeteil 20 schaut, kann der Benutzer von den Ergebnissen der Sprachkonversation hergeleitete Information sehen, die Strecke zu dem Bestimmungsort oder der Zwischenstation, die basierend auf den Ergebnissen der Sprachkonversation festgelegt worden sind und die Anleitungsmeldung.
  • Als nächstes wird der Sprachkonversationsdokument-Erzeugungsserver 2 beschrieben. Der Sprachkonversationsdokument-Erzeugungsserver 2 besteht aus einem Kommunikationsteil (Sendeteil und Empfangsteil oder zweiter Sendeteil und zweiter Empfangsteil) 30, einem Sprachkonversationsdokumentmodellspeicherteil 31, einem Sprachkonversationsdokumentspeicherteil 32, einem Sprachkonversationsdokument-Erzeugungsteil 33, einer Suchwortdatenbank 34, einem Informationssuchwortermittlungsteil 35 und einem Informationsauffindeteil 36.
  • Der Kommunikationsteil 30 steuert Kommunikationsabläufe zwischen dem Sprachkonversationsdokument-Erzeugungsserver 2 und der Fahrzeugeinbaueinheit 1. Das heißt, der Kommunikationsteil 30 empfängt die Sprachkonversationsdokument-Erzeugungsanfrage, die von der Fahrzeugeinbaueinheit 1 über Funkkommunikation gesendet worden ist und die das erkannte Wort und die Momentanpositionsinformation einschließt und sendet die Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsteil 32 und empfängt das Sprachkonversationsdokument, das von dem Sprachkonversationsdokument-Erzeugungsteil 32 erzeugt worden ist und sendet das Sprachkonversationsdokument über Funkkommunikation zu der Fahrzeugeinbaueinheit 1.
  • Der Sprachkonversationsdokumentmodell-Speicherteil 31 speichert Sprachkonversationsdokumentmodelle. Das Sprachkonversationsdokumentmodell besteht aus Ursprungsdaten zum Erzeugen eines Sprachkonversationsdokumentes und besteht aus einer Abfolge von Konversationsvorgängen für ein bestimmtes Ereignis. Beispielsweise wird nachstehend ein Beispiel eines Sprachkonversationsdokumentmodells beschrieben, das sich aus fünf Abfolgeschritten (1) bis (5) zusammensetzt für ein Ereignis, einen Benutzer zu veranlassen, eine Pause einzulegen.
    • (1) Fahrzeugeinbaueinheit: werden Sie eine Pause einlegen?
    • (2) Benutzer: Ja
    • (3) Fahrzeugeinbaueinheit: werden Sie in ein in der Nähe befindliches Rasthaus gehen?
    • (4) Benutzer: Ja
    • (5) Fahrzeugeinbaueinheit: Ich lege "xxxx" als Zwischenstation fest.
  • Ein durch "xxxx" gezeigter Teil in diesem Sprachkonversationsdokumentmodell ist ein unbestimmter Teil und wird dynamisch basierend auf der Momentanposition des Fahrzeugs und Information, die von dem Informationsauffindeteil 36 ermittelt wird, bestimmt. Der Inhalt dieses Sprachkonversationsdokumentmodell-Speicherteils 31 wird von dem Sprachkonversationsdokument-Erzeugungsteil 33 gelesen.
  • An dieser Stelle bedeutet der Ausdruck "Rasthaus" eine Einrichtung zum Rasten, die an einer gewöhnlichen Strasse vorgesehen ist, um mit einem Gefühl der Sicherheit verwendet zu werden, um einen glatten Verkehrsstrom in einer zunehmenden Flut von Langstreckenfahrten zu bilden und Fahrer von Frauen und älteren Leuten. Um genauer zu sein, das "Rasthaus" bedeutet eine Rasteinrichtung, die drei Funktionen hat von einer Rastfunktion für Straßenbenutzer, einer Funktion des Bereitstellens von Information für Straßenbenutzer und Leute aus der Gegend und eine gegendbezogene Funktion der Förderung eines Zusammenhalts zwischen Städten in dem Bereich beim Verwenden des Rasthauses.
  • Der Sprachkonversationsdokument-Speicherteil 32 speichert ein Sprachkonversationsdokument, das von dem Sprachkonversationsdokument-Erzeugungsteil 33 erzeugt wird.
  • Der Sprachkonversationsdokument-Erzeugungsteil 33 bringt geeignete Wörter in den unbestimmten Teil in dem Sprachkonversationsdokumentmodell ein, welches von dem Sprachkonversationsdokument-Speicherteil 31 gelesen worden ist zum Erzeugen eines Sprachkonversationsdokumentes. Das Sprachkonversationsdokument, das von dem Sprachkonversationsdokument-Erzeugungsteil 33 erzeugt worden ist, wird in dem Sprachkonversationsdokument-Speicherteil 32 gespeichert. Ferner liest der Sprachkonversationsdokument-Erzeugungsteil 33 das in dem Sprachkonversationsdokument-Speicherteil 32 gespeicherte Sprachkonversationsdokument und übermittelt das Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit 1 über den Kommunikationsteil 30.
  • Die Suchwortdatenbank 34 speichert Informationssuchwörter, die sich auf erkannte Wörter beziehen, die in der von der Fahrzeugeinbaueinheit 1 gesendeten Sprachkonversationsdokument-Erzeugungsanfrage enthalten sind. Beispielsweise speichert die Suchwortdatenbank 34 Informationssuchwörter, wie "Rastplatz", "Rasthaus" und "Raststätte" in Bezug auf ein erkanntes Wort "müde". Der Inhalt dieser Suchwortdatenbank 34 wird von dem Informationssuchwortermittlungsteil 35 gelesen.
  • Wenn ein Suchwort von dem Sprachkonversationsdokument-Erzeugungsteil 33 gesendet wird, ermittelt der Informationssuchwortermittlungsteil 35 Informationssuchwörter, die dem erkannten Wort entsprechen von der Suchwortdatenbank und sendet die Informationssuchwörter zu dem Sprachkonversationsdokument-Erzeugungsteil 33. Wenn beispielsweise das erkannte Wort "müde" von dem Sprachkonversationsdokument-Erzeugungsteil 33 gesendet wird, sucht der Informationssuchwortermittlungsteil 35 in der Suchwortdatenbank 34 und ermittelt die Informationssuchwörter, wie zum Beispiels "Rastplatz", "Rasthaus" und "Raststätte" und sendet sie zu dem Sprachkonversationsdokument-Erzeugungsteil 33.
  • Wenn ein Informationssuchwort von dem Sprachkonversationsdokument-Erzeugungsteil 33 gesendet wird, durchsucht der Informationsermittlungsteil 36 den Informationsauffindeserver 3 unter Verwendung des Informationssuchworts. Durch dieses Ermitteln erlangte Information wird zu dem Sprachkonversationsdokument-Erzeugungsteil 33 gesendet.
  • Als nächstes wird der Betrieb des Navigationssystems in Übereinstimmung mit Ausführungsform 1 der vorliegenden Erfindung unter Bezugnahme auf ein in 3 bis 4 gezeigtes Ablaufdiagramm beschrieben. Ein Betrieb in einem Fall, in dem ein Fahrer ein Wort "müde" in einem Fahrzeug äußert, wird nachstehend als Beispiel beschrieben.
  • 3 ist ein Ablaufdiagramm zum zeigen einer Verarbeitungsprozedur von Spracherkennung zu dem Senden einer Sprachkonversationsdokument-Erzeugungsanfrage an den Sprachkonversationsdokument-Erzeugungsserver 2, welche immer von der Fahrzeugeinbaueinheit 1 ausgeführt wird.
  • Zuerst, wenn ein Bedienpaneel (nicht dargestellt) der Fahrzeugeinbaueinheit 1 bedient wird, wird der Start der Vollzeitspracherkennung eingestellt (Schritt ST10). Damit wird eine Konversation im Fahrzeug immer von dem Spracheingabeteil 10 aufgenommen und wird zu dem Spracherkennungsteil 11 gesendet.
  • Als nächstes wird geprüft, ob Spracherkennung erfolgreich ausgeführt wird (Schritt ST11). Das heißt, der Spracherkennungsteil 11 führt eine Spracherkennungsverarbeitung an einem Sprachsignal aus, welches von dem Spracheingabeteil 1 gesendet wird, um zu prüfen, ob Spracherkennung erfolgreich ausgeführt wird. An dieser Stelle, wenn bestimmt wird, dass die Spracherkennung nicht erfolgreich ausgeführt wird während des Wiederholens von Schritt ST11, wartet der Ablauf bis die Spracherkennung erfolgreich ausgeführt wird. Dann, wenn die Spracherkennung erfolgreich ausgeführt wird im Laufe der Wiederholung des Schrittes ST11 und bestimmt wird, dass ein erkanntes Wort "müde" ermittelt wird, wird der Evaluierungspunkt des Fahrverhaltens ermittelt (Schritt ST12). Das heißt, wenn der Steuerteil 14 das erkannte Wort "müde" von dem Spracherkennungsteil ermittelt, ermittelt der Steuerteil 14 einen in dem Fahrverhaltenevaluierungsteil 13 gespeicherten Evaluierungspunkt.
  • Als nächstes wird geprüft, ob das Fahrverhalten eine Referenz erfüllt (Schritt ST13). Das heißt, der Steuerteil 14 prüft, ob oder nicht der von dem Fahrverhaltenevaluierungsteil 13 ermittelte Evaluierungspunkt größer als ein vorbestimmter Referenzwert ist. Wenn bei diesem Schritt ST13 bestimmt wird, dass das Fahrverhalten die Referenz nicht erfüllt, mit anderen Worten, dass der Evaluierungspunkt nicht den vorbestimmten Referenzwert erfüllt, wird erkannt, dass der Fahrer noch nicht müde ist und der Fahrer braucht nicht mit Information versorgt zu werden und der Ablauf kehrt zurück zu Schritt ST11. Dann wird die oben beschriebene Verarbeitung wiederholt.
  • Andererseits, wenn bei Schritt ST13 bestimmt wird, dass das Fahrverhalten die Referenz erfüllt, mit anderen Worten, dass der Evaluierungspunkt größer als der vorbestimmte Referenzwert ist, wird erkannt, dass der Fahrer müde ist und mit Information versorgt werden muss, und Momentanpositionsinformation wird ermittelt (Schritt ST14). Das heißt, der Steuerteil 14 ermittelt die Momentanpositionsinformation des Fahrzeugs von dem Positionserfassungsteil 12.
  • Als nächstes erzeugt der Steuerteil 14 eine Sprachkonversationsdokument-Erzeugungsanfrage, die die bei Schritt ST14 ermittelte Momentanpositionsinformation enthält und das erkannte Wort "müde" und sendet die Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsserver 2 über den Kommunikationsteil 15 (Schritt ST15). Daraufhin, obwohl es in der Zeichnung nicht gezeigt ist, wartet die Fahrzeugeinbaueinheit 1 auf den Empfang des Sprachkonversationsdokumentes von dem Sprachkonversationsdokument-Erzeugungsserver 2.
  • 4 ist ein Ablaufdiagramm zum Zeigen einer Verarbeitungsprozedur, dass der Sprachkonversationsdokument-Erzeugungsserver 2, der von der Fahrzeugeinbaueinheit 1 die Sprachkonversationsdokument-Erzeugungsanfrage empfangen hat, ein Sprachkonversationsdokument erzeugt und das Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit 1 sendet.
  • Der Sprachkonversationsdokument-Erzeugungsserver 2 ermittelt zuerst das erkannte Wort und die Momentanpositions-Information, die in der Sprachkonversationsdokument-Erzeugungsanfrage enthalten sind (Schritt ST20). Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 ermittelt das erkannte Wort und die Momentanpositionsinformation, die in der Sprachkonversationsdokument-Erzeugungsanfrage enthalten sind, die von der Fahrzeugeinbaueinheit 1 über den Kommunikationsteil 30 empfangen worden ist.
  • Als nächstes wird ein Sprachkonversationsdokument-Modell ausgewählt (Schritt ST21). Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 wählt und lies ein Sprachkonversationsdokument-Modell aus, das sich auf das erkannte Wort "müde" bezieht, aus dem Sprachkonversationsdokument-Modellspeicherteil 31.
  • Als nächstes wird ein Informationssuchwort basierend auf dem erkannten Wort ermittelt (Schritt ST22). Um genau zu sein, der Sprachkonversationsdokument-Erzeugungsteil 33 sendet das erkannte Wort zu dem Informationssuchwort-Ermittlungsteil 35 und instruiert den Informationssuchwort-Ermittlungsteil 35, dass entsprechende Informationssuchwort zu erlangen. Der Informationssuchwort-Ermittlungsteil 35 durchsucht die Suchwortdatenbank 34 ansprechend auf die Anweisung von dem Sprachkonversationsdokument-Erzeugungsteil 33. Wenn der Informationssuchwort-Ermittlungsteil 35 die Informationssuchwörter findet, die dem erkannten Wort entsprechen, führt der Informationssuchwort-Ermittlungsteil 35 die Informationssuchwörter wie "Rastplatz", "Rasthaus" und "Raststätte" als Suchergebnisse zu dem Sprachkonversationsdokument-Erzeugungsteil 33.
  • Als nächstes wird geprüft, ob oder nicht das Informationssuchwort gefunden worden ist (Schritt ST23). Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 prüft, ob oder nicht das Suchergebnis, das von dem Informationssuchwort-Ermittlungsteil 35 empfangen worden ist, zeigt, dass das Informationssuchwort gefunden worden ist.
  • Wenn bei diesem Schritt ST23 bestimmt wird, dass das Informationssuchwort gefunden worden ist, wird eine Abfrage vorgenommen zu dem Informationsauffindeserver 3 basierend auf dem Informationssuchwort und der Momentanpositionsinformation (Schritt ST24). Um genau zu sein, der Sprachkonversationsdokument-Erzeugungsteil 33 sendet das Informationssuchwort und die Momentanpositionsinformation zu dem Informationsauffindeteil 36 und weist den Informationsauffindeteil 36 an, Information aufzufinden, die sich auf jene bezieht. Daraufhin geht die Abfolge weiter zu Schritt ST26. Hiermit greift der Informationsauffindeteil 36 auf den Informationsauffindeserver 3 zu, um zu versuchen, Information zu erlangen, die sich auf das Informationssuchwort bezieht und die Momentanpositions-Information. Wenn es diesbezügliche Information gibt, führt der Informationsauffindeteil 36 die diesbezügliche Information als Suchergebnis zu dem Sprachkonversationsdokument-Erzeugungsteil 33 zurück. Andererseits, wenn im Schritt ST23 bestimmt wird, dass das Informationssuchwort nicht gefunden worden ist, wird eine Abfrage zu dem Informationsauffindeserver 3 vorgenommen basierend auf dem erkannten Wort und der Momentanpositionsinformation (Schritt ST25). Um genau zu sein, der Sprachkonversationsdokument-Erzeugungsteil 33 sendet das erkannte Wort und die Momentanpositionsinformation zu dem Informationsauffindeteil 36 und weist den Informationsauffindeteil 36 an, Information zu ermitteln, die sich auf jene bezieht. Daraufhin geht die Abfolge zu Schritt ST26. Hiermit greift der Informationsauffindeteil 36 auf den Informationauffindeserver 3 zu, um zu versuchen, Information zu erlangen, die sich auf das Informationssuchwort bezieht und die Momentanpositionsinformation. Wenn es die diesbezügliche Information gibt, führt der Informationsauffindeteil 36 die Information als Suchergebnis zu dem Sprachkonversationsdokument-Erzeugungsteil 33 zurück.
  • Bei Schritt ST26 wird geprüft, ob oder nicht die diesbezügliche Information gefunden worden ist. Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 prüft, ob oder nicht das Suchergebnis, das von dem Informationsauffindeteil 36 empfangen worden ist, zeigt, dass die diesbezügliche Information gefunden worden ist.
  • Wenn bei diesem Schritt ST26 bestimmt wird, dass die diesbezügliche Information gefunden worden ist, wird die diesbezügliche Information, die als Suchergebnis ermittelt worden ist, in ein Sprachkonversationsdokument-Modell eingebracht (Schritt ST27). In dem oben beschriebenen Beispiel bringt der Sprachkonversationsdokument-Erzeugungsteil 33 den Namen eines Rasthauses in den Teil von "xxxx" des Sprachkonversationsdokument-Modells ein. Daraufhin geht die Abfolge zu Schritt ST29.
  • Andererseits, wenn bei diesem Schritt ST26 bestimmt wird, dass die diesbezügliche Information nicht gefunden worden ist, wird eine diesbezügliche Meldung in das Sprachkonversationsdokument-Modell eingebracht (Schritt ST28). In dem oben beschriebenen Beispiel bringt der Sprachkonversationsdokument-Erzeugungsteil 33 eine Meldung in Bezug darauf, dass kein Rasthaus gefunden worden ist, in den Teil von "xxxx" des Sprachkonversationsdokumenten-Modells ein. Daraufhin geht die Abfolge weiter zu Schritt ST29.
  • Bei Schritt ST29 wird das Sprachkonversationsdokument, das bei Schritt ST27 oder ST28 vollendet worden ist, gespeichert. Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 speichert das durch die bei Schritt ST27 oder ST28 eingebrachte Information vervollständigte Sprachkonversationsdokument in dem Sprachkonversationsdokument-Speicherteil 32.
  • Als nächstes wird das Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit 1 übermittelt (Schritt ST30). Das heißt, der Sprachkonversationsdokument-Erzeugungsteil 33 liest das Sprachkonversationsdokument, das bei Schritt ST29 gespeichert worden ist, von dem Sprachkonversationsdokument-Speicherteil 32 und übermittelt das Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit 1 über den Kommunikationsteil 30. Hiermit ist die Verarbeitung des Sprachkonversationsdokument-Erzeugungsservers 2 beendet.
  • 5 ist ein Ablaufdiagramm zum Zeigen einer Verarbeitungsprozedur, durch welche die Fahrzeugeinbaueinheit 1 ein Sprachkonversationsdokument von dem Sprachkonversationsdokument-Erzeugungsserver 2 empfängt und Sprachkonversation ausführt.
  • Die Fahrzeugeinbaueinheit 1 analysiert zuerst das Sprachkonversationsdokument (Schritt ST40). Das heißt, wenn der Steuerteil 14 das Sprachkonversationsdokument von dem Sprachkonversationsdokument-Erzeugungsserver 2 über den Kommunikationsteil 15 empfängt, sendet der Steuerteil 14 das Sprachkonversationsdokument zu dem Sprachkonversationsdokument-Analyseteil 16. Hiermit analysiert der Sprachkonversationsdokument-Analyseteil 16 das Sprachkonversationsdokument.
  • Als nächstes wird eine Sprachkonversation ausgeführt (Schritt ST41). Das heißt, der Sprachkonversationsdokument-Analyseteil 16 sendet ein Analyseergebnis zu dem Sprachkonversationsteil 17. Hiermit erzeugt der Sprachkonversationsteil 17 Sprachdaten und sendet die Sprachdaten zu dem Sprachsyntheseteil 18, und der Sprachsyntheseteil 18 erzeugt ein Sprachsignal basierend auf den Sprachdaten und sendet das Sprachsignal zu dem Ausgabeteil 19 für synthetisierte Sprache. Hiermit wird synthetisierte Sprache von dem Ausgabeteil 19 für synthetisierte Sprache ausgegeben, um einen Ruf zu dem Benutzer auszuführen.
  • Die Reaktion des Benutzers auf diesen Ruf wird umgesetzt in das Sprachsignal durch den Spracheingabeteil 10 und wird zu dem Spracherkennungsteil 11 gesendet. Der Spracherkennungsteil 11 führt die Spracherkennungsverarbeitung aus basierend auf dem Sprachsignal, welches von dem Spracheingabeteil 10 eingegeben worden ist, und sendet das erkannte Wort zu dem Sprachkonversationsdokument-Analyseteil 16. Der Sprachkonversationsdokument-Analyseteil 16 äußert das nächste in dem Sprachkonversationsdokument beschriebene Wort basierend auf dem erkannten Wort. Daraufhin werden das Äußern und das Erkennen der Antwort des Benutzers wiederholt bis alle in dem Sprachkonversationsdokument beschriebenen Schritte abgeschlossen worden sind.
  • Als nächstes werden Konversationsergebnisse angezeigt (Schritt ST42). Das heißt, wenn alle in dem Sprachkonversationsdokument beschriebenen Schritte abgeschlossen worden sind, zeigt der Sprachkonversationsdokument-Analyseteil 16 Ergebnisse an, die von der Sprachkonversation des Anzeigeteils 21 hergeleitet worden sind.
  • Als nächstes wird geprüft, ob oder nicht Positionsinformation (Information zum Zeigen eines Rasthauses) in den Ergebnissen der Sprachinformation enthalten ist (Schritt ST43). Wenn bestimmt wird, dass Positionsinformation in den Ergebnissen der Sprachkonversation enthalten ist, wird eine Sprachanweisung basierend auf der Positionsinformation bereitgestellt (Schritt ST44). Das heißt, der Sprachkonversationsdokument-Analyseteil 16 weist den Pfadsuchteil 20 an, einen Pfad zu einem durch die Positionsinformation gezeigten Bestimmungsort oder Zwischenaufenthalt zu suchen. Der Pfadsuchteil 20 sucht einen Pfad von der momentanen Position zu dem Bestimmungsort oder einem Zwischenaufenthalt und sendet ein Suchergebnis zu dem Anzeigeteil 21. Hiermit wird der gesuchte Pfad, mit anderen Worten die Strecke von der Momentanposition zu dem Rasthaus, und die Streckenerklärung an dem Anzeigeteil 21 angezeigt.
  • Wie oben beschrieben, erzeugt in Übereinstimmung mit dem Navigationssystem gemäß Ausführungsform 1 der vorliegenden Erfindung die Fahrzeugeinbaueinheit eine Sprachkonversationsdokument-Erzeugungsanfrage und sendet die Sprachkonversationsdokument-Erzeugungsanfrage zu dem Sprachkonversationsdokument-Erzeugungsserver 2 nur in einem Fall, in dem ein erkanntes Wort von dem Spracherkennungsteil 11 ermittelt worden ist und in dem eine Evaluierung durch den Fahrverhaltensevaluierungsteil 13 eine vorbestimmte Referenz erfüllt. Demnach, wenn Umgebungsgeräusche groß sind oder wenn eine gewöhnliche Konversation im Fahrzeug vorgenommen wird, erfüllt das Evaluieren durch den Fahrsituations- Evaluierungsteil 13 nicht die vorbestimmte Referenz, und eine Sprachkonversationsdokument-Anfrage wird nicht zu dem Sprachkonversationsdokument-Erzeugungsserver 2 gesendet. Daher wird auch kein Sprachkonversationsdokument von dem Sprachkonversationsdokument-Erzeugungsserver 2 zurückgesendet und demnach wird keine Sprachkonversation, die nicht von dem Benutzer gewünscht, gestartet, und ein von der unerwünschten Sprachkonversation hergeleitetes Ergebnis wird auch nicht angezeigt.
  • Ferner erzeugt in Übereinstimmung mit dem Navigationssystem gemäß der Ausführungsform 1 der vorliegenden Erfindung der Sprachkonversationsdokument-Erzeugungsserver 2 ein Sprachkonversationsdokument einschließlich Information, die von dem externen Informationsauffindeserver ermittelt worden ist, wenn der Sprachkonversationsdokument-Erzeugungsserver 2 eine Sprachkonversationsdokument-Erzeugungsanfrage von der Fahrzeugeinbaueinheit empfängt und kann demnach immer das Sprachkonversationsdokument basierend auf der neuesten Information erzeugen. Daher wird basierend auf dem Sprachkonversationsdokument immer die neueste Information von der Sprachkonversation ermittelt, welche in der Fahrzeugeinbaueinheit 1 ausgeführt wird, und demnach kann der Benutzer immer mit der neuesten Information versorgt werden.
  • Das Navigationssystem in Übereinstimmung mit der vorliegenden Erfindung kann nicht nur auf ein Fahrzeug angewendet werden, sondern auch auf ein Schiff, ein Flugzeug oder andere verschiedene Arten von bewegten Gegenständen und ein tragbares Telefon.

Claims (7)

  1. Fahrzeugeinbaueinheit (1), umfassend: einen Spracherkennungsteil (11), der eingegebene Sprache erkennt zum Ausgeben der eingegebenen Sprache als ein erkanntes Wort; einen Positionserfassungsteil (12), der eine momentane Position eines Fahrzeugs erfasst und die momentane Position als Momentanpositionsinformation ausgibt; einen Fahrverhaltensevaluierungsteil (13), der das Fahrverhalten evaluiert; einen Steuerteil (14), der eine Sprachkonversationsdokument-Erzeugungsanfrage erzeugt, die das von dem Spracherkennungsteil (11) erhaltene Wort einschließt und die von dem Positionserfassungsteil (12), wenn das erkannte Wort von dem Spracherkennungsteil (11) erhalten worden ist und wenn das Evaluieren durch den Fahrverhaltensevaluierungsteil (13) eine vorbestimmte Referenz erfüllt, erhaltene Momentanpositionsinformation einschließt; einen Sendeteil (15), der die Sprachkonversationsdokument-Erzeugungsanfrage, die von dem Steuerteil (14) erzeugt worden ist, nach außen sendet; einen Empfangsteil (15), der ein von außen als Reaktion auf das Senden von dem Sendeteil (15) gesendetes Sprachkonversationsdokument empfängt; einen Sprachkonversationsdokument-Analyseteil (16), der das von dem Empfangsteil (15) empfangene Sprachkonversationsdokument analysiert; einen Sprachkonversationsteil (17), der Sprachkonversation in Übereinstimmung mit einem Analyseergebnis durch den Sprachkonversationsdokument-Analyseteil (16) ausführt; und einen Ausgabeteil (19) synthetischer Sprache, der ein von der Sprachkonversation durch den Sprachkonversationsteil (17) hergeleitetes Ergebnis ausgibt.
  2. Fahrzeugeinbaueinheit nach Anspruch 1, außerdem einen Pfadsuchteil (20) umfassend, der einen Pfad zu einem Ziel sucht, wobei der Sprachkonversationsdokument-Analyseteil (16) den Pfadsuchteil (20) einschließt zum Suchen eines Pfades, wenn das von außen empfangene Sprachkonversationsdokument einen Bestimmungsort zeigende Information einschließt und wobei der Ausgabeteil (19) synthetischer Sprache eine Anleitung des von dem Pfadsuchteil (20) gesuchten Pfades ausgibt.
  3. Fahrzeugeinbaueinheit nach Anspruch 1, wobei der Fahrverhaltensevaluierungsteil (13) einen basierend auf eine kontinuierliche Fahrzeit des Fahrzeugs, die Anzahl von Unterbrechungszeiten und die Anzahl von Kurven einschließender Information erzeugten Evaluierungspunkt speichert, und wobei der Steuerteil (14) den Evaluierungspunkt mit einem vorbestimmten Referenzwert vergleicht zum Bestimmen, ob der Evaluierungspunkt den vorbestimmten Referenzwert erfüllt.
  4. Sprachkonversationsdokument-Erzeugungsserver (2), umfassend: einen Empfangsteil (30), der eine Sprachkonversationsdokument-Erzeugungsanfrage empfängt, die von einem bewegten Gegenstand gesendet worden ist und ein erkanntes Wort und die momentane Positionsinformation des bewegten Gegenstandes einschließt; einen Informationsauffindeteil (36), der einen externen Informationsauffindeserver (3) absucht unter Verwendung eines Informationssuchworts, das basierend auf dem in der von dem Empfangsteil (30) empfangenen Sprachkonversationsdokument-Erzeugungsanfrage enthaltenen Worts erzeugt wird; einen Sprachkonversationsdokument-Erzeugungsteil (33), der ein von dem externen Informationsauffindeserver (3) durch den Informationsauffindeteil (36) als Reaktion auf die von dem Empfangsteil (30) empfangene Sprachkonversationsdokument-Erzeugungsanfrage aufgefundene Information einschließendes Sprachkonversationsdokument erzeugt; und einen Sendeteil (30), der das von dem Sprachkonversationsdokument-Erzeugungsteil (33) erzeugte Sprachkonversationsdokument sendet.
  5. Sprachkonversationsdokument-Erzeugungsserver nach Anspruch 4, ferner einen Sprachkonversationsdokumentmodell-Speicherteil (31) umfassend, der ein Sprachkonversationsdokumentemodell speichert, wobei der Sprachkonversationsdokument-Erzeugungsteil (33) ein Sprachkonversationsdokumentmodell liest, welches sich auf das in der von dem Konversationsdokumentmodell-Speicherteil (31) als Reaktion auf die von dem Empfangsteil (30) empfangene Sprachkonversationsdokument-Erzeugungsanfrage eingeschlossene Sprachkonversationsdokument-Erzeugungsanfrage eingeschlossene erkannt Wort bezieht, und Information, die von dem externen Informationsauffindungsserver (3) durch den Informationsauffindeteil (36) gefunden worden ist, in das Sprachkonversationsdokumentemodell zum Erzeugen des Sprachkonversationsdokuments einbringt.
  6. Sprachkonversationsdokument-Erzeugungsserver nach Anspruch 4, außerdem umfassend; eine Suchwortdatenbank (34), die ein Informationssuchwort zum Durchsuchen des externen Informationsauffindeservers (3) speichert; und einen Informationssuchwortermittlungsteil (35), der das Informationssuchwort ermittelt, das sich auf das in dem in der durch den Empfangsteil (30) von der Suchwortdatenbank (34) empfangenen Sprachkonversationsdokument-Erzeugungsanfrage enthaltene Suchwort bezieht, wobei der Informationsauffindeteil (36) den externen Auffindeserver (3) unter Verwendung des von dem Informationssuchwortermittlungsteil (35) ermittelten Informationssuchworts absucht.
  7. Navigationssystem, umfassend: eine Fahrzeugeinbaueinheit (1), einen Sprachkonversationsdokument-Erzeugungsserver (2); und einen Informationsauffindeserver (3), wobei die Fahrzeugeinbaueinheit (1) einschließt: einen Positionserfassungsteil (12), der eine momentane Position eines Fahrzeugs erfasst und die momentane Position als Momentanpositionsinformation ausgibt; einen Fahrverhaltensevaluierungsteil (13), der das Fahrverhalten evaluiert; einen Steuerteil (14), der eine Sprachkonversationsdokument-Erzeugungsanfrage erzeugt, die das von dem Spracherkennungsteil (11) erhaltene Wort einschließt und die von dem Positionserfassungsteil (12), wenn das erkannte Wort von dem Spracherkennungsteil (11) erhalten worden ist und wenn das Evaluieren durch den Fahrverhaltensevaluierungsteil (13) eine vorbestimmte Referenz erfüllt, erhaltene Momentanpositionsinformation einschließt; einen ersten Sendeteil (15), der die Sprachkonversationsdokument-Erzeugungsanfrage, die von dem Steuerteil (14) erzeugt worden ist, nach außen sendet; einen ersten Empfangsteil (15), der ein von außen als Reaktion auf das Senden von dem ersten Sendeteil (15) gesendetes Sprachkonversationsdokument empfängt; einen Sprachkonversationsdokument-Analyseteil (16), der das von dem ersten Empfangsteil (15) empfangene Sprachkonversationsdokument analysiert; einen Sprachkonversationsteil (17), der Sprachkonversation in Übereinstimmung mit einem Analyseergebnis durch den Sprachkonversationsdokument-Analyseteil (16) ausführt; und einen Ausgabeteil (19) synthetischer Sprache, der ein von der Sprachkonversation durch den Sprachkonversationsteil (17) hergeleitetes Ergebnis ausgibt; wobei der Sprachkonversationsdokument-Erzeugungsserver (2) einschließt: einen Empfangsteil (30), der von der Fahrzeugeinbaueinheit (1) gesendete Sprachkonversationsdokument-Erzeugungsanfrage empfängt; einen Informationsauffindeteil (36), der einen externen Informationsauffindeserver (3) absucht unter Verwendung eines Informationssuchworts, das basierend auf dem in der von dem Empfangsteil (30) empfangenen Sprachkonversationsdokument-Erzeugungsanfrage enthaltenen Worts erzeugt wird; einen Sprachkonversationsdokument-Erzeugungsteil (33), der ein von dem externen Informationsauffindeserver (3) durch den Informationsauffindeteil (36) als Reaktion auf die von dem Empfangsteil (30) empfangene Sprachkonversationsdokument-Erzeugungsanfrage aufgefundene Information einschließendes Sprachkonversationsdokument erzeugt; und einen zweiten Sendeteil (30), der das von dem Sprachkonversationsdokument-Erzeugungsteil (33) erzeugte Sprachkonversationsdokument zu der Fahrzeugeinbaueinheit (1) sendet.
DE102004059372A 2003-12-26 2004-12-09 Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem Withdrawn DE102004059372A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-433271 2003-12-26
JP2003433271A JP2005189667A (ja) 2003-12-26 2003-12-26 車載機器、音声対話ドキュメント作成サーバ及びこれらを用いたナビゲーションシステム

Publications (1)

Publication Number Publication Date
DE102004059372A1 true DE102004059372A1 (de) 2005-07-28

Family

ID=34697718

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004059372A Withdrawn DE102004059372A1 (de) 2003-12-26 2004-12-09 Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem

Country Status (3)

Country Link
US (1) US20050144011A1 (de)
JP (1) JP2005189667A (de)
DE (1) DE102004059372A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017177A1 (de) 2008-04-23 2009-10-29 Volkswagen Ag Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
US8195461B2 (en) 2006-12-15 2012-06-05 Mitsubishi Electric Corporation Voice recognition system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090171665A1 (en) * 2007-12-28 2009-07-02 Garmin Ltd. Method and apparatus for creating and modifying navigation voice syntax
US20090271106A1 (en) * 2008-04-23 2009-10-29 Volkswagen Of America, Inc. Navigation configuration for a motor vehicle, motor vehicle having a navigation system, and method for determining a route
WO2014174640A1 (ja) * 2013-04-25 2014-10-30 三菱電機株式会社 評価情報投稿装置および評価情報投稿方法
BR112016023982A2 (pt) * 2014-04-21 2017-08-15 Sony Corp sistema de comunicação, método de controle, e, mídia de armazenamento
US9628415B2 (en) * 2015-01-07 2017-04-18 International Business Machines Corporation Destination-configured topic information updates
JP6109373B2 (ja) * 2016-04-04 2017-04-05 クラリオン株式会社 サーバー装置および検索方法
CN115662164A (zh) * 2022-12-12 2023-01-31 小米汽车科技有限公司 用于车辆的信息交互方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10021996A1 (de) * 1999-05-14 2000-11-23 Ibm Informationssystem für ortsbewegliche Anwender
DE69802674T2 (de) * 1997-04-08 2002-10-02 Webraska Mobile Technologies, Poissy Verfahren zur interaktiven navigationshilfe und vorrichtung dazu

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114489A (ja) * 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
US5819029A (en) * 1997-02-20 1998-10-06 Brittan Communications International Corp. Third party verification system and method
DE19709518C5 (de) * 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
US6680694B1 (en) * 1997-08-19 2004-01-20 Siemens Vdo Automotive Corporation Vehicle information system
JP4085500B2 (ja) * 1999-01-29 2008-05-14 株式会社エクォス・リサーチ 車両状況把握装置、エージェント装置、および、車両制御装置
US6317684B1 (en) * 1999-12-22 2001-11-13 At&T Wireless Services Inc. Method and apparatus for navigation using a portable communication device
US6526335B1 (en) * 2000-01-24 2003-02-25 G. Victor Treyz Automobile personal computer systems
US6487495B1 (en) * 2000-06-02 2002-11-26 Navigation Technologies Corporation Navigation applications using related location-referenced keywords
US6421607B1 (en) * 2000-09-22 2002-07-16 Motorola, Inc. System and method for distributed navigation service
US6580973B2 (en) * 2000-10-14 2003-06-17 Robert H. Leivian Method of response synthesis in a driver assistance system
US7565230B2 (en) * 2000-10-14 2009-07-21 Temic Automotive Of North America, Inc. Method and apparatus for improving vehicle operator performance
JP3727854B2 (ja) * 2001-01-30 2005-12-21 株式会社東芝 道案内生成方法および道案内装置およびサーバ装置および地図情報編集支援装置およびプログラム
CA2372861A1 (en) * 2001-02-20 2002-08-20 Matsushita Electric Industrial Co., Ltd. Travel direction device and travel warning direction device
US6487494B2 (en) * 2001-03-29 2002-11-26 Wingcast, Llc System and method for reducing the amount of repetitive data sent by a server to a client for vehicle navigation
US6526349B2 (en) * 2001-04-23 2003-02-25 Motorola, Inc. Method of compiling navigation route content
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69802674T2 (de) * 1997-04-08 2002-10-02 Webraska Mobile Technologies, Poissy Verfahren zur interaktiven navigationshilfe und vorrichtung dazu
DE10021996A1 (de) * 1999-05-14 2000-11-23 Ibm Informationssystem für ortsbewegliche Anwender

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8195461B2 (en) 2006-12-15 2012-06-05 Mitsubishi Electric Corporation Voice recognition system
DE112007002665B4 (de) * 2006-12-15 2017-12-28 Mitsubishi Electric Corp. Spracherkennungssystem
DE102009017177A1 (de) 2008-04-23 2009-10-29 Volkswagen Ag Spracherkennungsanordnung zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
DE102009017177B4 (de) 2008-04-23 2022-05-05 Volkswagen Ag Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges

Also Published As

Publication number Publication date
JP2005189667A (ja) 2005-07-14
US20050144011A1 (en) 2005-06-30

Similar Documents

Publication Publication Date Title
DE69837064T2 (de) Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten
DE102009017177B4 (de) Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
DE60032193T2 (de) Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache
EP1176395B1 (de) Verfahren zur Auswahl einer Ortsbezeichnung in einem Navigationssystem durch Spracheingabe
DE102017223856A1 (de) Dialogsystem, Fahrzeug mit diesem und Dialogverarbeitungsverfahren
DE69130747T2 (de) Übersetzungsverfahren und -system zur Übertragung zwischen zwei Sprechern mit unterschiedlicher Sprache
DE60318430T2 (de) Computergestütztes System und Verfahren zur Informationsausgabe an einen Fahrer eines Fahrzeuges
DE19709518C1 (de) Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE60005326T2 (de) Erkennungseinheiten mit komplementären sprachmodellen
DE112014002819B4 (de) System und Verfahren zur Erkennung von Sprache
DE69730705T2 (de) Vorrichtung und verfahren zur mustererkennung und zur adaption
DE112012006997B4 (de) Navigationsvorrichtung
DE69229946T2 (de) Navigationsvorrichtung für fahrzeuge
DE60016722T2 (de) Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
DE60109979T2 (de) Navigationssystem
DE60015531T2 (de) Client-server spracherkennungssystem
DE60126882T2 (de) Hierarchisierte Wörterbücher für die Spracherkennung
DE10134908B4 (de) Spracherkennungsvorrichtung und Verfahren, welche zwei gegenteilige Wörter verwenden
DE10330274A1 (de) Sprachgesteuertes System
DE112011105833B4 (de) Navigationsvorrichtung, Navigationsverfahren und Navigationsprogramm
DE112009005470B4 (de) Navigationssystem
EP0905662A2 (de) Eingabesystem wenigstens für Orts- und/oder Strassennamen
DE112013007521T5 (de) Server zur Navigation, Navigationssystem und Navigationsverfahren
DE112012004711T5 (de) Navigationsvorrichtung und Verfahren
DE102004059372A1 (de) Fahrzeugeinbaueinheit, Sprachkonversationsdokumenterzeugungs-Server und diese verwendendes Navigationssystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee