DE60226194T2 - Mobiles Endgerät - Google Patents

Mobiles Endgerät Download PDF

Info

Publication number
DE60226194T2
DE60226194T2 DE60226194T DE60226194T DE60226194T2 DE 60226194 T2 DE60226194 T2 DE 60226194T2 DE 60226194 T DE60226194 T DE 60226194T DE 60226194 T DE60226194 T DE 60226194T DE 60226194 T2 DE60226194 T2 DE 60226194T2
Authority
DE
Germany
Prior art keywords
information
mobile terminal
interactive audio
audio server
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60226194T
Other languages
English (en)
Other versions
DE60226194D1 (de
Inventor
Shinya Naka-gun Ohtsuji
Soshiro Hitachinaka-shi Kuzunuki
Mariko Hitachi-shi Okude
Tadashi Naka-gun Kamiwaki
Michio Hitachi-shi Morioka
Akio Amano
Toshihiro Kokubunji-shi Kujirai
Makoto Shioya
Manabu Sagamihara-shi Niie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DE60226194D1 publication Critical patent/DE60226194D1/de
Publication of DE60226194T2 publication Critical patent/DE60226194T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096811Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed offboard
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • G08G1/096872Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where instructions are given per voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf die Technik der Fahrzeugnavigation zum Empfangen von Informationen und Diensten von einem Informationsverteilungs-Dienstanbieter für das Verteilen von Karteninformationen und Verkehrsinformationen durch Zugreifen von einem beweglichen Endgerät, wie z. B. einem Fahrzeug, mittels Sprache auf ein Netz.
  • Als Technik der Fahrzeugnavigation für das Eingeben und Ausführen des Festlegens eines Ziels und des Zugriffs auf eine Telephonnummer durch das Führen eines Sprachdialogs kann die Offenlegungsschrift der japanischen Patentanmeldung Nr. Hei 11-14394 (das zitierte Beispiel 1) erwähnt werden. Ferner können als eine Technik für das Zugreifen auf Informationen im Internet mit Sprache von einem Telephon die Offenlegungsschrift der japanischen Patentanmeldung Nr. Hei 10-271223 (das zitierte Beispiel 2) und die Offenlegungsschrift der japanischen Patentanmeldung Nr. Hei 10-177469 (das zitierte Beispiel 3) erwähnt werden.
  • Im zitierten Beispiel 1 des oben erwähnten Standes der Technik wird die Spracherkennung durch ein Fahrzeug-Endgerät ausgeführt und für einen Betriebsbefehl, wie z. B. ein Menü, und das Festlegen eines Ziels, wie z. B. einer Adresse und eines Wahrzeichens, verwendet. Es gibt jedoch die Probleme, die bei der Audiointeraktion auferlegt werden, weil nur Sprache, die auf einer vorgegebenen Interaktion basiert, in Bezug auf die CPU-Kapazität des Fahrzeug-Endgerätes eingegeben werden kann, und weil außerdem verschiedene Informationen im Internet nicht synthetisch verwendet werden können. Ferner besitzt das Fahrzeug-Endgerät Funktionen der Fahrzeugnavigation und der Spracherkennung, so dass es ein teures Endgerät ist. Ferner sind die Karteninformationen in einem CD-ROM oder DVD-ROM gespeichert, so dass bei der Wartung ein weiteres Problem auferlegt wird, wie z. B. die periodische Aktualisierung.
  • Außerdem werden in den zitierten Beispielen 2 und 3 durch Sprache eingegebene Sprachdaten durch ein Sprach-Internet-Gateway oder eine mit dem Internet verbundene Sprachsteuerungs-Host-Vorrichtung erkannt, wobei auf der Grundlage des Ergebnisses der Zugriff auf das Internet und die Suche nach den Informationen möglich gemacht werden können. Es ergibt sich jedoch ein Problem, weil die Audiointeraktion nicht flexibel ist, so dass nur ein Objektdienst gegeben werden kann. Es ist nämlich ein Problem auferlegt, weil in Abhängigkeit von der Informationsdienstverteilung die Subjektwörter des Audiointeraktionsverfahrens und der Spracherkennung verschieden sind und die zitierten Beispiele ihnen nicht flexibel entsprechen können. In einer Umgebung, in der ein Befehl nur durch Sprache ausgegeben werden kann, kann auf die Karteninformationen, wie z. B. die Festlegung des Ziels, und die Verkehrsinformationen, wie z. B. die Verkehrsstauung, nicht einfach zugegriffen werden.
  • WO 98/45823 offenbart ein interaktives Navigationssystem mit einem Endgerät, das über eine Richtfunkverbindung mit einem Server zum Bereitstellen von Navigationsinformationen verbunden ist. Die Spracheingangsdaten werden digitalisiert, im mobilen Endgerät in Sprachparameter umgesetzt und zum Server für die Spracherkennung übertragen. Der Server führt die Sprachsynthese für die Antwortdaten aus, die über die Richtfunkverbindung zum mobilen Endgerät übertragen werden, um ausgegeben zu werden.
  • Ferner offenbart WO 01/26350 , dass ein interaktiver Audio-Server eine Bestätigungsverarbeitungsfunktion besitzt, um einen Anwender aus individuellen Informationen zu identifizieren, bei dem der Anwender eine persönliche Identifikationsnummer sagen muss.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Anbetracht der oben beschriebenen Probleme ist die vorliegende Erfindung darauf gerichtet, eine Fahrzeugnavigationsvorrichtung zum Empfangen von Informationen und Diensten von einem Informationsverteilungs-Dienstanbieter für die Verteilung von Karteninformationen und Verkehrsinformationen durch das Zugreifen von einem beweglichen Endgerät, wie z. B. einem Fahrzeug, mittels Sprache auf ein Netz zu schaffen.
  • Die Erfindung ist im beigefügten unabhängigen Anspruch 1 definiert.
  • Folglich kann ein Fahrzeugnavigationssystem, um zum Zeitpunkt des Wunsches von Karteninformationen, Verkehrsinformationen und anderen erforderlichen Informationen in einem Fahrzeug einen Informationsverteilungs-Dienstanbieter für die Verteilung der oben erwähnten Informationen abzufragen, ein bewegliches Endgerät, das durch das Eingeben und Ausgeben von Sprache betrieben werden kann, eine Kommunikationsvorrichtung, einen interaktiven Audio-Server, der Sprache und Daten ein- und ausgeben kann und auf der Grundlage der Audiointeraktionen durch den Spracherkennungsprozess und den Sprachsynthetisierungsprozess mit einer externen Vorrichtung und dem Internet verbunden ist und die Informationsübertragung ausführt, und einen oder mehrere Informationsverteilungs-Dienstanbieter, die für die Verteilung von Informationen, wie z. B. Karteninformationen und Verkehrsinformationen, mit dem Internet verbunden sind, umfassen.
  • Ferner kann das bewegliche Endgerät mit Mitteln zum Anrufen des interaktiven Audio-Servers durch eine Operation, wie z. B. das Drücken einer Taste, und das Herstellen der Kommunikation ausgerüstet sein. Indem dies getan wird, kann die Bedienbarkeit durch den Anwender verbessert werden.
  • Ferner kann das bewegliche Endgerät so strukturiert sein, um nichtsprachliche Daten vom interaktiven Audio-Server zu empfangen und Zeichen und Bilder auf dem Bildschirm des beweglichen Endgeräts anzuzeigen. Indem dies getan wird, können die Zwischenergebnisse der Interaktionsinhalte so angezeigt werden, dass die Bedienbarkeit verbessert werden kann.
  • Wenn ferner effektive Informationen, wie z. B. individuelle Informationen, im Voraus in die Kommunikationsvorrichtung eingegeben werden und die Kommunikationsvorrichtung an einem vorgegebenen Ort des beweglichen Endgeräts installiert ist, kann das bewegliche Endgerät so strukturiert sein, um eine Kommunikation mit dem interaktiven Audio-Server automatisch herzustellen und die Informationen zum interaktiven Audio-Server zu übertragen. Indem dies getan wird, können die Informationsverteilungsdienste in Übereinstimmung mit individuellen Wünschen verwirklicht werden.
  • Wenn ferner die Kommunikationsvorrichtung am vorgegebenen Ort des beweglichen Endgeräts installiert ist, kann das bewegliche Endgerät so strukturiert sein, um die Kommunikation mit dem interaktiven Audio-Server automatisch herzustellen und effektive Informationen, wie z. B. die Historie zum Zeitpunkt eines früheren Zugriffs vom interaktiven Audio-Server, empfangen. Indem dies getan wird, kann das Ziel in den früheren Historie-Informationen festgelegt werden, wobei der Betrieb vereinfacht wird.
  • Ferner kann das bewegliche Endgerät so strukturiert sein, um die Sprachausgabe zwischen der Sprachausgabe von dem interaktiven Audio-Server und der Sprachausgabe im beweglichen Endgerät umzuschalten, nachdem das bewegliche Endgerät Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende vom interaktiven Audio-Server empfangen hat oder nachdem das bewegliche Endgerät Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende ausgegeben hat. Indem dies getan wird, kann im Fall einer typischen Syntheseführung die Kommunikationszeit verkürzt werden.
  • Ferner kann das bewegliche Endgerät so strukturiert sein, um automatisch vorgegebene nichtsprachliche Informationen, wie z. B. vorhandene Informationen (bzw. über den momentanen Ort), die im beweglichen Endgerät gehalten werden, an den interaktiven Audio-Server zu übertragen, nachdem das bewegliche Endgerät Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende vom interaktiven Audio-Server empfangen hat oder nachdem das bewegliche Endgerät Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende ausgegeben hat. Indem dies getan wird, kann das Protokoll zwischen dem beweglichen Endgerät und dem interaktiven Audio-Server verkürzt werden.
  • Wenn ferner der interaktive Audio-Server eine Verbindung zum beweglichen Endgerät über die Kommunikationsleitung anfordert, kann das bewegliche Endgerät so strukturiert sein, dass es eine Bestätigungsverarbeitungsfunktion besitzt, um aus einer Sprachant wort durch das bewegliche Endgerät zu identifizieren, dass der Kommunikationspartner einer vom interaktiven Audio-Server ist. Indem dies getan wird, kann der interaktive Audio-Server erneut eine Verbindung mit der Sprachleitung herstellen, wann immer es notwendig ist, und kann die Kommunikationsgebühr verringert werden.
  • Ferner kann der interaktive Audio-Server so strukturiert sein, dass er eine Befehlsumsetzungs-Verarbeitungseinheit zum Ausführen des Spracherkennungsprozesses auf der Grundlage der Eingangssprache, zum Analysieren der Inhalte der erhaltenen Erkennungsergebnisdaten und zum Erzeugen eines Befehls, der an den Informationsverteilungs-Dienstanbieter zu übertragen ist, aufweist. Indem dies getan wird, kann der interaktive Audio-Server flexibel dem Dienstanbieter entsprechen, um die verschiedenen Informationen zu verteilen.
  • Ferner kann der interaktive Audio-Server so strukturiert sein, dass er intern eine Interaktionserzeugungsschablone, die eine beschriebene Ablaufsteuerung aufweist, um eine grundlegende Interaktion zu verwirklichen, und eine Erzeugungseinheit für interaktive Daten zum Verarbeiten der Daten auf der Grundlage der Interaktionserzeugungsschablone und zum Erzeugen einer Ablaufsteuerung zur Verwirklichung einer Audiointeraktion, die geeignet ist, um die gewünschten Verteilungsinformationen zu erhalten, besitzt. Indem dies getan wird, wird eine vereinheitlichte Interaktionsschablone verfügbar und wird die Bedienbarkeit verbessert.
  • Ferner kann der interaktive Audio-Server so strukturiert sein, dass er eine Managementeinheit für die individuellen Informationen besitzt, um die Verteilung der Informationen zu steuern, die die individuellen Informationen, wie z. B. die Eigenschaften für jedes Subjekt, mit dem eine Verbindung herzustellen ist, und die Ziel- und Weginformationen der Suchergebnisse enthalten, und dass er einen vorgegebenen Informationsverteilungs-Dienstanbieter über das Internet auf der Grundlage der gehaltenen Weginformationen der Subjekte, mit denen eine Verbindung herzustellen ist, über notwendige Verkehrsstauungsinformationen und Ereignisinformationen abfragt. Indem dies getan wird, können die gesamten Dienste jeder Person unter Verwendung der Karteninformationen und der Verkehrsinformationen gegeben werden.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist eine Zeichnung, die die gesamte Struktur des interaktiven Audionavigationssystems dieser Ausführungsform zeigt.
  • 2 ist eine Zeichnung, die ein Beispiel der Verwendung von Diensten dieser Ausführungsform zeigt.
  • 3 ist eine Zeichnung, die die einen Teil bildenden Blöcke des interaktiven Audio-Servers 105 dieser Ausführungsform ausführlich zeigt.
  • 4 ist eine Zeichnung, die ein Beschreibungsbeispiel der Interaktionserzeugungsschablone 307 zeigt, wenn VoiceXML für die Interaktions-Beschreibungssprache dieser Ausführungsform verwendet wird.
  • 5 ist eine Zeichnung, die ein Beispiel der Produktkonfiguration des Fahrzeug-Endgeräts 100 dieser Ausführungsform zeigt.
  • 6 ist eine Zeichnung, die den Ablauf der Bestätigungsverarbei tung von dem Fahrzeug-Endgerät 100 dieser Ausführungsform zum interaktiven Audio-Server 105 zeigt.
  • 7 ist eine Zeichnung, die den Ablauf der Verarbeitung eines Beispiels der Navigationsdienste durch die Audiointeraktion dieser Ausführungsform zeigt.
  • 8 ist eine Zeichnung, die den ausführlichen Ablauf der Audiointeraktion in dem in 7 gezeigten Schritt 702 in dieser Ausführungsform zeigt.
  • 9 ist eine Zeichnung, die den ausführlichen Ablauf eines Falls zeigt, der während der Audiointeraktion in dem in 7 gezeigten Schritt 702 in dieser Ausführungsform von einer Bildschirmausgabe begleitet wird.
  • 10 ist eine Zeichnung, die ein Beispiel der Ausgabebedingung an den Bildschirm 104 des Fahrzeug-Endgeräts 100 unter jeder Interaktionsbedingung dieser Ausführungsform zeigt.
  • 11 ist eine Zeichnung, die den Ablauf der Verarbeitung des Anbietens von Verkehrsinformationen dem Fahrzeug-Endgerät 100 vom interaktiven Audio-Server 105, wenn die Verkehrsinformationen bezüglich des Wegs geändert werden, dieser Ausführungsform zeigt.
  • 12 ist eine Zeichnung, die die gesamte Struktur des interaktiven Audionavigationssystems zeigt, wenn die Sprachkommunikations-Verarbeitungseinheit dieser Ausführungsform in das Fahrzeug-Endgerät eingebaut ist.
  • 13 ist eine Zeichnung, die das Beispiel eines Geschäftsmodells unter Verwendung des interaktiven Audionavigationssystems dieser Ausführungsform zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die Ausführungsform der vorliegenden Erfindung wird im Folgenden unter Bezugnahme auf die Zeichnung erklärt. In der Ausführungsform wird das bewegliche Endgerät als ein Fahrzeug-Endgerät erklärt.
  • 1 ist ein Gesamtblockschaltplan des interaktiven Audionavigationssystems der vorliegenden Erfindung.
  • Ein Fahrzeug-Endgerät 100 ist mit einem Mikrophon 101, um die Spracheingabe zu verwirklichen, einem Lautsprecher 102 zum Ausgeben der Sprache, einem Schalter 103 zum Eingeben eines gewünschten Befehls in das Fahrzeug-Endgerät 100 und einem Bildschirm 104, der ein Datenausgang ist, verbunden. Das Fahrzeug-Endgerät 100 besitzt intern eine Verarbeitungseinheit zum Verwirklichen der Sprachsynthese einer einfachen festen Form des Satzes mit der Spracherkennung und eine Bildschirmanzeige-Steuereinheit zum Anzeigen der gewünschten Daten auf dem Bildschirm 104. Ferner ist das Fahrzeug-Endgerät 100 mit einem GPS 113 verbunden, das einen Sensor zum Ausführen der Positionsmessung besitzt und das die Position eines Fahrzeugs selbst eindeutig messen kann.
  • Ferner sind ein interaktiver Audio-Server 105 und ein Informationsverteilungs-Dienstanbieter (der im Folgenden als ein ASP bezeichnet wird) 106 zum Verteilen nützlicher Informationen für die Navigation der vorliegenden Erfindung über ein Netz 107 des Internets miteinander verbunden und erlauben die Eingabe und die Ausgabe verschiedener Arten von Informationen.
  • Der interaktive Audio-Server 105 besitzt eine Sprachkommunikations-Verarbeitungseinheit 108, eine Datenkommunikations-Verarbeitungseinheit 109, eine Sprache-Daten-Synchronisationssteuereinheit 110 und verschiedene Verarbeitungseinheiten zum Verwirklichen der Funktionen. Eine ausführliche Struktur jeder Einheit wird später beschrieben.
  • Eine Gruppeninformationsverteilungs-ASP-Gruppe 106 enthält einen Karteninformations-ASP zum Verteilen der Weginformationen auf der Grundlage der die Karten betreffenden Datenbank, einen Verkehrsinformations-ASP zum Verteilen eines Stauungszustands einer Straße und eines Unfallzustands auf der Grundlage der den Verkehr betreffenden Datenbank und einen Ereignisinformations-ASP zum Verteilen von Informationen über verschiedene Ereignisse.
  • Das Fahrzeug-Endgerät 100 ist über eine Telephonleitung 112 unter Verwendung einer Kommunikationsvorrichtung 111 mit dem interaktiven Audio-Server 105 verbunden und gibt Sprache und Daten aus und ein. In dieser Erklärung kann die Kommunikationsvorrichtung 111 aus dem Fahrzeug entfernt werden, wobei sie in der Umgebung des Fahrzeug-Endgeräts 100 installiert ist, wenn sich das Fahrzeug in Gebrauch befindet, wobei ein Anwender sie in den anderen Fällen tragen und verwenden kann.
  • Ferner ist dieses System unter Verwendung eines Haushalts-Endgeräts 114, das mit dem Internet verbunden werden kann, wie z. B. eines Personal-Computers, mit dem Netz 107 des Internets verbunden, wobei die durch dieses System gegebenen Dienste verwendet werden können.
  • 2 zeigt ein Beispiel der Verwendung von Diensten unter Verwendung der vorliegenden Erfindung in dieser Ausführungsform.
  • Im Folgenden wird das Beispiel der Verwendung von Diensten in dieser Ausführungsform unter der Voraussetzung eines Falls erklärt, dass ein Anwender einen Ausflug zum Park A unternimmt. Wie in der Zeichnung gezeigt ist, befinden sich das Gebäude, in dem der interaktive Audio-Server 105 installiert ist, und jeder ASP zum Ausführen des Informationsverteilungsdienstes an entfernten Plätzen, wobei die Weginformationen bis zum Ziel durch den Karteninformations-ASP bereitgestellt werden, während die Betriebsinformationen, die mehrere Restaurants im Park A, der das Ziel ist, und die Reisewege betreffen, die Informationen sind, die durch den Ereignisinformations-ASP gesammelt werden. Ferner werden der Stauungszustand der Straßen einschließlich der Reisewege des Anwenders und die Unfallinformationen der Reihe nach durch den Verkehrsinformations-ASP gesammelt.
  • 3 ist ein ausführlicher Blockschaltplan des interaktiven Audio-Servers 105.
  • Der interaktive Audio-Server 105 ist groß und umfasst die Sprachkommunikations-Verarbeitungseinheit 108 zum Ausführen des Sprachkommunikationsprozesses, die Datenkommunikations-Verarbeitungseinheit 109 zum Ausführen des nichtsprachlichen Kommunikationsprozesses und eine Verarbeitungseinheit 311 zum Ausfüh ren der anderen Prozesse.
  • Die Sprachkommunikations-Verarbeitungseinheit 108 umfasst eine Spracherkennungs-Verarbeitungseinheit 300 zum Erkennen der Eingangssprache und zum Umsetzen der Eingangssprache in Textdaten, eine Sprachsynthese-Verarbeitungseinheit 301 zum Umsetzen der Textdaten in Sprachdaten, eine Befehlsumsetzungs-Verarbeitungseinheit 302 zum Ausführen des Prozesses zum Umsetzen der Textdaten der Spracherkennungs-Verarbeitungseinheit 300 in einen Befehl, um der Host-CPU Befehle zu geben, und des Prozesses zum Umsetzen des Befehls höherer Ordnung in Textdaten, die ein Subjekt der Sprachausgabe sind, und zum Ausgeben dieser an die Sprachsynthese-Verarbeitungseinheit 301, und eine Anrufschnittstelleneinheit 303 zum Steuern der Eingabe in die und der Ausgabe aus der externen Kommunikationsleitung und der Eingabe in die und der Ausgabe aus der Sprachkommunikations-Verarbeitungseinheit. Wenn VoiceXML, die eine der Auszeichnungssprachen ist, die den Standard erweitern können, zu verwenden ist, um eine Audiointeraktion zu verwirklichen, ist die Befehlsumsetzungs-Verarbeitungseinheit 302 zu dem Teil zum Ausführen des Interpreterprozesses äquivalent, der die Beschreibung von VoiceXML analysieren kann.
  • Die Datenkommunikations-Verarbeitungseinheit 109 ist eine Einheit zum Ausführen des Kommunikationsprozesses mit Ausnahme der Sprachinteraktion, wobei sie die Paketdatenkommunikation verarbeitet.
  • Die Sprache-Daten-Synchronisationssteuereinheit 110 steuert die wechselseitigen Ausgaben der Sprachkommunikations-Verarbeitungseinheit 108 und der Datenkommunikations-Verarbeitungs einheit 109. Die Sprache-Daten-Synchronisationssteuereinheit 110 führt hauptsächlich die Synchronisationssteuerung der Daten, die auf dem Bildschirm 104 des Endgeräts anzuzeigen sind, während der Sprachausgabe an das Fahrzeug-Endgerät 100 aus.
  • Eine Dienstentscheidungseinheit 304 ist eine Einheit zum entscheiden, welche Dienstinformationen durch den durch die Befehlsumsetzungs-Verarbeitungseinheit 302 umgesetzten Befehl gewünscht werden, die den Befehl auf der Grundlage einer intern gespeicherten Dienstkenntnis-Datenbank 305 versteht, den notwendigen Subjekt-ASP auswählt und die Befehlsdaten zum Erhalten der Dienstinformationen an das externe Netz des Internets überträgt.
  • Eine Erzeugungseinheit 306 für interaktive Daten empfangt die vom externen ASP erhaltenen Dienstinformationsdaten, erzeugt die Audiointeraktions-Befehlsbeschreibung auf der Grundlage der intern gehaltenen Interaktionserzeugungsschablone 307 und gibt sie an die Befehlsumsetzungs-Verarbeitungseinheit 302 aus.
  • Eine Bestätigungsverarbeitungseinheit 308 empfängt die ID-Informationen eines Anwenders, die vom Fahrzeug-Endgerät 100 übertragen werden, und identifiziert den Anwender. Durch diese Informationen kann die Bestätigungsverarbeitungseinheit 308 das Fahrzeug des Subjekt-Anwenders, mit dem eine Verbindung herzustellen ist, identifizieren, wobei sie nach der Bestätigung erneut eine Verbindung mit ihm herstellen kann.
  • Ferner werden die durch die Bestätigungsverarbeitungseinheit 308 erhaltenen Anwenderinformationen an eine Managementeinheit 309 für individuelle Informationen als individuelle Informationen für jeden Anwender übertragen und in einer Datenbank 310 der individuellen Informationen gespeichert. Die Datenbank 310 der individuellen Informationen kann außerdem eine Anwender-Historie speichern, wie z. B. frühere Informationssuchergebnisse jedes Anwenders. Die Managementeinheit 309 für individuelle Informationen überträgt diese gespeicherten Informationen für jeden individuellen Anwender an die Erzeugungseinheit 306 für interaktive Daten, wobei die individuellen Informationen als eine Referenz für die Erzeugung eines interaktiven Audiomodells verwendet werden, das für jeden Anwender zum Zeitpunkt der Dienstverwendung charakterisiert wird.
  • 4 zeigt ein Beschreibungsbeispiel 401 der Interaktionserzeugungsschablone 307, wenn VoiceXML für die Interaktions-Beschreibungssprache verwendet wird, und ein Beispiel 402 unter Verwendung der Schablone. In der Interaktionserzeugungsschablone 307 wird die Struktur als eine Grundlage der Interaktion beschrieben, wobei die Erzeugungseinheit 306 für interaktive Daten die notwendige Interaktions-Zeichenkette, die Interaktions-Syntaxinformationen und die Informationen, wie z. B. den Ort des erhaltenen Ziel-ASP entsprechend der Bedingung, einbettet und dadurch eine tatsächliche Interaktionsbeschreibung erzeugt. Im unteren Abschnitt nach 4 sind ein Zeichenketten-Einbettungsbeispiel zum Zeitpunkt der Ortsbezeichnung und ein tatsächliches Interaktions-Ausführungsbeispiel angegeben.
  • 5 zeigt ein Beispiel der Produktkonfiguration des Fahrzeug-Endgeräts 100.
  • Wie in der Zeichnung gezeigt ist, sind an der Vorderseite der Vorrichtung der Bildschirm 104 und einige Schalter 103 vorgesehen. Die für die Navigation notwendigen Informationen werden auf dem Bildschirm 104 angezeigt, wobei die Anzeigeinhalte durch die Schalter 103 umgeschaltet werden, wobei dem Fahrzeug-Endgerät 100 verschiedene Befehle gegeben werden können. Ferner besitzt das Fahrzeug-Endgerät 100 eine Abfragetaste 500, die eine Funktion zum Herstellen einer Kommunikationsleitung für den interaktiven Audio-Server 105 durch eine Operation besitzt. Nur durch das Drücken der Abfragetaste 500 kann nämlich eine Verbindung zum automatischen Ausführen eines Telephonanrufes zum interaktiven Audio-Server 105 und zum anschließenden Herstellen einer Telephonkonversation mittels Sprache hergestellt werden.
  • Als Nächstes wird jeder Verarbeitungsablauf entsprechend dem tatsächlichen Beispiel der Verwendung erklärt.
  • 6 zeigt einen Verarbeitungsablauf der Bestätigung, wenn eine erste Verbindung vom Fahrzeug-Endgerät 100 zum interaktiven Audio-Server 105 in diesem System hergestellt wird.
  • Zuerst gibt ein Anwender, bevor er zum Ziel startet, die individuellen Informationen, wie z. B. die ID-Informationen für die Bestätigung, die Anzahl der Teilnehmer am Ausflug, das Alter jedes Teilnehmers, den Wunsch nach einer Mahlzeit und den Wunsch nach einem Ereignis in die Kommunikationsvorrichtung 111 ein, (Schritt 601).
  • Der Anwender steigt zum Zeitpunkt der Starts in ein Fahrzeug ein, wobei er zuerst die Kommunikationsvorrichtung 111 in dem Fahrzeug installiert, (Schritt 602).
  • Wenn das Fahrzeug-Endgerät 100 die Installation der Kommunika tionsvorrichtung 111 bestätigt, stellt es eine Datenkommunikation mit dem interaktiven Audio-Server 105 her. Danach beginnt das Fahrzeug-Endgerät 100 die Übertragung der im Voraus in die Kommunikationsvorrichtung 111 eingegebenen individuellen Informationen an den interaktiven Audio-Server 105. Der interaktive Audio-Server 105 bestätigt durch die interne Bestätigungsverarbeitungseinheit 308 auf der Grundlage der in den empfangenen individuellen Informationen enthaltenen ID-Informationen, dass sich das Fahrzeug-Endgerät 100 im Betriebszustand befindet, schließt die Bestätigung ab und überträgt die Bestätigungs-Bestätigungsdaten an das Fahrzeug-Endgerät 100. Bei Empfang der Bestätigungs-Bestätigungsdaten gibt das Fahrzeug-Endgerät 100 einen vorgegebenen Ton oder eine vorgegebene Sprache aus und meldet dem Anwender den Abschluss der Bestätigung, (Schritt 603).
  • Danach erhält der interaktive Audio-Server 105 die gewünschten Informationen des durch die Bestätigung bestätigten Anwenders von der Datenbank 310 der individuellen Informationen und überträgt sie an das Fahrzeug-Endgerät 100, (Schritt 604).
  • In diesem Ablauf gibt es als ein weiteres Verfahren der Mittel, um die im Voraus im Schritt 601 eingegebenen individuellen Informationen dem interaktiven Audio-Server 105 zu übergeben, ein Mittel zum Herstellen einer Verbindung über das Netz 107 des Internets unter Verwendung des Haushalts-Endgeräts 114, wie z. B. des in 1 gezeigten PCs, mit dem interaktiven Audio-Server 105 und zum Übergeben der individuellen Informationen im Voraus. In diesem Fall überträgt das Fahrzeug-Endgerät 100 die ID-Informationen an den interaktiven Audio-Server 105 durch eine Eingabe, die angibt, dass der Anwender in das Fahrzeug einsteigt, wobei es dadurch den Bestätigungsprozess ausführt.
  • 7 zeigt den Prozessablauf eines Beispiels der Navigationsdienste durch Audiointeraktion in diesem interaktiven Audionavigationssystem. Der Prozessablauf wird im Folgenden unter Verwendung der schematischen graphischen Darstellung des interaktiven Audio-Servers 105 erklärt, der in 3 gezeigt ist.
  • Wenn der Anwender beabsichtigt, den Dienst dieses Systems im Fahrzeug zu empfangen, drückt er zuerst die Abfragetaste 500 des Fahrzeug-Endgeräts 100 und stellt die Kommunikationsleitung mit dem interaktiven Audio-Server 105 her, (Schritt 701).
  • Bei Empfang dessen erzeugt der interaktive Audio-Server 105 eine interaktive Audiobeschreibung, die für die erste Audiointeraktion notwendig ist, durch die Erzeugungseinheit 306 für interaktive Daten und schickt eine Sprachantwort über die Sprachkommunikations-Verarbeitungseinheit 108 an das Fahrzeug-Endgerät 100 zurück. Die erste Sprachausgabe, die in diesem Fall vom interaktiven Audio-Server 105 zu empfangen ist, umfasst vorzugsweise Wörter, um eine Anforderung des Anwenders zu erhalten, wie z. B. "Was"? In diesem Beispiel wünscht der Anwender Unterstützung für den Fahrweg einschließlich der Wegsuche, so dass er mit Sprache antwortet, die ein vorgegebenes Schlüsselwort enthält, wie z. B. "Wegunterstützung, bitte". Bei Empfang der Sprachantwort des Anwenders versteht der interaktive Audio-Server 105 über die Spracherkennungs-Verarbeitungseinheit 300 und die Befehlsumsetzungs-Verarbeitungseinheit 302 in der Sprachkommunikations-Verarbeitungseinheit 108 durch die Dienstentscheidungseinheit 304, dass die Anforderung des Anwenders "Wegunterstützung" ist.
  • Die Dienstentscheidungseinheit 304, die die Anforderung versteht, identifiziert den ASP der Dienstanforderung in der Informationsverteilungs-ASP-Gruppe 106 auf der Grundlage der im Voraus in der Dienstkenntnis-Datenbank 305 gespeicherten Informationen und überträgt die durch den identifizierten ASP vorbreiteten interaktiven Informationen an die Erzeugungseinheit 306 für interaktive Daten. Die durch den ASP vorbereiteten interaktiven Informationen sind die einem Anwender aufgelisteten Abfrageinformationen, um ihm einen Dienst anzubieten. Das Verfahren zum Erhalten der interaktiven Informationen kann ein Verfahren zum Erhalten der interaktiven Informationen von allen ASPs der Dienste anbietenden Subjekte im Voraus und zum Speichern dieser in der Dienstkenntnis-Datenbank 305 im Voraus oder ein Verfahren zum Empfangen einer Anforderung von einem Anwender und dem anschließenden aufeinanderfolgenden Erhalten interaktiver Informationen für den ASP durch die Dienstentscheidungseinheit 304 sein. Die Entscheidungseinheit 306 für interaktive Daten bereitet konkrete interaktive Daten vor, um eine ausführliche Anforderung vom Anwender auf der Grundlage der empfangenen interaktiven ASP-Informationen und der Interaktionserzeugungsschablonen 307 zu erhalten und überträgt sie an die Befehlsumsetzungs-Verarbeitungseinheit 302. Die empfangenen interaktiven Daten werden durch die Befehlsumsetzungs-Verarbeitungseinheit 302 in Sprachausgabedaten umgesetzt, wobei die Daten außerdem durch die Sprachsynthese-Verarbeitungseinheit 301 in Sprache umgesetzt und an das Fahrzeug-Endgerät 100 übertragen werden, wobei folglich eine Interaktion mit dem Anwender zum Erhalten der notwendigen Informationen verwirklicht wird. Die konkrete Interaktion zum Erhalten der Informationen wird später beschrieben, (Schritt 702).
  • Dieses Beispiel wird unter der Annahme erklärt, dass der oben erwähnte Anwender zusätzlich zur Wegunterstützung "Verkehrsinformationen und Ereignisinformationen bezüglich des Reiseweges" wünscht.
  • Wenn die Interaktion mit dem Anwender endet und die für die Wegunterstützung notwendigen Informationen erhalten werden, überträgt der interaktive Audio-Server 105 die durch die Interaktion erhaltenen Zielinformationen an den Karteninformations-ASP, (Schritt 703).
  • Außerdem fordert der interaktive Audio-Server 105 die Informationen über die momentane Position vom Fahrzeug-Endgerät 100 an und erhält die Informationen über die momentane Position des Fahrzeugs des Anwenders, (Schritt 704).
  • Das Verfahren zum Erhalten der Informationen über die momentane Position kann in diesem Fall anstelle des Verfahrens zum Antworten auf eine Anforderung vom interaktiven Audio-Server 105 durch das Fahrzeug-Endgerät 100 ein Verfahren zum automatischen Übertragen der Daten über die momentane Position des Fahrzeugs durch das Fahrzeug-Endgerät 100 sein, nachdem das Fahrzeug-Endgerät 100 vom interaktiven Audio-Server 105 Sprache erfasst, die im Schritt 702 das Ende der Audiointeraktion angibt, oder es kann ein Verfahren zum automatischen Übertragen der Daten über die momentane Position des Fahrzeugs durch das Fahrzeug-Endgerät 100, nachdem das Fahrzeug-Endgerät 100 auf Sprache antwortet, die im Schritt 702 das Ende der Audiointeraktion angibt, sein.
  • Wenn die erhaltenen Informationen über die momentane Position an den Karteninformations-ASP übertragen werden, sucht der Karteninformations-ASP auf der Grundlage der Zielinformationen und der Informationen über die momentane Position nach dem Weg zum Ziel, (Schritt 705).
  • Der interaktive Audio-Server 105, der die gesuchten Weginformationen vom Karteninformations-ASP empfängt, überträgt die Weginformationen des Suchergebnisses zusammen mit dem Erfassungsendesignal an das Fahrzeug-Endgerät 100, (Schritt 706).
  • Das Fahrzeug-Endgerät 100 gibt den Weg auf der auf dem Bildschirm angezeigten Karte auf der Grundlage der empfangenen Weginformationen an. Wenn zu diesem Zeitpunkt neue Kartendaten notwendig sind, fragt das Fahrzeug-Endgerät 100 den Karteninformations-ASP direkt ab, erhält die notwendigen Kartendaten und zeigt eine Karte an, (Schritt 707).
  • Außerdem bestätigt der interaktive Audio-Server 105 durch die Audiointeraktion im Schritt 702, dass der Anwender außerdem "Verkehrsinformationen und Ereignisinformationen bezüglich des Reisewegs" wünscht, so dass der interaktive Audio-Server 105 eine Verkehrsinformationssuche bezüglich des Wegs beim Verkehrsinformations-ASP anfordert, nachdem die vorhergehende Abfrage an den Karteninformations-ASP abgeschlossen ist. Die vorher erhaltenen Zielinformationen und die Informationen über die momentane Position des Anwenders sind in der Datenbank 310 der individuellen Informationen im interaktiven Audio-Server 105 gespeichert, so dass der interaktive Audio-Server 105 außerdem diese Informationen an den Verkehrsinformations-ASP überträgt, wenn sie angefordert wer den, (Schritt 708).
  • Bei Empfang der Anforderung sucht der Verkehrsinformations-ASP nach Informationen auf der Grundlage der empfangenen Verkehrsinformationen bezüglich des Wegs und sendet die notwendigen Weginformationen, wie z. B. Stauungsinformationen und Unfallinformationen, bezüglich des Wegs über den interaktiven Audio-Server 105 an das Fahrzeug-Endgerät 100, (Schritt 709).
  • Ferner sendet der interaktive Audio-Server 105 separat die Zielinformationen und die individuellen Informationen, wie z. B. den Wunsch nach einem Ereignis, des Anwenders, die in der Datenbank 310 der individuellen Informationen gespeichert sind, an den Ereignisinformations-ASP, (Schritt 710).
  • Bei Empfang der Anforderung sucht der Ereignisinformations-ASP auf der Grundlage der empfangenen Zielinformationen und individuellen Informationen nach Informationen und überträgt die für den Anwender geeigneten Ereignisinformationen über den interaktiven Audio-Server 105 an das Fahrzeug-Endgerät 100, (Schritt 711).
  • Bei Empfang der Antwort vom Ereignisinformations-ASP überträgt der interaktive Audio-Server 105, der beurteilt, dass er alle notwendigen Dienstinformationen erhält, die Suchendedaten an das Fahrzeug-Endgerät 100. Das Fahrzeug-Endgerät 100 gibt nach dem Empfang der Suchendedaten einen vorgegebenen Ton oder vorgegebene Sprache aus und meldet dem Anwender das Ende der Suche, (Schritt 712).
  • Die Abfragen an diese mehreren ASPs können sequentiell oder pa rallel ausgeführt werden.
  • 8 zeigt einen ausführlichen Ablauf der Audiointeraktion im oben erwähnten Schritt 702, der in 7 gezeigt ist.
  • In der Stufe, in der aus der ersten Interaktion festgestellt wird, dass das die Dienste anbietende Subjekt des Anwenders die Wegunterstützung ist, erhält der interaktive Audio-Server 105 den notwendigen Anforderungsbefehl von der Dienstkenntnis-Datenbank 305. In diesem Fall erhält der interaktive Audioserver 105 als eine "Zielabfrage" und ein Element der gewünschten Bedingung Anforderungsbefehle für "das Vorhandensein der Benutzung einer Mautstraße", "das Vorhandensein des Wunsches nach Verkehrsinformationen" und "das Vorhandensein des Wunsches nach Ereignisinformationen". Auf der Grundlage dieser Anforderungsbefehle bereitet der interaktive Audio-Server 105 durch die Erzeugungseinheit 306 für interaktive Daten interaktive Daten vor und erhält die Informationen jedes Elements unter Verwendung der Befehlsumsetzungs-Verarbeitungseinheit 302, der Spracherkennungs-Verarbeitungseinheit 300 und der Sprachsynthese-Verarbeitungseinheit 301 in der interaktiven Form vom Anwender, wie in der Zeichnung gezeigt ist.
  • Während der Audiointeraktion zwischen dem Anwender und dem interaktiven Audio-Server 105 können Bilder, die den Interaktionsinhalten entsprechen, auf dem Bildschirm 104 des Fahrzeug-Endgeräts 100 angezeigt werden.
  • 9 zeigt einen ausführlichen Ablauf, wenn die oben erwähnte Audio-Interaktion im Schritt 702 von der Bildschirmausgabe begleitet wird.
  • Wie in der Zeichnung gezeigt ist, überträgt die Befehlsumsetzungs-Verarbeitungseinheit 302, wann immer die grundlegende Interaktion zwischen dem Anwender und dem interaktiven Audio-Server 105 ausgeführt wird, ein Signal, das die Ausführung oder den Abschluss der Interaktion angibt, an die Sprache-Daten-Synchronisationssteuereinheit 110. Die Sprache-Daten-Synchronisationssteuereinheit 110 erhält die der Interaktion entsprechenden Bildschirmanzeigeinformationen, die in der Dienstkenntnis-Datenbank 305 gespeichert sind, überträgt die Bildschirmanzeigeinformationen, die mit der Audiointeraktion synchronisiert sind, an die Datenkommunikations-Verarbeitungseinheit 109 und überträgt sie an das Fahrzeug-Endgerät 100.
  • Bei Empfang der Informationen zeigt das Fahrzeug-Endgerät 100 die notwendigen Informationen auf dem Bildschirm 104 auf der Grundlage der Dateninhalte der Reihe nach an.
  • 10 zeigt Beispiele der Ausgabebedingungen auf dem Bildschirm 104 des Fahrzeug-Endgeräts 100 in jedem Interaktionszustand.
  • In dieser Weise können in Synchronisation mit den Inhalten jeder ausgeführten Audiointeraktion die Interaktionsinhalte und die durch die Interaktion erhaltenen Ergebnisse auf dem Bildschirm angezeigt werden.
  • Die Sprachausgabe in einer festen Form eines Satzes, wie z. B. "Was"? am Anfang der Interaktion und "Suche. Warten Sie einen Augenblick." am Schluss der Interaktion, die vorher erklärt worden sind, können die Sprachausgabe aus dem interaktiven Audio-Server 105 oder die im Fahrzeug-Endgerät 100 gespeicherte Sprachausgabe durch das Fahrzeug-Endgerät 100 selbst unter Verwendung der Sprachdaten sein.
  • Im letzteren Fall ist es erwünscht, das Sprachausgabesubjekt unter Verwendung der Interaktionsinhalte, die zwischen dem Fahrzeug-Endgerät 100 und dem interaktiven Audio-Server 105 ausgeführt werden, und der zwischen ihnen übertragenen Daten als Auslöser umzuschalten. Die Sprachausgabe "Was?" kann z. B. zu einer internen Sprachdatenausgabe umgeschaltet werden, nachdem das Fahrzeug-Endgerät 100 bestätigt, dass die erste Verbindungsanforderung hergestellt ist, während die letzte Sprachausgabe "Suche. Warten Sie einen Augenblick." automatisch zu einer internen Sprachdatenausgabe umgeschaltet werden kann, nachdem das Fahrzeug-Endgerät 100 eine Interaktion des "Festlegens des Endes oder nicht" erfasst hat.
  • Die obige Erklärung wird unter der Annahme der Dienstanforderung der "Wegunterstützung" gegeben. Wenn außerdem davon verschiedene Dienstinformationen erhalten werden sollen, ist ein Ablauf, dass eine Interaktion durch das Drücken der Abfragetaste 500 aktiviert wird, die notwendigen Informationen durch die Interaktion mit dem interaktiven Audio-Server 105 extrahiert werden, der interaktive Audio-Server 105 die Informationsverteilungs-Dienstanbietergruppe 106 anfordert und die Ergebnisse durch den Anwender erhalten werden, fast der gleiche.
  • Dieses interaktive Audionavigationssystem stellt separat vom oben erklärten sogenannten Verfahren zum Erhalten von Navigationsinformationen durch Abfrage hauptsächlich durch den Anwender außerdem ein Verfahren zum Erhalten von Navigationsinformationen bereit, um einem Anwender Informationen hauptsächlich durch den interaktiven Audio-Server 105 ausdrücklich anzubieten. Wenn sich der Anwender z. B. zum Ziel bewegt und der Straßenzustand auf dem Reiseweg auf Grund einer unerwarteten Situation äußerst gestaut ist, kann ein Dienst zum Übertragen von Informationen bezüglich eines schwierigen Verkehrszustands auf Grund eines Unfalls an den Anwender erwähnt werden.
  • 11 zeigt einen Verarbeitungsablauf, um dem Fahrzeug-Endgerät 100 vom interaktiven Audio-Server 105 Informationen anzubieten, wenn sich die Verkehrsinformationen bezüglich des gesuchten Wegs ändern.
  • In diesem Fall besteht die Annahme, dass der Anwender bereits die Bestätigung und die Wegsuche bis zum Ziel abgeschlossen hat und sich der Anwender auf der Grundlage der Ergebnisse der Wegsuche zum Ziel bewegt. Ferner sind die Weginformationen des Anwenders bereits in der Datenbank 310 der individuellen Informationen im interaktiven Audio-Server 105 gespeichert, wobei der interaktive Audio-Server optional auf die Weginformationen Bezug nehmen kann.
  • Der interaktive Audio-Server 105 schließt den in 2 gezeigten Wegunterstützungsprozess ab, erhält die Weginformationen des Anwenders und sendet dann periodisch eine Verkehrsinformationsanforderung und die erhaltenen Weginformationen an den Verkehrsinformations-ASP und erhält die Verkehrsinformationen bezüglich des Wegs von dem Verkehrsinformations-ASP, (Schritt 1101).
  • Der interaktive Audio-Server 105 prüft die Inhalte der durch die Dienstentscheidungseinheit 304 erhaltenen Verkehrsinformationen und beurteilt vom Standpunkt der Inhalte, wie z. B. einer unerwarteten Verkehrsstauung oder eines Unfalls, ob es Informationen gibt, die dem Anwender zu melden sind oder nicht. Wenn der interaktive Audio-Server 105 beurteilt, dass es keine Notwendigkeit einer Meldung gibt, verwirft er das Ergebnis vom ASP, gibt abermals eine Verkehrsinformationsanforderung und die Weginformationen and den Verkehrsinformations-ASP aus und setzt den periodischen Prozess fort, (Schritt 1102).
  • Wenn andererseits der interaktive Audio-Server 105 beurteilt, dass Inhalte enthalten sind, die dem Anwender zu melden sind, gibt er eine Anforderung für die momentane Position an das Fahrzeug-Endgerät 100 des Anwenders aus und enthält die neuesten Informationen über die momentane Position des Anwenders, (Schritt 1103). Als ein weiteres Verfahren zum Erhalten der momentanen Position unter der Bedingung, dass das Fahrzeug-Endgerät 100 die Anforderung für die momentane Position in Abhängigkeit vom Fahrzeugzustand des Anwenders nicht akzeptieren kann, ist ein Verfahren zum Ableiten der momentanen Position aus den in der Datenbank 310 der individuellen Informationen gespeicherten Informationen, wie z. B. dem im Voraus erhaltenen Zustand der Fahrzeuggeschwindigkeit, verfügbar.
  • Der interaktive Audio-Server 105 vergleicht die vorher erhaltenen Verkehrsinformationen mit den Fahrzeugpositionsinformationen des Anwenders und beurteilt von der Positionsbeziehung des Fahrzeugs, ob die dem Anwender zu meldenden Informationen effektiv sind oder nicht. Wenn der interaktive Audio-Server 105 beurteilt, dass es keine Notwendigkeit für eine Meldung gibt, verwirft er das Ergebnis vom ASP, gibt abermals eine Verkehrsinformationsanforderung und die Weginformationen an den Verkehrsinformations-ASP aus und setzt den periodischen Prozess fort, (Schritt 1104).
  • Wenn die dem Anwender zu meldenden Informationen effektiv sind, erzeugt der interaktive Audio-Server 105 interaktive Audiodaten, die die zu meldenden Informationen enthalten, durch die Erzeugungseinheit 306 für interaktive Daten, stellt die Kommunikationsleitung mit dem Fahrzeug-Endgerät 100 des Subjektfahrzeugs her und führt dann über die Befehlsumsetzungs-Verarbeitungseinheit 302 und die Sprachsynthese-Verarbeitungseinheit 301 die Sprachausgabe zum Fahrzeug-Endgerät 100 aus. Wann immer es notwendig ist, sendet der interaktive Audio-Server 105 die Stauungsinformationen und die Unfallinformationen für die Bildschirmanzeige in Synchronisation, (Schritt 1105).
  • Wenn eine andere Anforderung, wie z. B. eine Wegänderung, auf Grund der erhaltenen Informationen erzeugt wird, fragt der Anwender den interaktiven Audio-Server 105 abermals entsprechend dem in 7 gezeigten Ablauf ab, wobei er die Informationen aktualisiert.
  • Als eine andere Struktur des interaktiven Audionavigationssystems der vorliegenden Erfindung ist eine Struktur verfügbar, bei der die Einheit, die den Sprachkommunikationsprozess im interaktiven Audio-Server betrifft, im Fahrzeug-Endgerät eingebaut ist.
  • 12 ist ein weiterer gesamter Blockschaltplan des interaktiven Audionavigationssystems.
  • Ein Fahrzeug-Endgerät 1200 in diesem Beispiel besitzt intern die Spracherkennungs-Verarbeitungseinheit 300 und die Sprachsynthese-Verarbeitungseinheit 301, die im interaktiven Audio-Server 105 installiert sind, wobei es eine Bildschirmanzeige-Steuereinheit zum Anzeigen der gewünschten Daten auf dem Bildschirm 104 besitzt. Außerdem besitzt das Fahrzeug-Endgerät 1200 die Sprache-Daten-Synchronisationssteuereinheit 110 zum Synchronisieren der Bildschirmausgabe mit der Sprachausgabe. Außerdem besitzt das Fahrzeugendgerät 1200 die Befehlsumsetzungs-Verarbeitungseinheit 302 zum Ausführen des Prozesses zum Umsetzen der Textdaten der Spracherkennungs-Verarbeitungseinheit 300 in einen Befehl, um der Host-CPU Befehle zu geben, und des Prozesses zum Umsetzen des Befehls höherer Ordnung in Textdaten, die ein Subjekt der Sprachausgabe sind, und zum Ausgeben dieser an die Sprachsynthese-Verarbeitungseinheit 301. Ferner ist das Fahrzeug-Endgerät 1200 mit dem Mikrophon 101, um die Spracheingabe zu verwirklichen, dem Lautsprecher 102 zum Ausgeben der Sprache, dem Schalter 103 zum Eingeben eines gewünschten Befehls in das Fahrzeug-Endgerät 1200 und dem Bildschirm 104, der ein Datenausgang ist, verbunden. Ferner ist das Fahrzeug-Endgerät 1200 mit dem GPS 113 verbunden, das einen Sensor zum Ausführen der Positionsmessung besitzt und das die Position eines Fahrzeugs selbst eindeutig messen kann.
  • Ein interaktiver Audio-Server 1205 in diesem Beispiel besitzt eine eingebaute Einheit, die die Sprachkommunikation im Fahrzeug-Endgerät 1200 betrifft, so dass die Verarbeitungseinheit des interaktiven Audio-Servers 105, die die Einheit betrifft, eliminiert ist, wobei der interaktive Audio-Server 1205 nur durch die Datenkommunikation mit dem Fahrzeug-Endgerät 1200 kommuniziert.
  • Die anderen Struktureinheiten sind die gleichen wie jene, die in 1 gezeigt sind.
  • Bei dieser Struktur wird der Hauptteil, der die Schnittstelle der Audiointeraktion betrifft, durch das Fahrzeug-Endgerät 1200 ausgeführt, wobei ein Unterschied zu der vorher erklärten Struktur darin besteht, dass die die Sprache betreffenden Daten, die zwischen dem Fahrzeug-Endgerät 1200 und dem interaktiven Audio-Server 1205 ausgetauscht werden, interaktive Daten sind, wie z. B. VoiceXML.
  • Als Nächstes wird ein Beispiel eines Geschäftsmodells unter Verwendung des interaktiven Audionavigationssystems dieser Ausführungsform erklärt.
  • 13 zeigt ein Beispiel eines Geschäftsmodells unter Verwendung des interaktiven Audionavigationssystems dieser Ausführungsform.
  • Das Geschäftsmodell dieses Beispiels enthält ein Unternehmen 1301 für interaktive Audiodienste für das Management und den Betrieb des oben erklärten interaktiven Audio-Servers 105, eine Betreibergesellschaft 1302 für die Lieferung der Kommunikationsleitungen, ein Internetverbindungsdienst-Unternehmen 1303 für das Anbieten von Verbindungsdiensten mit dem Netz 107 des Internets, ein Informationsverteilungsunternehmen 1304 zum Verteilen von Informationen, wie z. B. des Karteninformations-ASP und des Verkehrsinformations-ASP, einen Werbeagenten 1305 zum Verbreiten der Werbung für die Produkte auf Grund der von dem Informationsverteilungsunternehmen 1304 angebotenen Inhalte, einen Werbetreibenden 1306 zum Herstellen der zu bewerbenden Produkte, einen Hersteller 1307 für Fahrzeug-Endgeräte zum Herstellen des Fahrzeug-Endgeräts 100 und einen Dienstanwender 1308 für die Verwendung dieses Dienstes unter Verwendung des Fahrzeug-Endgeräts 100. Der Werbeagent 1305 kann durch den Werbetreibenden 1306 gemanagt werden.
  • In 13 gibt jeder Pfeil mit einer ausgezogenen Linie den Fluss von Informationen und Produktion an, während jeder Pfeil mit einer punktierten Linie den Fluss von Geld angibt. Die Kommunikationsvorrichtung 111 besitzt die Form eines tragbaren Telephons, wobei in diesem Beispiel ein Verfahren zum Kaufen und Verwenden der Vorrichtung von der Betreibergesellschaft 1302 übernommen wird. Um diesen Dienst zu nutzen, muss der Dienstanwender 1308 nämlich zuerst das Fahrzeug-Endgerät 100 vom Hersteller 1307 für Fahrzeug-Endgeräte und die Kommunikationsvorrichtung 111 von der Betreibergesellschaft 1302 kaufen, indem er die Preise für sie an die Unternehmen bezahlt. Das Fahrzeug-Endgerät 100 kann von Anfang an in dem vom Dienstanwender gekauften Fahrzeug enthalten sein.
  • Der Dienstanwender 1308 bezahlt die Kommunikationsgebühr an die Betreibergesellschaft 1302, um die Kommunikationsleitung zu verwenden. Andererseits bietet die Betreibergesellschaft 1302 die Kommunikationsleitung dem Dienstanwender 1308 oder dem Unternehmen 1301 für interaktive Audiodienste an und fordert die Kommunikationsgebühr und die Dienstgebühr zum Zeitpunkt der Verwendung dieses Dienstes vom Dienstanwender 1308 an. Dann zahlt die Betreibergesellschaft 1302 den Betrag, der zu der Dienstgebühr unter der vom Dienstanwender 1308 eingezogenen Gebühr äquivalent ist, an das Unternehmen 1301 für interaktive Audiodienste.
  • Ferner schließen das Unternehmen 1301 für interaktive Audiodienste zum Anbieten dieses Dienstes bzw. das Informationsverteilungsunternehmen 1304 zum Verteilen der Dienstinformationen einen Ver trag mit dem Internetverbindungsdienst-Unternehmen 1303, um eine Verbindung zum Internet herzustellen, wobei sie danach die Mietgebühr entsprechend dem Vertrag bezahlen.
  • Der Werbetreibende 1306 zahlt die Werbegebühr an den Werbeagenten 1305 und fordert die Werbung an, wobei der Werbeagent 1305 die Druckgebühr an das Informationsverteilungsunternehmen 1304 zahlt und den Druck der Produktinformationen anfordert, deren Inhalte der Werbeanforderung unterworfen sind. Wenn der Dienstanwender 1308 auf Grund der erhaltenen Werbeinformationen Informationen über sein Lieblingsprodukt findet, zahlt er den Produktpreis und kauft das Produkt.
  • Zusätzlich zum oben erwähnten Geschäftsmodell kann eine Struktur, bei der die Kommunikationsvorrichtung 111 in das Fahrzeug-Endgerät 100 eingebaut ist, verwendet werden. In diesem Fall ist der Preis der Kommunikationsvorrichtung 111 im Preis des Fahrzeug-Endgeräts 100 enthalten.
  • Gemäß der vorliegenden Erfindung umfasst das interaktive Audionavigationssystem das bewegliche Endgerät, das Sprache eingeben kann, die Kommunikationsvorrichtung, den interaktiven Audio-Server, der die Spracherkennung und -synthese ausführen kann und der mit dem Informationsverteilungs-Dienstanbieter zu verbinden ist, und den Informationsverteilungs-Dienstanbieter, der die Karteninformationen und die Verkehrsinformationen enthält, wobei folglich mehrere Informationsverteilungsdienste synthetisch verbunden sind und die durch einen Fahrer gewünschten Informationen angeboten werden können. Ferner kann das bewegliche Endgerät preiswert hergestellt werden, weil die Funktion vereinfacht ist. Ferner können die notwendigen Dienste durch Sprache gegeben werden, so dass ein Effekt erzeugt wird, dass die Bedienbarkeit im hohen Maße verbessert ist.

Claims (9)

  1. Bewegliches Endgerät (100) zum Ausgeben von Informationen, die von einem Informationsverteilungs-Dienstanbieter (106) erhalten werden und Karteninformationen, Verkehrsinformationen und andere erforderliche Informationen enthalten, das umfasst: – ein Spracheingabemittel (101) zum Eingeben von Sprachbefehlen eines Fahrers; eine Sprachausgabevorrichtung (102) zum Ausgeben von Sprachdaten; und – eine Kommunikationsvorrichtung (101) zum Kommunizieren mit einem interaktiven Audio-Server (105), wobei der interaktive Audio-Server (105) eine Spracherkennungsverarbeitung und eine Sprachsynthetisierungsverarbeitung ausführt, wobei die Kommunikationsvorrichtung (111) eine Verbindung mit einer Kommunikationsleitung (112) außerhalb eines Fahrzeugs herstellt, um Sprachdaten, die durch das Spracheingabemittel (101) eingegeben werden, an den interaktiven Audio-Server (105) zu übertragen, um so eine interaktive Audiokommunikation über die Kommunikationsleitung (112) auszuführen, um Ergebnisse der interaktiven Audiokommunikation von dem interaktiven Audio-Server (105) in Form von Sprache oder von Daten zu empfangen; wobei das bewegliche Endgerät (100) eine Verarbeitungseinheit für eine Sprachsynthese-Verarbeitungsfunktion und eine Spracherkennungs-Verarbeitungsfunktion umfasst; dadurch gekennzeichnet, dass der interaktive Audio-Server (105) dann, wenn das bewegliche Endgerät (100) eine Verbindung mit dem interaktiven Audio-Server (105) über die Kommunikationsleitung (112) anfordert, eine Bestätigungsverarbeitungsfunktion (603) zum Identifizieren eines Anwenders des beweglichen Endgeräts (100) anhand individueller Informationen, die in der Kommunikationsvorrichtung (111) im Voraus gesetzt werden, besitzt.
  2. Bewegliches Endgerät (100) nach Anspruch 1, das ferner umfasst: Eingabemittel (500) zum Starten der Kommunikationsvorrichtung (111) durch eine einzige Operation und zum Herstellen einer Kommunikation mit dem interaktiven Audio-Server (105).
  3. Bewegliches Endgerät (100) nach Anspruch 1, wobei das bewegliche Endgerät (100) einen Bildschirm (104) zum Anzeigen von Bildern von Zeichen- und Karteninformationen besitzt und Interaktionsinhalte während einer Audiointeraktion auf dem Bildschirm (104) anzeigt.
  4. Bewegliches Endgerät (100) nach Anspruch 1, wobei: das bewegliche Endgerät (100) dann, wenn effektive Informationen wie etwa individuelle Informationen in die Kommunikationsvorrichtung (111) im Voraus eingegeben werden und die Kommunikationsvorrichtung (111) an einem vorgegebenen Ort des beweglichen Endgeräts (100) installiert ist, automatisch eine Kommunikation mit dem interaktiven Audio-Server (105) herstellt und die Informationen an den interaktiven Audio-Server (105) überträgt.
  5. Bewegliches Endgerät (100) nach Anspruch 1, wobei: das bewegliche Endgerät (100) dann, wenn die Kommunikationsvorrichtung (111) an einem vorgegebenen Ort des beweglichen Endgeräts (100) installiert ist, automatisch eine Kommunikation mit dem interaktiven Audio-Server (105) herstellt und effektive Informationen wie etwa eine Historie zum Zeitpunkt früherer Zugriffe durch den interaktiven Audio-Server (105) empfängt.
  6. Bewegliches Endgerät nach Anspruch 1, wobei: das bewegliche Endgerät (100) die Sprachausgabe zwischen der Sprachausgabe von dem interaktiven Audio-Server (105) und der Sprachausgabe in dem beweglichen Endgerät (100) umschaltet, nachdem das bewegliche Endgerät (100) Sprachdaten, die eine bestimmte Bedeutung wie etwa ein Interaktionsende haben, übertragen hat.
  7. Bewegliches Endgerät (100) nach Anspruch 1, wobei: das bewegliche Endgerät (100) automatisch vorgegebene nichtsprachliche Informationen wie etwa vorhandene Ortsinformationen, die in dem beweglichen Endgerät (100) gehalten werden, an den interaktiven Audio-Server (105) überträgt, nachdem das bewegliche Endgerät (100) Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende von dem interaktiven Audio-Server (105) empfangen hat.
  8. Bewegliches Endgerät (100) nach Anspruch 1, wobei: das bewegliche Endgerät (100) automatisch nichtsprachliche vorgegebene Informationen wie etwa vorhandene Ortsinformationen, die in dem beweglichen Endgerät (100) gehalten werden, an den interaktiven Audio-Server (105) überträgt, nachdem das bewegliche Endgerät (100) Sprachdaten mit einer bestimmten Bedeutung wie etwa ein Interaktionsende übertragen hat.
  9. Bewegliches Endgerät (100) nach Anspruch 1, wobei: das bewegliche Endgerät (100) die Sprachausgabe zwischen einer Sprachausgabe von dem interaktiven Audio-Server (105) und einer Sprachausgabe von der Verarbeitungseinheit umschaltet, nachdem das bewegliche Endgerät (100) von dem interaktiven Audio-Server (105) Sprachdaten mit einer bestimmten Bedeutung, die ein Ende der Kommunikation mit dem beweglichen Endgerät (100) meldet, empfangen hat.
DE60226194T 2001-04-23 2002-02-25 Mobiles Endgerät Expired - Lifetime DE60226194T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001123759A JP2002318132A (ja) 2001-04-23 2001-04-23 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
JP2001123759 2001-04-23

Publications (2)

Publication Number Publication Date
DE60226194D1 DE60226194D1 (de) 2008-06-05
DE60226194T2 true DE60226194T2 (de) 2009-05-14

Family

ID=18973255

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60226194T Expired - Lifetime DE60226194T2 (de) 2001-04-23 2002-02-25 Mobiles Endgerät

Country Status (4)

Country Link
US (1) US7076362B2 (de)
EP (1) EP1253569B1 (de)
JP (1) JP2002318132A (de)
DE (1) DE60226194T2 (de)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10573093B2 (en) * 1995-06-07 2020-02-25 Automotive Technologies International, Inc. Vehicle computer design and use techniques for receiving navigation software
KR100454970B1 (ko) * 2001-12-03 2004-11-06 삼성전자주식회사 네비게이션 시스템에서 시설물 검색 방법
JP2003269969A (ja) * 2002-03-13 2003-09-25 Sony Corp ナビゲーション装置、地点情報の表示方法およびプログラム
JP2003346285A (ja) * 2002-03-20 2003-12-05 Vehicle Information & Communication System Center 道路情報送信装置、道路情報送信方法、道路情報送信プログラムおよび道路情報受信装置、道路情報受信方法、道路情報受信プログラム
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
DE10257788A1 (de) * 2002-12-11 2004-07-22 Daimlerchrysler Ag Verfahren zur informativen Unterstützung eines Fahrzeugführers mittels eines Fahrzeug-Multimediasystems
JP2004301698A (ja) * 2003-03-31 2004-10-28 Hitachi Ltd 車載情報サービスシステム
JP4026543B2 (ja) 2003-05-26 2007-12-26 日産自動車株式会社 車両用情報提供方法および車両用情報提供装置
JP2004348658A (ja) 2003-05-26 2004-12-09 Nissan Motor Co Ltd 車両用情報提供方法および車両用情報提供装置
JP2004354201A (ja) * 2003-05-29 2004-12-16 Fujitsu Ten Ltd ネットワークを利用した経路情報取得システム、端末装置、及び中継装置
JP2005234666A (ja) * 2004-02-17 2005-09-02 Nec Corp PoCシステムおよびPoCサーバならびにPoCクライアント
US20050190895A1 (en) * 2004-03-01 2005-09-01 Lloyd Ploof Remotely programmable messaging apparatus and method thereof
JP4554285B2 (ja) * 2004-06-18 2010-09-29 トヨタ自動車株式会社 音声認識システム、音声認識方法、及び音声認識プログラム
US7373248B2 (en) * 2004-09-10 2008-05-13 Atx Group, Inc. Systems and methods for off-board voice-automated vehicle navigation
US8825379B2 (en) 2005-01-05 2014-09-02 Sirius Xm Connected Vehicle Services Inc. Systems and methods for off-board voice-automated vehicle navigation
US20060106615A1 (en) * 2004-11-17 2006-05-18 Denso Corporation Speech interaction apparatus and speech interaction method
KR100716882B1 (ko) * 2005-01-07 2007-05-09 주식회사 현대오토넷 이동통신시스템을 이용한 위치정보 공유 시스템 및 방법
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8650030B2 (en) * 2007-04-02 2014-02-11 Google Inc. Location based responses to telephone requests
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8626152B2 (en) 2008-01-31 2014-01-07 Agero Connected Sevices, Inc. Flexible telematics system and method for providing telematics to a vehicle
US8255224B2 (en) * 2008-03-07 2012-08-28 Google Inc. Voice recognition grammar selection based on context
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US20110093158A1 (en) * 2009-10-21 2011-04-21 Ford Global Technologies, Llc Smart vehicle manuals and maintenance tracking system
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
US8400332B2 (en) * 2010-02-09 2013-03-19 Ford Global Technologies, Llc Emotive advisory system including time agent
EP2586026B1 (de) * 2010-06-24 2016-11-16 Honda Motor Co., Ltd. Kommunikationssystem und -verfahren zwischen einem spracherkennungssystem in einem fahrzeug und einem spracherkennungssystem ausserhalb eines fahrzeugs
US20120252496A1 (en) * 2010-09-29 2012-10-04 Ho-Sung Chien Method of Providing Service to On Board Unit with Mobile Device
KR101283210B1 (ko) * 2010-11-09 2013-07-05 기아자동차주식회사 카오디오 장치를 이용한 주행 경로 안내 시스템 및 그 카오디오 장치, 이를 이용한 경로 안내 방법
CN103959354B (zh) * 2011-08-31 2017-12-05 株式会社 Kmw 用于提供安全驾驶信息的路灯和用于使用路灯来提供安全驾驶信息的系统
CN103839548B (zh) 2012-11-26 2018-06-01 腾讯科技(北京)有限公司 一种语音交互方法、装置、系统和移动终端
JP5753869B2 (ja) * 2013-03-26 2015-07-22 富士ソフト株式会社 音声認識端末およびコンピュータ端末を用いる音声認識方法
US9997160B2 (en) 2013-07-01 2018-06-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for dynamic download of embedded voice components
JP6411017B2 (ja) * 2013-09-27 2018-10-24 クラリオン株式会社 サーバ、及び、情報処理方法
JP6265525B2 (ja) * 2013-10-08 2018-01-24 東芝情報システム株式会社 運転関連情報共用システム及び運転者端末
CN103943108A (zh) * 2014-04-04 2014-07-23 广东翼卡车联网服务有限公司 通过方向盘控制器实现手机终端语音导航的方法及系统
US9626703B2 (en) 2014-09-16 2017-04-18 Voicebox Technologies Corporation Voice commerce
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US9628415B2 (en) * 2015-01-07 2017-04-18 International Business Machines Corporation Destination-configured topic information updates
CN106908076A (zh) * 2015-12-23 2017-06-30 阿里巴巴集团控股有限公司 一种进行导航的方法、终端和网络侧设备
WO2018023106A1 (en) 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
JP7095094B2 (ja) * 2018-01-08 2022-07-04 ヘーレ グローバル ベスローテン フェンノートシャップ 位置情報サービスの提供ための分散処理システムと方法
US10984786B2 (en) * 2018-05-07 2021-04-20 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
CN112527984B (zh) * 2020-12-04 2024-04-19 北京百度网讯科技有限公司 获取拥堵事件信息的方法、装置、设备和计算机存储介质
WO2022255992A1 (en) * 2021-06-01 2022-12-08 Paymentus Corporation Methods, apparatuses, and systems for dynamically navigating interactive communication systems

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274560A (en) * 1990-12-03 1993-12-28 Audio Navigation Systems, Inc. Sensor free vehicle navigation system utilizing a voice input/output interface for routing a driver from his source point to his destination point
US5592389A (en) * 1990-12-03 1997-01-07 Ans, Llp Navigation system utilizing audio CD player for data storage
JP2602158B2 (ja) * 1992-12-04 1997-04-23 株式会社エクォス・リサーチ 音声出力装置
US5903228A (en) * 1994-05-27 1999-05-11 Sony Corporation Map information display apparatus and traveling route display apparatus and route guidance apparatus for moving body
US5758257A (en) * 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US6571279B1 (en) * 1997-12-05 2003-05-27 Pinpoint Incorporated Location enhanced information delivery system
US5729109A (en) * 1995-07-19 1998-03-17 Matsushita Electric Industrial Co., Ltd. Navigation system and intersection guidance method
EP0762080B1 (de) * 1995-08-25 2002-03-27 Aisin Aw Co., Ltd. Navigationssystem für Fahrzeuge
JPH09114369A (ja) * 1995-10-16 1997-05-02 Sony Corp ナビゲーション装置,ナビゲート方法及び自動車
JPH09257501A (ja) * 1996-01-16 1997-10-03 Mitsubishi Electric Corp 総合案内システム
JP3703045B2 (ja) 1996-09-30 2005-10-05 マツダ株式会社 ナビゲーション装置
US6208932B1 (en) * 1996-09-30 2001-03-27 Mazda Motor Corporation Navigation apparatus
JP3703048B2 (ja) 1996-09-30 2005-10-05 マツダ株式会社 ナビゲーション装置
JPH10177469A (ja) 1996-12-16 1998-06-30 Casio Comput Co Ltd 移動端末音声認識/データベース検索/リソースアクセス通信システム
JPH10271223A (ja) 1997-02-18 1998-10-09 Lucent Technol Inc ウェブ情報へのアクセス提供装置及び方法
EP1408692A1 (de) * 1997-02-21 2004-04-14 Pinpoint Incorporated Rundfunkdatenverteilsystem mit asymmetrischen Auf- und Abwärtsverbindungsbandbreiten
JP3507654B2 (ja) 1997-04-01 2004-03-15 富士通テン株式会社 ナビゲーション装置
FR2761837B1 (fr) 1997-04-08 1999-06-11 Sophie Sommelet Dispositif d'aide a la navigation ayant une architecture distribuee basee sur internet
FR2762906B1 (fr) * 1997-05-02 1999-06-04 Renault Procede et dispositif de guidage de vehicule automobile
JPH1114394A (ja) 1997-06-20 1999-01-22 Alpine Electron Inc 車載用ナビゲーション装置
JPH11118497A (ja) 1997-10-15 1999-04-30 Nissan Diesel Motor Co Ltd 車両用モニタシステム
JP3474089B2 (ja) * 1997-11-06 2003-12-08 株式会社デンソー ナビゲーション装置
JPH11201771A (ja) 1998-01-08 1999-07-30 Nissan Motor Co Ltd ナビゲーション装置
JP4156080B2 (ja) * 1998-06-30 2008-09-24 株式会社デンソー 要求推定装置
US6539080B1 (en) * 1998-07-14 2003-03-25 Ameritech Corporation Method and system for providing quick directions
JP2000055691A (ja) 1998-08-06 2000-02-25 Toyota Central Res & Dev Lab Inc 情報提示制御装置
JP4085500B2 (ja) * 1999-01-29 2008-05-14 株式会社エクォス・リサーチ 車両状況把握装置、エージェント装置、および、車両制御装置
JP2000268297A (ja) 1999-03-16 2000-09-29 Nissan Motor Co Ltd 安全運転評価装置
JP4258585B2 (ja) * 1999-03-19 2009-04-30 株式会社エクォス・リサーチ 目的地設定装置
JP2000322699A (ja) 1999-05-12 2000-11-24 Toshiba Corp 車載機器の制御装置及びその制御方法
JP2000351352A (ja) 1999-06-11 2000-12-19 Nippon Seiki Co Ltd 車両用運転支援装置
JP3896728B2 (ja) * 1999-06-23 2007-03-22 トヨタ自動車株式会社 携帯型端末装置及び車載情報処理装置
US6788768B1 (en) * 1999-09-13 2004-09-07 Microstrategy, Incorporated System and method for real-time, personalized, dynamic, interactive voice services for book-related information
US20020049535A1 (en) * 1999-09-20 2002-04-25 Ralf Rigo Wireless interactive voice-actuated mobile telematics system
WO2001022112A1 (en) * 1999-09-22 2001-03-29 Motorola, Inc. A method and apparatus for providing navigational services in a wireless communication device
EP1224797A1 (de) * 1999-10-01 2002-07-24 Bevocal, Inc. Verfahren und system für sprachschnittstelle
JP3938825B2 (ja) 1999-11-05 2007-06-27 アルパイン株式会社 ナビゲーション装置
JP4092829B2 (ja) 1999-11-17 2008-05-28 株式会社デンソー カーナビゲーション装置
US6526335B1 (en) * 2000-01-24 2003-02-25 G. Victor Treyz Automobile personal computer systems
US6615130B2 (en) * 2000-03-17 2003-09-02 Makor Issues And Rights Ltd. Real time vehicle guidance and traffic forecasting system
US7092370B2 (en) * 2000-08-17 2006-08-15 Roamware, Inc. Method and system for wireless voice channel/data channel integration
JP2002168645A (ja) * 2000-11-29 2002-06-14 Sharp Corp ナビゲーション装置と通信基地局、およびそれらを用いたナビゲーションシステムとナビゲーション方法
JP2002286473A (ja) * 2001-03-22 2002-10-03 Auto Network Gijutsu Kenkyusho:Kk 推奨経路計算方法
US6721633B2 (en) * 2001-09-28 2004-04-13 Robert Bosch Gmbh Method and device for interfacing a driver information system using a voice portal server

Also Published As

Publication number Publication date
JP2002318132A (ja) 2002-10-31
EP1253569A2 (de) 2002-10-30
EP1253569B1 (de) 2008-04-23
US20020156570A1 (en) 2002-10-24
US7076362B2 (en) 2006-07-11
DE60226194D1 (de) 2008-06-05
EP1253569A3 (de) 2004-03-31

Similar Documents

Publication Publication Date Title
DE60226194T2 (de) Mobiles Endgerät
DE602004006181T2 (de) Navigationsgerät mit Bestimmung der Abfahrtszeit
DE60035964T2 (de) Datenausgabesteuergerät
DE60122432T2 (de) Datenausgangs-kontroll-vorrichtung und persönliches digitales endgerät
DE69926271T2 (de) Verfahren zur Vergebührung für ein Informationsübertragungsnetz
DE69725382T2 (de) Navigationssystem unter Verwendung eines tragbaren Telefons und Navigationsverfahren, das dieses System verwendet
DE69934648T2 (de) Informationsauffindungssystem
DE60120806T2 (de) Server zur Bereitstellung von Navigationsinformationen
DE60034550T2 (de) Vorrichtung zur datenausgabesteuerung
DE69907601T2 (de) Verfahren und Vorrichtung zum Auswählen der Rufnummer eines Teilnehmers
DE102005060072B4 (de) Verfahren und Vorrichtung zum Verwalten von Benutzer-Nametags für ein Fahrzeugkommunikationssystem
EP1360458B1 (de) Verfahren zum austauschen von navigationsinformationen
DE602004006328T2 (de) Informationsbereitstellungssystem
DE102005058685A1 (de) Schnittstelle zu einem entfernten Navigationsserver
DE60123153T2 (de) Sprachgesteuertes Browsersystem
DE60034436T2 (de) Datenausgabesteuergerät
DE10213542A1 (de) Verfahren für einen Datenzugriff und Abrechnungssystem bezüglich Kartendaten für eine Navigation, Programm, Navigationssystem, Navigationsverfahren, Zentrale und Navigationsvorrichtung
DE102010056404A1 (de) Heruntergeladene Ziele und Schnittstelle für mehrere fahrzeuginterne Navigationseinrichtungen
DE10317244B4 (de) In einem Fahrzeug installierte Navigationsvorrichtung und Kommunikationsverfahren für diese
EP1249992B1 (de) Verfahren zum Betrieb eines automatischen Branchen-Auskunftssystems
CN107766336A (zh) 远程实时翻译运营系统及其运营方法
KR20040044130A (ko) 상담업무ㆍ지원시스템, 상담업무 단말기, 상담업무지원단말기, 서버 및 프로그램
EP1162810A2 (de) Datenverbreitungsvorrichtung und -verfahren
DE60122810T2 (de) Informationssuchsystem unter Verwendung eines tragbaren Funkendgerätes
EP1009137A2 (de) Verfahren zum Zugriff auf Ortsangaben enthaltende Daten sowie zugehöriges Programm und zugehöriger Rechner

Legal Events

Date Code Title Description
8364 No opposition during term of opposition