-
TECHNISCHES GEBIET
-
Das technische Gebiet betrifft im Allgemeinen Sprachsysteme und betrifft genauer gesagt Verfahren und Systeme zum Suchen nach einem Sonderziel in solchen Systemen.
-
HINTERGRUND
-
Fahrzeugsysteme mit gesprochenen Dialogen (bzw. „Sprachsysteme”) führen unter anderem eine Spracherkennung basierend auf der Sprache aus, die von den Insassen eines Fahrzeugs geäußert wird. Die Sprachäußerungen umfassen typischerweise Befehle, die mit einem oder mehreren Merkmale des Fahrzeugs sowie anderer Systeme (z.B. eingebetteter Navigationssysteme), die für das Fahrzeug zugänglich sind, in Verbindung stehen oder diese steuern. Im Allgemeinen generiert das Sprachsystem gesprochene Befehle als Reaktion auf die Sprachäußerungen, und in manchen Fällen werden die gesprochenen Befehle als Reaktion darauf generiert, dass das Sprachsystem weitere Informationen benötigt, um die Spracherkennung auszuführen.
-
Eine Navigationssystem-Datenbank umfasst im Allgemeinen sowohl phonetische Daten (z.B. ausgesprochene Namen von Sonderzielen) als auch Textdaten. Die phonetischen Daten können jedoch manchmal recht begrenzt sein und können erfordern, dass der Benutzer eine Sprachäußerung bereitstellt, die eine genaue, wortwörtliche Übereinstimmung mit einem Element (oder einer geringen Anzahl von Elementen) ist, das in der Navigationssystem-Datenbank gespeichert ist. D.h. die Navigationssystem-Datenbank könnte phonetische Daten für ein Sonderziel umfassen, das „Phil's Bar and Grill” entspricht. In diesem Fall könnte es sein, dass das System nicht in der Lage ist, dieses Ergebnis zu finden, wenn der Benutzer die Abkürzung „Phil's” ausspricht, selbst wenn sich die Leute damit üblicherweise auf dieses Sonderziel beziehen.
-
Entsprechend ist es wünschenswert, verbesserte Verfahren und Systeme zum Suchen nach Sonderzielen und anderen derartigen Daten in einem Fahrzeugnavigationssystem bereitzustellen. Ferner werden andere wünschenswerte Merkmale und Kennzeichen der vorliegenden Erfindung aus der nachstehenden ausführlichen Beschreibung und den beiliegenden Ansprüchen zusammen mit den beiliegenden Zeichnungen und dem vorstehenden technischen Gebiet und Hintergrund gesehen hervorgehen.
-
KURZDARSTELLUNG
-
Ein Verfahren, das Navigationssystemdaten durchsucht, umfasst gemäß einer Ausführungsform das Empfangen einer gesprochenen Äußerung von einem Benutzer, das Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht, und das Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und das Erzeugen einer damit verknüpften Ergebnisliste.
-
Gemäß einer Ausführungsform umfasst ein Navigationssystem für ein Fahrzeug Folgendes: eine Speicherkomponente zum Speichern von Navigationssystemdaten; ein Diktiermodul, das konfiguriert ist, um eine gesprochene Äußerung von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und ein Suchmodul, das konfiguriert ist, um die Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen und eine damit verknüpfte Ergebnisliste zu erzeugen.
-
BESCHREIBUNG DER ZEICHNUNGEN
-
Die beispielhaften Ausführungsformen werden nachstehend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, wobei die gleichen Bezugszeichen die gleichen Elemente bezeichnen. Es zeigen:
-
1 ein Funktionsblockdiagramm eines Fahrzeugs, das ein Sprachsystem umfasst, gemäß diversen Ausführungsbeispielen;
-
2 ein Funktionsblockdiagramm, das ein Navigationssystem gemäß einem Ausführungsbeispiel abbildet; und
-
3 ein Ablaufschema, das ein Verfahren zum Ausführen einer Sonderzielsuche in Verbindung mit einem Navigationssystem abbildet.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Der hier beschriebene Gegenstand betrifft im Allgemeinen die Verwendung eines Diktiermoduls in Verbindung mit einer „unscharfen” bzw. „genäherten Text-”Suchmaschine, um eine Navigationssystem-Datenbank abzufragen, um beispielsweise Sonderziele zu finden, die ansonsten durch Suchen nur mit phonetischen Daten schwer zu finden wären. In dieser Hinsicht ist die nachstehende ausführliche Beschreibung rein beispielhafter Art und nicht dazu bestimmt, die Anwendung und Verwendungen einzuschränken. Ferner ist es nicht beabsichtigt, durch eine ausgedrückte oder bedingte Theorie gebunden zu sein, die in dem vorstehenden technischen Gebiet, dem Hintergrund, der Kurzdarstellung oder der nachstehenden ausführlichen Beschreibung vorgelegt wird. Wie er hier verwendet wird, bezieht sich der Begriff „Modul” auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (geteilt, dediziert oder gruppiert) und ein Speichermedium (z.B. ein nicht vorübergehendes Medium) und einen Speicher, der ein oder mehrere computerlesbare Software- oder Firmware-Programme ausführt, eine kombinatorische logische Schaltung und/oder andere geeignete Komponente, welche die beschriebene Funktion bereitstellen.
-
Nun mit Bezug auf 1 wird gemäß den Ausführungsbeispielen des hier beschriebenen Gegenstandes ein System mit gesprochenen Dialogen (bzw. einfach ein „Sprachsystem”) 10 in einem Fahrzeug 12 bereitgestellt. Im Allgemeinen stellt das Sprachsystem 10 eine Spracherkennung, eine Dialogverwaltung und eine Sprachgenerierung für ein oder mehrere Fahrzeugsysteme über ein Mensch-Maschine-Schnittstellen-(HMI)Modul 14 bereit, das konfiguriert ist, um von einem oder mehreren Benutzern 40 (z.B. einem Fahrer, einem Mitfahrer usw.) bedient zu werden (oder ansonsten eine Schnittstelle damit zu bilden). Derartige Fahrzeugsysteme können beispielsweise ein Telefonsystem 16, ein Navigationssystem 18, ein Mediensystem 20, ein Telematik-System 22, ein Netzwerksystem 24 und ein beliebiges anderes Fahrzeugsystem umfassen, das eine sprachabhängige Anwendung umfassen kann. Bei einigen Ausführungsformen ist bzw. sind ein oder mehrere der Fahrzeugsysteme kommunikationsmäßig mit einem Netzwerk (z.B. einem proprietären Netzwerk, einem 4G-Netzwerk oder dergleichen) gekoppelt, das eine Datenkommunikation mit einem oder mehreren nachgeschalteten Servern 26 bereitstellt.
-
Eine oder mehrere mobile Vorrichtungen 50 könnten auch in dem Fahrzeug 12 vorliegen, wozu ein oder mehrere Smartphones, Tablet-Computer, Feature-Phones usw. gehören. Die mobile Vorrichtung 50 kann auch kommunikationsmäßig über eine geeignete drahtlose Verbindung (z.B. Bluetooth oder WiFi) mit der HMI 14 gekoppelt sein, so dass eine oder mehrere Anwendungen, die auf der mobilen Vorrichtung 50 speicherresident sind, für den Benutzer 40 über die HMI 14 zugänglich sind. Das Sprachsystem 10 kommuniziert mit den Fahrzeugsystemen 14, 16, 18, 20, 22, 24 und 26 über einen Kommunikationsbus und/oder ein anderes Datenkommunikationsnetzwerk 29 (z.B. drahtgebunden, Kurzstreckenfunk oder Langstreckenfunk). Der Kommunikationsbus kann beispielsweise ein Steuergerätenetz-(CAN)Bus, ein lokaler Zusammenschaltungsnetz-(LIN)Bus oder dergleichen sein. Es versteht sich das Sprachsystem 10 in Verbindung sowohl mit fahrzeugbasierten Umgebungen als auch mit nicht fahrzeugbasierten Umgebungen verwendet werden kann, die eine oder mehrere sprachabhängige Anwendungen umfassen, und dass die hier bereitgestellten fahrzeugbasierten Beispiele ohne Verlust an Allgemeingültigkeit dargelegt werden.
-
Wie abgebildet, umfasst das Sprachsystem 10 ein Sprachverständnismodul 32, ein Dialogverwaltungsmodul 34 und ein Sprachgenerierungsmodul 35. Diese Funktionsmodule können als getrennte Systeme oder als ein kombiniertes, integriertes System umgesetzt werden. Im Allgemeinen empfängt das HMI-Modul 14 ein akustisches Signal (bzw. eine „Sprachäußerung”) 41 von dem Benutzer 40, das dem Sprachverständnismodul 32 bereitgestellt wird. Das Sprachverständnismodul 32 umfasst eine beliebige Kombination von Hardware und/oder Software, die konfiguriert ist, um die Sprachäußerung von dem HMI-Modul 14 (die über ein oder mehrere Mikrofone 52 empfangen wird) unter Verwendung geeigneter Spracherkennungstechniken, einschließlich beispielsweise einer automatischen Spracherkennung und einer semantischen Decodierung (oder Lautsprachenverständnis (SLU)), zu verarbeiten. Unter Verwendung derartiger Techniken generiert das Sprachverständnismodul 32 eine Liste (oder Listen) 33 mit möglichen Ergebnissen der Sprachäußerung. Bei einer Ausführungsform umfasst die Liste 33 eine oder mehrere Satzhypothesen, die eine Wahrscheinlichkeitsverteilung über den Satz von Äußerungen darstellen, die der Benutzer 40 vielleicht ausgesprochen hat (d.h. Äußerung 41). Die Liste 33 könnte beispielsweise die Form einer N-Besten-Liste annehmen. Gemäß diversen Ausführungsformen, wie sie nachstehend ausführlicher beschrieben werden, können diktatbasierte Spracherkennungstechniken von dem Modul 32 in Verbindung mit einer „unscharfen” oder „teilweisen” Suche von Sonderzielen verwendet werden, die in dem Navigationssystem 18 gespeichert sind oder dort anderweitig zur Verfügung stehen.
-
Das Dialogverwaltungsmodul 34 umfasst eine beliebige Kombination aus Hardware und/oder Software, die konfiguriert ist, um basierend auf der Liste 33 eine Interaktionssequenz und eine Auswahl von Sprachaufforderungen 42 zu verwalten, die dem Benutzer vorgesprochen werden sollen. Wenn eine Liste 33 mehr als ein mögliches Ergebnis enthält, verwendet das Dialogverwaltungsmodul 34 Desambiguierungsstrategien, um einen Dialog von Aufforderungen mit dem Benutzer 40 zu verwalten, so dass ein erkanntes Ergebnis bestimmt werden kann. Gemäß den Ausführungsbeispielen ist das Dialogverwaltungsmodul 34 in der Lage, Dialogzusammenhänge zu verwalten, wie es nachstehend ausführlicher beschrieben wird. Das Sprachgenerierungsmodul 35 umfasst eine beliebige Kombination aus Hardware und/oder Software, die konfiguriert ist, um gesprochene Aufforderungen 42 für einen Benutzer 40 basierend auf dem Dialog, der von dem Dialogverwaltungsmodul 34 bestimmt wird, zu generieren. In dieser Hinsicht stellt das Sprachgenerierungsmodul 35 im Allgemeinen eine natürliche Sprachgenerierung (NLG) und eine Sprachsynthese oder Text-Sprachumwandlung (TTS) bereit.
-
Zusätzlich zu dem gesprochenen Dialog könnten die Benutzer 40 auch mit der HMI 14 über diverse Tasten, Schalter, Benutzerschnittstellenelemente mit Berührungsbildschirm, Gesten (z.B. Handgesten, die von einer oder mehreren Kameras erkannt werden, die in dem Fahrzeug 12 bereitgestellt wird bzw. werden) und dergleichen, interagieren. Bei einer Ausführungsform wird eine Taste 54 (z.B. eine „Wechselsprechtaste” oder einfach eine „Sprechtaste”) in bequemer Reichweite für einen oder mehrere Benutzer 40 bereitgestellt. Beispielsweise kann die Taste 54 in ein Lenkrad 56 eingebaut sein.
-
Nun mit Bezug auf 2 umfasst gemäß diversen Ausführungsbeispielen ein Navigationssuchsystem 200 im Allgemeinen ein Diktiermodul 202 und ein Navigationssystem 18 (d.h. wie in 1 abgebildet). Das Navigationssystem 18 umfasst ein Modul zum Abgleichen genäherter Zeichenketten (auch als „unscharfe Suchmaschine”, „Suchmaschine” oder einfach „Modul” bezeichnet) 210 und Navigationsdaten 220 (die über eine geeignete Speicherkomponente, wie etwa eine CD-ROM, einen nicht flüchtigen Speicher oder dergleichen, gespeichert werden). Während in dieser Hinsicht das Modul 202 und das Navigationssystem 18 als logisch getrennte Module abgebildet sind, versteht es sich, dass diese Module in ein einziges System oder Teilsystem integriert werden können und ferner dass ihrer jeweiligen Funktionen auf ein oder mehrere andere Module verteilt sein können, wie etwa diejenigen, die in 1 abgebildet sind.
-
Die Navigationsdaten 220 umfassen sowohl phonetische Daten 222 als auch Textdaten 224. Die Navigationsdaten 220 könnten auch viele andere Datentypen umfassen (z.B. geometrische Daten usw.), die in 2 nicht abgebildet sind. Die phonetischen Daten 222 beziehen sich auf geeignet codierte Toninformationen, die herkömmlicherweise mit der Sprachäußerung 41 verbunden sind, um eine Übereinstimmung oder eine Liste möglicher Übereinstimmungen zu finden. Die Textdaten 224 dagegen beziehen sich auf alphanumerische Daten, die in einer beliebigen praktischen Datenstruktur gespeichert sind, die Adressen, Sonderzielen und dergleichen entsprechen (z.B. „Grand Canyon”, „Phil's Bar and Grill” und dergleichen). Die Textdaten 224 werden zum Beispiel typischerweise verwendet, wenn ein Benutzer eine Schnittstelle mit Berührungsbildschirm oder dergleichen verwendet, um ein gewünschtes Sonderziel einzugeben. Das Modul zum Abgleichen genäherter Zeichenketten 210 wird dann verwendet, um Textdaten 224 basierend auf einer Benutzereingabe, wie es nachstehend beschrieben wird, abzufragen.
-
Das Diktiermodul 202 umfasst eine beliebige geeignete Kombination von Hardware und/oder Software, die konfiguriert ist, um eine gesprochene Äußerung 41 von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext 204 zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht. D.h. das Diktiermodul 202 versucht, die gesprochene Äußerung 41 geeignet zu deuten, um einen Diktiertext 204 zu erzeugen. Die Beschaffenheit und die Funktionsweise von Diktiersystemen und Verfahren, die zur Verwendung mit dem Diktiermodul 202 geeignet sind, sind in der Technik bekannt und müssen hier nicht ausführlich beschrieben werden. Das Diktieren kann spezifisch auf die Sprache abgestimmt werden, die für Eintragsarten von Navigationszielen typisch ist, wodurch sich die Genauigkeit verbessert. D.h. das Diktiermodul 202 kann für den bestimmten Navigationskontext abgestimmt sein, ganz wie die Diktiersysteme für juristisches Diktieren oder medizinisches Diktieren abgestimmt und geeignet sind. Beispielsweise kann das System für die Eingabe von Navigationszielen abgestimmt und optimiert sein und POI-Datenbanken und andere navigationsspezifische Daten umfassen, wobei einige der Auflagen der typischen Navigationsdaten vermieden werden, die spezifische Wortkombinationen benötigen.
-
Das Suchmodul 210 umfasst eine beliebige geeignete Kombination aus Hardware und/oder Software, die konfiguriert ist, um Navigationssystemdaten 220 mit dem Diktiertext 204 unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen, um eine damit verknüpfte Ergebnisliste 204 zu erzeugen. In dieser Hinsicht bezieht sich der Ausdruck „genäherte Zeichenketten-Abgleichkriterien” auf beliebige Zeichenketten-Abgleichkriterien, die die nicht wortwörtlich sind – d.h. die eine nahezu identische Zeichenkette benötigen. Diese Art des Suchens kann man auch als eine „unscharfe” Suchstrategie bezeichnen. Solche genäherten Zeichenketten-Abgleichkriterien könnten beispielsweise Teilsuchkriterien umfassen, wobei nur ein Teil des Suchtextes in der Datenbank gefunden werden muss (d.h. „Phil's” stimmt mit „Phil's Bar” überein). Die Erfindung ist nicht darauf eingeschränkt und zieht diverse bekannte Abgleichkriterien und Messgrößen zum Bestimmen des „Abstands” zwischen Textketten in Betracht. Solche unscharfen Suchstrategien sind in der Technik bekannt und müssen hier nicht ausführlich beschrieben werden.
-
Nachdem somit ein Navigationssuchsystem gemäß einer Ausführungsform beschrieben wurde, wird nun ein Verfahren gemäß diversen Ausführungsformen in Verbindung mit dem in 3 abgebildeten Ablaufschema und dem Blockdiagramm aus 2 beschrieben. Wie gezeigt, beginnt das Verfahren 300 bei 302 mit dem Empfang einer gesprochenen Äußerung (z.B. der gesprochenen Äußerung aus 1). Beispielsweise könnte der Benutzer den Ausdruck „Phil's” in Zusammenhang mit einer Sonderzielsuche aussprechen.
-
Dann in Schritt 304 verarbeitet das Diktiermodul 202 die gesprochene Äußerung 41, um einen Diktiertext 204 zu erzeugen. Bei dem vorliegenden Beispiel könnte dieser Diktiertext die Zeichenkette „PHILS” umfassen. Bei einigen Ausführungsformen wird der Diktiertext dem Benutzer (z.B. über die HMI 14 aus 1) zur Änderung vor dem Abfragen der Navigationssystemdaten bereitgestellt. D.h. der Diktiertext 204 könnte die Zeichenkette „PHILZ” enthalten und könnte anschließend vom Benutzer (unter Verwendung einer virtuellen Tastatur oder dergleichen) bearbeitet werden, so dass sie zu der Zeichenkette „PHILS” korrigiert wird, bevor sie von dem System weiter verarbeitet wird.
-
Dann führt das Modul 210 in Schritt 306 eine „unscharfe” Suche (z.B. über eine Abfrage) der Navigationsdaten 220 aus, um eine Ergebnisliste 206 zu bestimmen, die einem oder mehreren Suchergebnissen entspricht, die nach beliebigen geeigneten Rangfolgekriterien eingestuft sind. Die Ergebnisliste 206 wird dann dem Benutzer (z.B. über einen Berührungsbildschirm, der von der HMI 14 bereitgestellt wird) zur Auswahl eines erwünschten Ergebnisses vorgelegt (308). Die Ergebnisse werden typischerweise basierend auf dem Suchvertrauen in Rangfolge vorgelegt. Beispielsweise könnte die Ergebnisliste 206 drei Einträge umfassen, die in Rangfolge mit „PHILS BAR AND GRILL”, „PHILZ HAIR”, „BOB AND PHIL TRATTORIA” angezeigt werden. Der Benutzer kann dann das gewünschte Ergebnis (in diesem Fall das erste Ergebnis in der Liste) auswählen.
-
Gemäß einer Ausführungsform wird das ausgewählte gewünschte Ergebnis gespeichert (z.B. in dem Navigationssystem 18) und später adaptiv verwendet, um das vom Benutzer gewünschte Ergebnis vorherzusagen. D.h. das System 200 könnte lernen, dass bestimmte gesprochene Äußerungen 41 von einem bestimmten Benutzer häufig auf bestimmte Art und Weise bezeichnet werden.
-
Gemäß einer anderen Ausführungsform basiert die Ergebnisliste 206 auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist. D.h. das System 200 könnte beispielsweise den aktuellen Kontext (z.B. die Art des Fahrzeugs, die Identität des Fahrers, die Tageszeit, die Wetterbedingungen, den geografischen Standort usw.) verwenden, um zu bestimmen, welche Ergebnisse der Ergebnisliste 206 am besten zutreffen. Falls bei einem anderen Beispiel der Benutzer nicht mehr viel Benzin hat und einer der Einträge in der Ergebnisliste 206 eine Tankstelle ist, könnte dieses Ergebnis als das am besten zutreffende angesehen werden. Falls der Benutzer üblicherweise mittags ins Restaurant geht und eine Suche am Mittag Restaurants ergibt, könnten diese Ergebnisse auf der Ergebnisliste 206 höher eingestuft werden. Falls es bei einer anderen Ausführungsform Suchergebnisse aus einem geografisch unterschiedlichen Gebiet gibt, könnte das System solche Ergebnisse höher einstufen, die sich näher am aktuellen Standort des Fahrzeugs befinden.
-
Kurz gefasst wurden vorstehend Systeme und Verfahren beschrieben, die deutlich verbesserte Erkennungsergebnisse bereitstellen, indem die gesprochenen Äußerungen zunächst in diktierten Text umgewandelt werden, bevor eine „unscharfe” oder ansonsten genäherte Zeichenketten-Abgleichabfrage der Navigationssystem-Datenbank basierend auf dem diktierten Text ausgeführt wird. Somit kann man die Einschränkungen der phonetischen Daten des Navigationssystems vermeiden.
-
Beispiele
-
Beispiel 1. Ein Verfahren zum Durchsuchen von Navigationssystemdaten, wobei das Verfahren folgende Schritte umfasst:
Empfangen einer gesprochenen Äußerung von einem Benutzer;
Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und Erzeugen einer damit verknüpften Ergebnisliste.
-
Beispiel 2. Das Verfahren nach Beispiel 1, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
-
Beispiel 3. Das Verfahren nach Beispiel 1 oder 2, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
-
Beispiel 4. Das Verfahren nach einem der Beispiele 1 bis 3, ferner umfassend das Bereitstellen der Ergebnisliste für den Benutzer zur Auswahl eines gewünschten Ergebnisses.
-
Beispiel 5. Das Verfahren nach Anspruch 4, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
-
Beispiel 6. Das Verfahren nach einem der Beispiele 1 bis 5, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
-
Beispiel 7. Das Verfahren nach einem der Beispiele 1 bis 6, ferner umfassend das Bereitstellen des Diktiertextes für den Benutzer zur Änderung vor dem Abfragen der Navigationssystemdaten.
-
Beispiel 8. Ein Navigationssuchsystem für ein Fahrzeug, wobei das System Folgendes umfasst:
eine Speicherkomponente zum Speichern von Navigationssystemdaten;
ein Diktiermodul, das konfiguriert ist, um eine gesprochene Äußerung von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
ein Suchmodul, das konfiguriert ist, um die Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen und eine damit verknüpfte Ergebnisliste zu erzeugen.
-
Beispiel 9. Das Navigationssystem nach Beispiel 8, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
-
Beispiel 10. Das Navigationssystem nach Beispiel 8 oder 9, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
-
Beispiel 11. Das Navigationssystem nach einem der Beispiele 8 bis 10, ferner umfassend eine Mensch-Maschine-Schnittstelle, die dem Benutzer die Ergebnisliste zur Auswahl eines gewünschten Ergebnisses bereitstellt.
-
Beispiel 12. Das Navigationssystem nach Beispiel 11, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
-
Beispiel 13. Das Navigationssystem nach einem der Beispiele 8 bis 12, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
-
Beispiel 14. Das Navigationssystem nach einem der Beispiele 8 bis 13, ferner umfassend ein Mensch-Maschine-Schnittstellenmodul, das konfiguriert ist, um dem Benutzer den Diktiertext zur Änderung bereitzustellen.
-
Beispiel 15. Ein nicht vorübergehendes, computerlesbares Medium, das Software-Anweisungen führt, die konfiguriert sind, um einen Prozessor anzuweisen, ein Navigationssystem durch Ausführen der folgenden Schritte zu durchsuchen:
Empfangen einer Darstellung der gesprochenen Äußerung von einem Benutzer;
Verarbeiten der Darstellung der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und Erzeugen einer damit verknüpften Ergebnisliste.
-
Beispiel 16. Das nicht vorübergehende computerlesbare Medium nach Beispiel 15, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
-
Beispiel 17. Das nicht vorübergehende computerlesbare Medium nach Beispiel 15 oder 16, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
-
Beispiel 18. Das nicht vorübergehende computerlesbare Medium nach einem der Beispiele 15 bis 17, ferner umfassend das Bereitstellen der Ergebnisliste für den Benutzer zur Auswahl eines gewünschten Ergebnisses.
-
Beispiel 19. Das nicht vorübergehende computerlesbare Medium nach Anspruch 18, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
-
Beispiel 20. Das nicht vorübergehende computerlesbare Medium nach einem der Beispiele 15 bis 19, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
-
Obwohl mindestens ein Ausführungsbeispiel in der vorstehenden ausführlichen Beschreibung vorgelegt wurde, versteht es sich, dass zahlreiche Variationen existieren. Es versteht sich ebenfalls, dass das Ausführungsbeispiel oder die Ausführungsbeispiele rein erläuternd sind und nicht dazu gedacht sind, den Umfang, die Anwendbarkeit oder die Konfiguration der Offenbarung auf irgendeine Art und Weise einzuschränken. Vielmehr wird die vorstehende ausführliche Beschreibung dem Fachmann eine praktische Anleitung bereitstellen, um das Ausführungsbeispiel oder die Ausführungsbeispiele umzusetzen. Es versteht sich, dass diverse Änderungen an der Funktion und Anordnung der Elemente vorgenommen werden können, ohne den Umfang der Offenbarung zu verlassen, wie er in den beiliegenden Ansprüchen und ihren rechtlichen Äquivalenten dargelegt wird.