DE102015109379A1 - Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet - Google Patents

Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet Download PDF

Info

Publication number
DE102015109379A1
DE102015109379A1 DE102015109379.0A DE102015109379A DE102015109379A1 DE 102015109379 A1 DE102015109379 A1 DE 102015109379A1 DE 102015109379 A DE102015109379 A DE 102015109379A DE 102015109379 A1 DE102015109379 A1 DE 102015109379A1
Authority
DE
Germany
Prior art keywords
navigation system
dictation
spoken utterance
search
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015109379.0A
Other languages
English (en)
Inventor
Robert Sims
Timothy Grost
Greg Lindemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015109379A1 publication Critical patent/DE102015109379A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)

Abstract

Ein Verfahren, das Navigationssystemdaten durchsucht, umfasst das Empfangen einer gesprochenen Äußerung von einem Benutzer, das Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht, und das Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und das Erzeugen einer damit verknüpften Ergebnisliste.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet betrifft im Allgemeinen Sprachsysteme und betrifft genauer gesagt Verfahren und Systeme zum Suchen nach einem Sonderziel in solchen Systemen.
  • HINTERGRUND
  • Fahrzeugsysteme mit gesprochenen Dialogen (bzw. „Sprachsysteme”) führen unter anderem eine Spracherkennung basierend auf der Sprache aus, die von den Insassen eines Fahrzeugs geäußert wird. Die Sprachäußerungen umfassen typischerweise Befehle, die mit einem oder mehreren Merkmale des Fahrzeugs sowie anderer Systeme (z.B. eingebetteter Navigationssysteme), die für das Fahrzeug zugänglich sind, in Verbindung stehen oder diese steuern. Im Allgemeinen generiert das Sprachsystem gesprochene Befehle als Reaktion auf die Sprachäußerungen, und in manchen Fällen werden die gesprochenen Befehle als Reaktion darauf generiert, dass das Sprachsystem weitere Informationen benötigt, um die Spracherkennung auszuführen.
  • Eine Navigationssystem-Datenbank umfasst im Allgemeinen sowohl phonetische Daten (z.B. ausgesprochene Namen von Sonderzielen) als auch Textdaten. Die phonetischen Daten können jedoch manchmal recht begrenzt sein und können erfordern, dass der Benutzer eine Sprachäußerung bereitstellt, die eine genaue, wortwörtliche Übereinstimmung mit einem Element (oder einer geringen Anzahl von Elementen) ist, das in der Navigationssystem-Datenbank gespeichert ist. D.h. die Navigationssystem-Datenbank könnte phonetische Daten für ein Sonderziel umfassen, das „Phil's Bar and Grill” entspricht. In diesem Fall könnte es sein, dass das System nicht in der Lage ist, dieses Ergebnis zu finden, wenn der Benutzer die Abkürzung „Phil's” ausspricht, selbst wenn sich die Leute damit üblicherweise auf dieses Sonderziel beziehen.
  • Entsprechend ist es wünschenswert, verbesserte Verfahren und Systeme zum Suchen nach Sonderzielen und anderen derartigen Daten in einem Fahrzeugnavigationssystem bereitzustellen. Ferner werden andere wünschenswerte Merkmale und Kennzeichen der vorliegenden Erfindung aus der nachstehenden ausführlichen Beschreibung und den beiliegenden Ansprüchen zusammen mit den beiliegenden Zeichnungen und dem vorstehenden technischen Gebiet und Hintergrund gesehen hervorgehen.
  • KURZDARSTELLUNG
  • Ein Verfahren, das Navigationssystemdaten durchsucht, umfasst gemäß einer Ausführungsform das Empfangen einer gesprochenen Äußerung von einem Benutzer, das Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht, und das Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und das Erzeugen einer damit verknüpften Ergebnisliste.
  • Gemäß einer Ausführungsform umfasst ein Navigationssystem für ein Fahrzeug Folgendes: eine Speicherkomponente zum Speichern von Navigationssystemdaten; ein Diktiermodul, das konfiguriert ist, um eine gesprochene Äußerung von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und ein Suchmodul, das konfiguriert ist, um die Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen und eine damit verknüpfte Ergebnisliste zu erzeugen.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die beispielhaften Ausführungsformen werden nachstehend in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, wobei die gleichen Bezugszeichen die gleichen Elemente bezeichnen. Es zeigen:
  • 1 ein Funktionsblockdiagramm eines Fahrzeugs, das ein Sprachsystem umfasst, gemäß diversen Ausführungsbeispielen;
  • 2 ein Funktionsblockdiagramm, das ein Navigationssystem gemäß einem Ausführungsbeispiel abbildet; und
  • 3 ein Ablaufschema, das ein Verfahren zum Ausführen einer Sonderzielsuche in Verbindung mit einem Navigationssystem abbildet.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Der hier beschriebene Gegenstand betrifft im Allgemeinen die Verwendung eines Diktiermoduls in Verbindung mit einer „unscharfen” bzw. „genäherten Text-”Suchmaschine, um eine Navigationssystem-Datenbank abzufragen, um beispielsweise Sonderziele zu finden, die ansonsten durch Suchen nur mit phonetischen Daten schwer zu finden wären. In dieser Hinsicht ist die nachstehende ausführliche Beschreibung rein beispielhafter Art und nicht dazu bestimmt, die Anwendung und Verwendungen einzuschränken. Ferner ist es nicht beabsichtigt, durch eine ausgedrückte oder bedingte Theorie gebunden zu sein, die in dem vorstehenden technischen Gebiet, dem Hintergrund, der Kurzdarstellung oder der nachstehenden ausführlichen Beschreibung vorgelegt wird. Wie er hier verwendet wird, bezieht sich der Begriff „Modul” auf eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (geteilt, dediziert oder gruppiert) und ein Speichermedium (z.B. ein nicht vorübergehendes Medium) und einen Speicher, der ein oder mehrere computerlesbare Software- oder Firmware-Programme ausführt, eine kombinatorische logische Schaltung und/oder andere geeignete Komponente, welche die beschriebene Funktion bereitstellen.
  • Nun mit Bezug auf 1 wird gemäß den Ausführungsbeispielen des hier beschriebenen Gegenstandes ein System mit gesprochenen Dialogen (bzw. einfach ein „Sprachsystem”) 10 in einem Fahrzeug 12 bereitgestellt. Im Allgemeinen stellt das Sprachsystem 10 eine Spracherkennung, eine Dialogverwaltung und eine Sprachgenerierung für ein oder mehrere Fahrzeugsysteme über ein Mensch-Maschine-Schnittstellen-(HMI)Modul 14 bereit, das konfiguriert ist, um von einem oder mehreren Benutzern 40 (z.B. einem Fahrer, einem Mitfahrer usw.) bedient zu werden (oder ansonsten eine Schnittstelle damit zu bilden). Derartige Fahrzeugsysteme können beispielsweise ein Telefonsystem 16, ein Navigationssystem 18, ein Mediensystem 20, ein Telematik-System 22, ein Netzwerksystem 24 und ein beliebiges anderes Fahrzeugsystem umfassen, das eine sprachabhängige Anwendung umfassen kann. Bei einigen Ausführungsformen ist bzw. sind ein oder mehrere der Fahrzeugsysteme kommunikationsmäßig mit einem Netzwerk (z.B. einem proprietären Netzwerk, einem 4G-Netzwerk oder dergleichen) gekoppelt, das eine Datenkommunikation mit einem oder mehreren nachgeschalteten Servern 26 bereitstellt.
  • Eine oder mehrere mobile Vorrichtungen 50 könnten auch in dem Fahrzeug 12 vorliegen, wozu ein oder mehrere Smartphones, Tablet-Computer, Feature-Phones usw. gehören. Die mobile Vorrichtung 50 kann auch kommunikationsmäßig über eine geeignete drahtlose Verbindung (z.B. Bluetooth oder WiFi) mit der HMI 14 gekoppelt sein, so dass eine oder mehrere Anwendungen, die auf der mobilen Vorrichtung 50 speicherresident sind, für den Benutzer 40 über die HMI 14 zugänglich sind. Das Sprachsystem 10 kommuniziert mit den Fahrzeugsystemen 14, 16, 18, 20, 22, 24 und 26 über einen Kommunikationsbus und/oder ein anderes Datenkommunikationsnetzwerk 29 (z.B. drahtgebunden, Kurzstreckenfunk oder Langstreckenfunk). Der Kommunikationsbus kann beispielsweise ein Steuergerätenetz-(CAN)Bus, ein lokaler Zusammenschaltungsnetz-(LIN)Bus oder dergleichen sein. Es versteht sich das Sprachsystem 10 in Verbindung sowohl mit fahrzeugbasierten Umgebungen als auch mit nicht fahrzeugbasierten Umgebungen verwendet werden kann, die eine oder mehrere sprachabhängige Anwendungen umfassen, und dass die hier bereitgestellten fahrzeugbasierten Beispiele ohne Verlust an Allgemeingültigkeit dargelegt werden.
  • Wie abgebildet, umfasst das Sprachsystem 10 ein Sprachverständnismodul 32, ein Dialogverwaltungsmodul 34 und ein Sprachgenerierungsmodul 35. Diese Funktionsmodule können als getrennte Systeme oder als ein kombiniertes, integriertes System umgesetzt werden. Im Allgemeinen empfängt das HMI-Modul 14 ein akustisches Signal (bzw. eine „Sprachäußerung”) 41 von dem Benutzer 40, das dem Sprachverständnismodul 32 bereitgestellt wird. Das Sprachverständnismodul 32 umfasst eine beliebige Kombination von Hardware und/oder Software, die konfiguriert ist, um die Sprachäußerung von dem HMI-Modul 14 (die über ein oder mehrere Mikrofone 52 empfangen wird) unter Verwendung geeigneter Spracherkennungstechniken, einschließlich beispielsweise einer automatischen Spracherkennung und einer semantischen Decodierung (oder Lautsprachenverständnis (SLU)), zu verarbeiten. Unter Verwendung derartiger Techniken generiert das Sprachverständnismodul 32 eine Liste (oder Listen) 33 mit möglichen Ergebnissen der Sprachäußerung. Bei einer Ausführungsform umfasst die Liste 33 eine oder mehrere Satzhypothesen, die eine Wahrscheinlichkeitsverteilung über den Satz von Äußerungen darstellen, die der Benutzer 40 vielleicht ausgesprochen hat (d.h. Äußerung 41). Die Liste 33 könnte beispielsweise die Form einer N-Besten-Liste annehmen. Gemäß diversen Ausführungsformen, wie sie nachstehend ausführlicher beschrieben werden, können diktatbasierte Spracherkennungstechniken von dem Modul 32 in Verbindung mit einer „unscharfen” oder „teilweisen” Suche von Sonderzielen verwendet werden, die in dem Navigationssystem 18 gespeichert sind oder dort anderweitig zur Verfügung stehen.
  • Das Dialogverwaltungsmodul 34 umfasst eine beliebige Kombination aus Hardware und/oder Software, die konfiguriert ist, um basierend auf der Liste 33 eine Interaktionssequenz und eine Auswahl von Sprachaufforderungen 42 zu verwalten, die dem Benutzer vorgesprochen werden sollen. Wenn eine Liste 33 mehr als ein mögliches Ergebnis enthält, verwendet das Dialogverwaltungsmodul 34 Desambiguierungsstrategien, um einen Dialog von Aufforderungen mit dem Benutzer 40 zu verwalten, so dass ein erkanntes Ergebnis bestimmt werden kann. Gemäß den Ausführungsbeispielen ist das Dialogverwaltungsmodul 34 in der Lage, Dialogzusammenhänge zu verwalten, wie es nachstehend ausführlicher beschrieben wird. Das Sprachgenerierungsmodul 35 umfasst eine beliebige Kombination aus Hardware und/oder Software, die konfiguriert ist, um gesprochene Aufforderungen 42 für einen Benutzer 40 basierend auf dem Dialog, der von dem Dialogverwaltungsmodul 34 bestimmt wird, zu generieren. In dieser Hinsicht stellt das Sprachgenerierungsmodul 35 im Allgemeinen eine natürliche Sprachgenerierung (NLG) und eine Sprachsynthese oder Text-Sprachumwandlung (TTS) bereit.
  • Zusätzlich zu dem gesprochenen Dialog könnten die Benutzer 40 auch mit der HMI 14 über diverse Tasten, Schalter, Benutzerschnittstellenelemente mit Berührungsbildschirm, Gesten (z.B. Handgesten, die von einer oder mehreren Kameras erkannt werden, die in dem Fahrzeug 12 bereitgestellt wird bzw. werden) und dergleichen, interagieren. Bei einer Ausführungsform wird eine Taste 54 (z.B. eine „Wechselsprechtaste” oder einfach eine „Sprechtaste”) in bequemer Reichweite für einen oder mehrere Benutzer 40 bereitgestellt. Beispielsweise kann die Taste 54 in ein Lenkrad 56 eingebaut sein.
  • Nun mit Bezug auf 2 umfasst gemäß diversen Ausführungsbeispielen ein Navigationssuchsystem 200 im Allgemeinen ein Diktiermodul 202 und ein Navigationssystem 18 (d.h. wie in 1 abgebildet). Das Navigationssystem 18 umfasst ein Modul zum Abgleichen genäherter Zeichenketten (auch als „unscharfe Suchmaschine”, „Suchmaschine” oder einfach „Modul” bezeichnet) 210 und Navigationsdaten 220 (die über eine geeignete Speicherkomponente, wie etwa eine CD-ROM, einen nicht flüchtigen Speicher oder dergleichen, gespeichert werden). Während in dieser Hinsicht das Modul 202 und das Navigationssystem 18 als logisch getrennte Module abgebildet sind, versteht es sich, dass diese Module in ein einziges System oder Teilsystem integriert werden können und ferner dass ihrer jeweiligen Funktionen auf ein oder mehrere andere Module verteilt sein können, wie etwa diejenigen, die in 1 abgebildet sind.
  • Die Navigationsdaten 220 umfassen sowohl phonetische Daten 222 als auch Textdaten 224. Die Navigationsdaten 220 könnten auch viele andere Datentypen umfassen (z.B. geometrische Daten usw.), die in 2 nicht abgebildet sind. Die phonetischen Daten 222 beziehen sich auf geeignet codierte Toninformationen, die herkömmlicherweise mit der Sprachäußerung 41 verbunden sind, um eine Übereinstimmung oder eine Liste möglicher Übereinstimmungen zu finden. Die Textdaten 224 dagegen beziehen sich auf alphanumerische Daten, die in einer beliebigen praktischen Datenstruktur gespeichert sind, die Adressen, Sonderzielen und dergleichen entsprechen (z.B. „Grand Canyon”, „Phil's Bar and Grill” und dergleichen). Die Textdaten 224 werden zum Beispiel typischerweise verwendet, wenn ein Benutzer eine Schnittstelle mit Berührungsbildschirm oder dergleichen verwendet, um ein gewünschtes Sonderziel einzugeben. Das Modul zum Abgleichen genäherter Zeichenketten 210 wird dann verwendet, um Textdaten 224 basierend auf einer Benutzereingabe, wie es nachstehend beschrieben wird, abzufragen.
  • Das Diktiermodul 202 umfasst eine beliebige geeignete Kombination von Hardware und/oder Software, die konfiguriert ist, um eine gesprochene Äußerung 41 von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext 204 zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht. D.h. das Diktiermodul 202 versucht, die gesprochene Äußerung 41 geeignet zu deuten, um einen Diktiertext 204 zu erzeugen. Die Beschaffenheit und die Funktionsweise von Diktiersystemen und Verfahren, die zur Verwendung mit dem Diktiermodul 202 geeignet sind, sind in der Technik bekannt und müssen hier nicht ausführlich beschrieben werden. Das Diktieren kann spezifisch auf die Sprache abgestimmt werden, die für Eintragsarten von Navigationszielen typisch ist, wodurch sich die Genauigkeit verbessert. D.h. das Diktiermodul 202 kann für den bestimmten Navigationskontext abgestimmt sein, ganz wie die Diktiersysteme für juristisches Diktieren oder medizinisches Diktieren abgestimmt und geeignet sind. Beispielsweise kann das System für die Eingabe von Navigationszielen abgestimmt und optimiert sein und POI-Datenbanken und andere navigationsspezifische Daten umfassen, wobei einige der Auflagen der typischen Navigationsdaten vermieden werden, die spezifische Wortkombinationen benötigen.
  • Das Suchmodul 210 umfasst eine beliebige geeignete Kombination aus Hardware und/oder Software, die konfiguriert ist, um Navigationssystemdaten 220 mit dem Diktiertext 204 unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen, um eine damit verknüpfte Ergebnisliste 204 zu erzeugen. In dieser Hinsicht bezieht sich der Ausdruck „genäherte Zeichenketten-Abgleichkriterien” auf beliebige Zeichenketten-Abgleichkriterien, die die nicht wortwörtlich sind – d.h. die eine nahezu identische Zeichenkette benötigen. Diese Art des Suchens kann man auch als eine „unscharfe” Suchstrategie bezeichnen. Solche genäherten Zeichenketten-Abgleichkriterien könnten beispielsweise Teilsuchkriterien umfassen, wobei nur ein Teil des Suchtextes in der Datenbank gefunden werden muss (d.h. „Phil's” stimmt mit „Phil's Bar” überein). Die Erfindung ist nicht darauf eingeschränkt und zieht diverse bekannte Abgleichkriterien und Messgrößen zum Bestimmen des „Abstands” zwischen Textketten in Betracht. Solche unscharfen Suchstrategien sind in der Technik bekannt und müssen hier nicht ausführlich beschrieben werden.
  • Nachdem somit ein Navigationssuchsystem gemäß einer Ausführungsform beschrieben wurde, wird nun ein Verfahren gemäß diversen Ausführungsformen in Verbindung mit dem in 3 abgebildeten Ablaufschema und dem Blockdiagramm aus 2 beschrieben. Wie gezeigt, beginnt das Verfahren 300 bei 302 mit dem Empfang einer gesprochenen Äußerung (z.B. der gesprochenen Äußerung aus 1). Beispielsweise könnte der Benutzer den Ausdruck „Phil's” in Zusammenhang mit einer Sonderzielsuche aussprechen.
  • Dann in Schritt 304 verarbeitet das Diktiermodul 202 die gesprochene Äußerung 41, um einen Diktiertext 204 zu erzeugen. Bei dem vorliegenden Beispiel könnte dieser Diktiertext die Zeichenkette „PHILS” umfassen. Bei einigen Ausführungsformen wird der Diktiertext dem Benutzer (z.B. über die HMI 14 aus 1) zur Änderung vor dem Abfragen der Navigationssystemdaten bereitgestellt. D.h. der Diktiertext 204 könnte die Zeichenkette „PHILZ” enthalten und könnte anschließend vom Benutzer (unter Verwendung einer virtuellen Tastatur oder dergleichen) bearbeitet werden, so dass sie zu der Zeichenkette „PHILS” korrigiert wird, bevor sie von dem System weiter verarbeitet wird.
  • Dann führt das Modul 210 in Schritt 306 eine „unscharfe” Suche (z.B. über eine Abfrage) der Navigationsdaten 220 aus, um eine Ergebnisliste 206 zu bestimmen, die einem oder mehreren Suchergebnissen entspricht, die nach beliebigen geeigneten Rangfolgekriterien eingestuft sind. Die Ergebnisliste 206 wird dann dem Benutzer (z.B. über einen Berührungsbildschirm, der von der HMI 14 bereitgestellt wird) zur Auswahl eines erwünschten Ergebnisses vorgelegt (308). Die Ergebnisse werden typischerweise basierend auf dem Suchvertrauen in Rangfolge vorgelegt. Beispielsweise könnte die Ergebnisliste 206 drei Einträge umfassen, die in Rangfolge mit „PHILS BAR AND GRILL”, „PHILZ HAIR”, „BOB AND PHIL TRATTORIA” angezeigt werden. Der Benutzer kann dann das gewünschte Ergebnis (in diesem Fall das erste Ergebnis in der Liste) auswählen.
  • Gemäß einer Ausführungsform wird das ausgewählte gewünschte Ergebnis gespeichert (z.B. in dem Navigationssystem 18) und später adaptiv verwendet, um das vom Benutzer gewünschte Ergebnis vorherzusagen. D.h. das System 200 könnte lernen, dass bestimmte gesprochene Äußerungen 41 von einem bestimmten Benutzer häufig auf bestimmte Art und Weise bezeichnet werden.
  • Gemäß einer anderen Ausführungsform basiert die Ergebnisliste 206 auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist. D.h. das System 200 könnte beispielsweise den aktuellen Kontext (z.B. die Art des Fahrzeugs, die Identität des Fahrers, die Tageszeit, die Wetterbedingungen, den geografischen Standort usw.) verwenden, um zu bestimmen, welche Ergebnisse der Ergebnisliste 206 am besten zutreffen. Falls bei einem anderen Beispiel der Benutzer nicht mehr viel Benzin hat und einer der Einträge in der Ergebnisliste 206 eine Tankstelle ist, könnte dieses Ergebnis als das am besten zutreffende angesehen werden. Falls der Benutzer üblicherweise mittags ins Restaurant geht und eine Suche am Mittag Restaurants ergibt, könnten diese Ergebnisse auf der Ergebnisliste 206 höher eingestuft werden. Falls es bei einer anderen Ausführungsform Suchergebnisse aus einem geografisch unterschiedlichen Gebiet gibt, könnte das System solche Ergebnisse höher einstufen, die sich näher am aktuellen Standort des Fahrzeugs befinden.
  • Kurz gefasst wurden vorstehend Systeme und Verfahren beschrieben, die deutlich verbesserte Erkennungsergebnisse bereitstellen, indem die gesprochenen Äußerungen zunächst in diktierten Text umgewandelt werden, bevor eine „unscharfe” oder ansonsten genäherte Zeichenketten-Abgleichabfrage der Navigationssystem-Datenbank basierend auf dem diktierten Text ausgeführt wird. Somit kann man die Einschränkungen der phonetischen Daten des Navigationssystems vermeiden.
  • Beispiele
  • Beispiel 1. Ein Verfahren zum Durchsuchen von Navigationssystemdaten, wobei das Verfahren folgende Schritte umfasst:
    Empfangen einer gesprochenen Äußerung von einem Benutzer;
    Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
    Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und Erzeugen einer damit verknüpften Ergebnisliste.
  • Beispiel 2. Das Verfahren nach Beispiel 1, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
  • Beispiel 3. Das Verfahren nach Beispiel 1 oder 2, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
  • Beispiel 4. Das Verfahren nach einem der Beispiele 1 bis 3, ferner umfassend das Bereitstellen der Ergebnisliste für den Benutzer zur Auswahl eines gewünschten Ergebnisses.
  • Beispiel 5. Das Verfahren nach Anspruch 4, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
  • Beispiel 6. Das Verfahren nach einem der Beispiele 1 bis 5, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
  • Beispiel 7. Das Verfahren nach einem der Beispiele 1 bis 6, ferner umfassend das Bereitstellen des Diktiertextes für den Benutzer zur Änderung vor dem Abfragen der Navigationssystemdaten.
  • Beispiel 8. Ein Navigationssuchsystem für ein Fahrzeug, wobei das System Folgendes umfasst:
    eine Speicherkomponente zum Speichern von Navigationssystemdaten;
    ein Diktiermodul, das konfiguriert ist, um eine gesprochene Äußerung von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
    ein Suchmodul, das konfiguriert ist, um die Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen und eine damit verknüpfte Ergebnisliste zu erzeugen.
  • Beispiel 9. Das Navigationssystem nach Beispiel 8, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
  • Beispiel 10. Das Navigationssystem nach Beispiel 8 oder 9, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
  • Beispiel 11. Das Navigationssystem nach einem der Beispiele 8 bis 10, ferner umfassend eine Mensch-Maschine-Schnittstelle, die dem Benutzer die Ergebnisliste zur Auswahl eines gewünschten Ergebnisses bereitstellt.
  • Beispiel 12. Das Navigationssystem nach Beispiel 11, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
  • Beispiel 13. Das Navigationssystem nach einem der Beispiele 8 bis 12, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
  • Beispiel 14. Das Navigationssystem nach einem der Beispiele 8 bis 13, ferner umfassend ein Mensch-Maschine-Schnittstellenmodul, das konfiguriert ist, um dem Benutzer den Diktiertext zur Änderung bereitzustellen.
  • Beispiel 15. Ein nicht vorübergehendes, computerlesbares Medium, das Software-Anweisungen führt, die konfiguriert sind, um einen Prozessor anzuweisen, ein Navigationssystem durch Ausführen der folgenden Schritte zu durchsuchen:
    Empfangen einer Darstellung der gesprochenen Äußerung von einem Benutzer;
    Verarbeiten der Darstellung der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und
    Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und Erzeugen einer damit verknüpften Ergebnisliste.
  • Beispiel 16. Das nicht vorübergehende computerlesbare Medium nach Beispiel 15, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
  • Beispiel 17. Das nicht vorübergehende computerlesbare Medium nach Beispiel 15 oder 16, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
  • Beispiel 18. Das nicht vorübergehende computerlesbare Medium nach einem der Beispiele 15 bis 17, ferner umfassend das Bereitstellen der Ergebnisliste für den Benutzer zur Auswahl eines gewünschten Ergebnisses.
  • Beispiel 19. Das nicht vorübergehende computerlesbare Medium nach Anspruch 18, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
  • Beispiel 20. Das nicht vorübergehende computerlesbare Medium nach einem der Beispiele 15 bis 19, ferner umfassend das Erzeugen der Ergebnisliste basierend auf einem Kontext, der mit der gesprochenen Äußerung verknüpft ist.
  • Obwohl mindestens ein Ausführungsbeispiel in der vorstehenden ausführlichen Beschreibung vorgelegt wurde, versteht es sich, dass zahlreiche Variationen existieren. Es versteht sich ebenfalls, dass das Ausführungsbeispiel oder die Ausführungsbeispiele rein erläuternd sind und nicht dazu gedacht sind, den Umfang, die Anwendbarkeit oder die Konfiguration der Offenbarung auf irgendeine Art und Weise einzuschränken. Vielmehr wird die vorstehende ausführliche Beschreibung dem Fachmann eine praktische Anleitung bereitstellen, um das Ausführungsbeispiel oder die Ausführungsbeispiele umzusetzen. Es versteht sich, dass diverse Änderungen an der Funktion und Anordnung der Elemente vorgenommen werden können, ohne den Umfang der Offenbarung zu verlassen, wie er in den beiliegenden Ansprüchen und ihren rechtlichen Äquivalenten dargelegt wird.

Claims (10)

  1. Verfahren zum Durchsuchen von Navigationssystemdaten, wobei das Verfahren folgende Schritte umfasst: – Empfangen einer gesprochenen Äußerung von einem Benutzer; – Verarbeiten der gesprochenen Äußerung, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und – Abfragen der Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien und Erzeugen einer damit verknüpften Ergebnisliste.
  2. Verfahren nach Anspruch 1, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
  4. Verfahren nach einem der Ansprüche 1 bis 3, ferner umfassend das Bereitstellen der Ergebnisliste für den Benutzer zur Auswahl eines gewünschten Ergebnisses.
  5. Verfahren nach Anspruch 4, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
  6. Navigationssuchsystem für ein Fahrzeug, wobei das System Folgendes umfasst: – eine Speicherkomponente zum Speichern von Navigationssystemdaten; – ein Diktiermodul, das konfiguriert ist, um eine gesprochene Äußerung von einem Benutzer zu empfangen und die gesprochene Äußerung zu verarbeiten, um einen Diktiertext zu erzeugen, der im Wesentlichen der gesprochenen Äußerung entspricht; und – ein Suchmodul, das konfiguriert ist, um die Navigationssystemdaten mit dem Diktiertext unter Verwendung von genäherten Zeichenketten-Abgleichkriterien abzufragen und eine damit verknüpfte Ergebnisliste zu erzeugen.
  7. Navigationssystem nach Anspruch 6, wobei die genäherten Zeichenketten-Abgleichkriterien eine Teiltextsuche umfassen.
  8. Navigationssystem nach Anspruch 6 oder 7, wobei die Navigationssystemdaten Sonderzieldaten umfassen.
  9. Navigationssystem nach einem der Ansprüche 6 bis 8, ferner umfassend eine Mensch-Maschine-Schnittstelle, welche dem Benutzer die Ergebnisliste zur Auswahl eines gewünschten Ergebnisses bereitstellt.
  10. Navigationssystem nach Anspruch 9, ferner umfassend das Speichern des ausgewählten gewünschten Ergebnisses und das Anpassen des Abfrageschritts basierend auf dem ausgewählten gewünschten Ergebnis.
DE102015109379.0A 2014-06-25 2015-06-12 Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet Withdrawn DE102015109379A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/314,576 US9715877B2 (en) 2014-06-25 2014-06-25 Systems and methods for a navigation system utilizing dictation and partial match search
US14/314,576 2014-06-25

Publications (1)

Publication Number Publication Date
DE102015109379A1 true DE102015109379A1 (de) 2015-12-31

Family

ID=54839911

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015109379.0A Withdrawn DE102015109379A1 (de) 2014-06-25 2015-06-12 Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet

Country Status (3)

Country Link
US (1) US9715877B2 (de)
CN (1) CN105222797B (de)
DE (1) DE102015109379A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016008855A1 (de) * 2016-07-20 2018-01-25 Audi Ag Verfahren zum Durchführen einer Sprachübertragung

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10008201B2 (en) * 2015-09-28 2018-06-26 GM Global Technology Operations LLC Streamlined navigational speech recognition
US10834261B2 (en) 2016-06-30 2020-11-10 Verint Systems UK Limited System and method of running an agent guide script-flow in an employee desktop web client
EP3264352A1 (de) 2016-06-30 2018-01-03 Verint Systems UK Limited System und verfahren zur ausführung eines agent-guide-skript-flusses in einem desktop-web-client eines angestellten
US10785372B2 (en) 2016-06-30 2020-09-22 Verint Systems UK Limited System and method of embedding and launching a form from third-party knowledge content
EP3264351A1 (de) * 2016-06-30 2018-01-03 Verint Systems UK Limited System und verfahren zum einbetten und starten eines formulars aus wissensinhalt dritter
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US10670415B2 (en) 2017-07-06 2020-06-02 Here Global B.V. Method and apparatus for providing mobility-based language model adaptation for navigational speech interfaces
US20210034662A1 (en) * 2019-07-31 2021-02-04 Rovi Guides, Inc. Systems and methods for managing voice queries using pronunciation information
CN111667831B (zh) * 2020-06-08 2022-04-26 中国民航大学 基于管制员指令语义识别的飞机地面引导系统及方法
US11880645B2 (en) 2022-06-15 2024-01-23 T-Mobile Usa, Inc. Generating encoded text based on spoken utterances using machine learning systems and methods

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8150872B2 (en) * 2005-01-24 2012-04-03 The Intellection Group, Inc. Multimodal natural language query system for processing and analyzing voice and proximity-based queries
CN101241013A (zh) * 2007-02-06 2008-08-13 华硕电脑股份有限公司 个人导航装置
US20110054898A1 (en) * 2007-03-07 2011-03-03 Phillips Michael S Multiple web-based content search user interface in mobile search application
CN101672910B (zh) * 2008-03-12 2012-08-15 凹凸电子(武汉)有限公司 兴趣点系统、兴趣点信息系统以及下载多个兴趣点的方法
US8554871B2 (en) * 2009-01-30 2013-10-08 Navteq B.V. Method and system for exchanging location content data in different data formats
EP2221806B1 (de) * 2009-02-19 2013-07-17 Nuance Communications, Inc. Spracherkennung eines Listeneintrags
US8521539B1 (en) * 2012-03-26 2013-08-27 Nuance Communications, Inc. Method for chinese point-of-interest search

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016008855A1 (de) * 2016-07-20 2018-01-25 Audi Ag Verfahren zum Durchführen einer Sprachübertragung

Also Published As

Publication number Publication date
CN105222797A (zh) 2016-01-06
US20150379995A1 (en) 2015-12-31
US9715877B2 (en) 2017-07-25
CN105222797B (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
DE102015109379A1 (de) Systeme und Verfahren für ein Navigationssystem, das eine Suche mit Diktieren und Teilübereinstimmung verwendet
DE112017004374B4 (de) System und Verfahren zur Spracherkennung
DE102016125812A1 (de) Erlernen von Aussprachen einer personalisierten Entität
DE102017124264B4 (de) Computerimplementiertes Verfahren und Rechensystem zum Bestimmen phonetischer Beziehungen
DE19709518C5 (de) Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
DE102015106280B4 (de) Systeme und Verfahren zum Kompensieren von Sprachartefakten in Spracherkennungssystemen
DE112014006542B4 (de) Einrichtung und Verfahren zum Verständnis von einer Benutzerintention
DE102014109122A1 (de) Systeme und Verfahren für ergebnisbezogene Arbitrierung in Sprachdialogsystemen
DE112014002819B4 (de) System und Verfahren zur Erkennung von Sprache
DE102014109121A1 (de) Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
DE102014201676B4 (de) Verfahren für das Steuern des Dialogs von Sprachsystemen
DE102016125141B4 (de) Suchergebnis unter vorherigem Abrufen von Sprachanfragen
DE212015000207U1 (de) Verbesserung der automatischen Spracherkennung basierend auf Benutzerrückmeldungen
DE102019105269A1 (de) Spracherkennungs-arbitrierungslogik
DE102012019178A1 (de) Verwendung von Kontextinformationen zum Erleichtern der Verarbeitung von Befehlen bei einem virtuellen Assistenten
DE102005018174A1 (de) Verfahren zur gezielten Ermittlung eines vollständigen Eingabedatensatzes in einem Sprachdialog 11
CN105161097A (zh) 语音交互方法及装置
EP3095114B1 (de) Verfahren und system zur erzeugung eines steuerungsbefehls
DE102010034433A1 (de) Verfahren zum Erkennen von Sprache
EP3152753B1 (de) Assistenzsystem, das mittels spracheingaben steuerbar ist, mit einer funktionseinrichtung und mehreren spracherkennungsmodulen
DE112021000292T5 (de) Sprachverarbeitungssystem
DE112015003357B4 (de) Verfahren und System zum Erkennen einer eine Wortabfolge enthaltenden Sprachansage
DE102017211447B4 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
CN112185368A (zh) 自适应的人机语音对话装置和设备、交互系统和车辆
DE10129005B4 (de) Verfahren zur Spracherkennung und Spracherkennungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee