WO2009109169A1 - Method for operating a navigation system - Google Patents

Method for operating a navigation system Download PDF

Info

Publication number
WO2009109169A1
WO2009109169A1 PCT/DE2009/000273 DE2009000273W WO2009109169A1 WO 2009109169 A1 WO2009109169 A1 WO 2009109169A1 DE 2009000273 W DE2009000273 W DE 2009000273W WO 2009109169 A1 WO2009109169 A1 WO 2009109169A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
address
acoustic data
name
speech recognition
Prior art date
Application number
PCT/DE2009/000273
Other languages
German (de)
French (fr)
Inventor
Jan-Georg Fritsche
Original Assignee
Navigon Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Navigon Ag filed Critical Navigon Ag
Priority to EP09717928A priority Critical patent/EP2250464A1/en
Publication of WO2009109169A1 publication Critical patent/WO2009109169A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the invention relates to a method for operating a navigation system with regard to the acoustic speech recognition according to the preamble of claim 1.
  • Known navigation systems which may be, for example, mobile or fixed navigation devices, serve the user to compute a route from a starting point to a destination point to subsequently issue maneuvering instructions for following that route.
  • the basis of route planning is in many cases the input of an address by the user.
  • the navigation system may be equipped with an alphanumeric keyboard or a touch screen, at which the user inputs the corresponding address components, such as the city name, the street name and the house number.
  • speech recognition analysis are becoming more widespread.
  • a voice recognition module is present in which acoustically entered operator inputs, in particular acoustically entered Address inputs, analyzed and converted into electronically processable data.
  • the street name must then be entered again acoustically or via the keyboard, even though the street name has already been entered acoustically and has not changed in the meantime. This leads to lengthy and complicated procedures in the correction of address input.
  • inventive method is based on the basic idea that at least one input component of the acoustic address input, for example, the acoustically entered street name, as an acoustic data set in a main memory of the navigation system is cached. Caching allows this acoustic data set to be reloaded from memory and re-analyzed at any later time. This reloading of address inputs already spoken by the user is advantageous, in particular with regard to the correction of address information.
  • the voice analysis of the further address components can be stored by reloading the corresponding acoustic data records in which the associated input components of these address components are stored are again performed in the voice recognition module without the user having to re-address these address components.
  • the user accepts at least two input components, namely a first input component and a second input component, for example a city name and a street name, into the receiving device of the navigation system and this acoustic recording is analyzed in the voice recognition module.
  • at least one input component for example the street name
  • the main memory is buffered as an acoustic data record in the main memory.
  • the user can then acoustically respond to all the necessary inputs in a very short time, for example by issuing a corresponding input request for inputting the respectively assigned address component between the individual inputs
  • Address input are recorded and cached as acoustic data sets in the main memory, further acoustic speech input by the user to specify the address is no longer necessary because the corresponding information can be made available at any time by loading the cached acoustic data sets again.
  • the speech recognition analysis may optionally be performed after the complete input or in the background, that is, as a concurrent thread, in parallel with the speech input.
  • the various input components should each be cached as separate acoustic data records, so that the different parts of the address input can be accessed effectively and purposefully. If, for example, the name of the city, the street name and the house number are spoken by the user, a separate acoustic data record should be generated both for the city name and for the street name and for the house number and buffered in the main memory.
  • the form in which the acoustic data of the acoustically recorded address entries are temporarily stored is basically arbitrary. Particularly suitable are phoneme vectors that have a storage with allow relatively small memory requirements and also realize an effective speech recognition analysis.
  • the method according to the invention is implemented with regard to the correction of a city name, then it is particularly advantageous if, after correction of the city name, a vocabulary list of all street names stored for this city is created. Subsequently, the cached in the working memory acoustic data in which the street name is cached, loaded into the speech recognition module and compared with regard to the newly created vocabulary list with all existing in the city of the corrected city name street names. Re-speaking the street name after the correction of the city name is therefore no longer necessary.
  • the method according to the invention can also be used with regard to the correction of the street name. If the street name has been corrected, then a vocabulary list can be created with all house numbers present on this street, and in the subsequent speech recognition analysis the stored acoustic dataset can be compared with these house numbers of the corrected vocabulary list.
  • Fig. 1 shows the input mask for entering an address
  • FIG. 2 shows the input mask according to FIG. 1 during voice input of the city name, the street name and the house number
  • FIG. 4 shows the list for displaying further hits of the first speech recognition analysis
  • FIG. 5 shows the input mask for correcting the address input after the speech recognition analysis
  • FIG. 6 shows the input mask according to FIG. 5 during the re-entry of the city name
  • FIG. 7 shows the hit list for displaying the city names after the second speech recognition analysis
  • the correct city name can not be recognized due to the poor recording quality, so that the correct city name "Würzburg" is not included in the best hits of the speech recognition analysis the best n hits of the speech recognition analysis for the city name a common vocabulary for the subsequent speech recognition analysis with regard to the street name is created, the street name is "Berliner Platz" in This street name vocabulary to be used for the further speech recognition analysis does not exist.
  • the user is then prompted by the navigation system to also enter the house number, whereupon the user acoustically enters house number "1 1."
  • the speech recognition analysis is the best match the address shown in Fig. 3.
  • an incorrect address namely "Wolzburg, Borbitzweg, 1 1" was detected.
  • the result obtained on the basis of the first speech recognition analysis thus contains neither the correct location nor the correct street. Only the house number was recognized correctly.
  • the user is asked whether the displayed result of the address input is correct. Since the result is not correct, the list shown in FIG. 4 is subsequently displayed, from which the further hits of the first speech recognition analysis can be seen and displayed to the user. If the desired address is also not included here, the user can start a correction workflow whose input mask is shown in FIG. In this correction input mask, the user can first correct the city name, for example by renewed acoustic input of the city name. As 6, the city name recognized after the first speech recognition analysis is first deleted from the address input, and the user is shown the hit list after the second speech recognition analysis for the city name, as shown in FIG. Due to the improved acoustic conditions, the correct city name "Würzburg" has now been recognized and this correct city name can then be accepted and read into the input mask.
  • the correction of the street name is started.
  • the navigation system first loads the phoneme vector of the first speech input, which is temporarily stored in the working memory for the street name, in which the street name is stored.
  • This cached phoneme vector is now matched against the street name vocabulary generated due to the changed city name.
  • This city name vocabulary for the city of Würzburg now also contains the "Berliner Platz" as a possible street and is therefore recognized correctly, so that the street name "Berliner Platz" is automatically entered by the navigation system into the correction input mask according to FIG displayed for selection. Since now all address components are entered correctly, the user can take over this address in his route planning by the navigation system.
  • FIG. 9 shows an alphanumeric input mask with which the user can overwrite all incorrectly recognized address components by manual keystrokes. Since the address has been recognized correctly by the speech recognition method described, a route planning to the desired destination can be made by pressing the button labeled "Start navigation".

Abstract

The invention relates to a method for operating a navigation system comprising a receiving device in which an acoustic address input, that consists of several input components, can be registered. Said input components of the address are analysed by a voice recognition module and depending on the result of the voice recognition analysis, at least one geographic location, that is defined by an address having several address components, is selected from a data base for further processing. At least one input component is temporarily stored as an acoustic data set in a main memory and the temporarily stored acoustic data set is downloaded later from the main memory.

Description

Verfahren zum Betrieb eines Navigationssystems Method for operating a navigation system
Die Erfindung betrifft ein Verfahren zum Betrieb eines Navigationssystems im Hinblick auf die akustische Spracherkennung nach dem Oberbegriff des Anspruchs 1.The invention relates to a method for operating a navigation system with regard to the acoustic speech recognition according to the preamble of claim 1.
Bekannte Navigationssysteme, bei denen es sich beispielsweise um mobile oder fest eingebaute Navigationsgeräte handeln kann, dienen dem Benutzer, um eine Route vom einem Startpunkt zu einem Zielpunkt zu berechnen, um anschließend Manöveranweisungen zum Befolgen dieser Route auszugeben. Grundlage der Routenplanung ist dabei in vielen Fällen die Eingabe einer Adresse durch den Benutzer. Um die Eingabe von Adressen zu ermöglichen, kann das Navigationssystem mit einer alphanumerischen Tastatur oder einem Touchscreen ausgestattet sein, an dem der Benutzer die entsprechenden Adressbestandteile, beispielsweise den Städtenamen, den Straßennamen und die Hausnummer, eingibt. Darüber hinaus finden Navigationssysteme mit Spracherkennungsanalyse immer weitere Verbreitung. Bei diesen Systemen mit Spracherkennungs- analyse ist ein Spracherkennungsmodul vorhanden, in dem akustisch eingegebene Bedienereingaben, insbesondere auch akustisch eingegebene Adresseingaben, analysiert und in elektronisch verarbeitbare Daten umgewandelt werden.Known navigation systems, which may be, for example, mobile or fixed navigation devices, serve the user to compute a route from a starting point to a destination point to subsequently issue maneuvering instructions for following that route. The basis of route planning is in many cases the input of an address by the user. To enable the entry of addresses, the navigation system may be equipped with an alphanumeric keyboard or a touch screen, at which the user inputs the corresponding address components, such as the city name, the street name and the house number. In addition, navigation systems with speech recognition analysis are becoming more widespread. In these systems with speech recognition analysis, a voice recognition module is present in which acoustically entered operator inputs, in particular acoustically entered Address inputs, analyzed and converted into electronically processable data.
Je nach Qualität des Spracherkennungsmoduls werden bereits sehr gute Trefferquoten bei der Spracherkennung erzielt. Da jedoch bei der Spracherkennung, insbesondere auch im Hinblick auf die sehr unterschiedlichen Sprechweisen der verschiedenen Benutzer, nicht von einer hundertprozentigen Trefferquote ausgegangen werden kann, sind die bekannten Navigationssysteme ergänzend mit Korrekturprozeduren ausgestattet. Wurde beispielsweise vom Benutzer der Städtename, der Straßenname und die Hausnummer eingesprochen, so wird bei der Erkennung der Straße über einen Straßenwortschatz gearbeitet, der aus allen Straßen aller erkannten Städte erzeugt wurde. Dabei stellt sich allerdings das Problem, dass in den Fällen, in welchen der Städtename nicht korrekt erkannt wurde, die korrekte Erkennung auch des Straßennamens vielfach unmöglich ist, da die entsprechende Straße in einer anderen Stadt mit hoher Wahrscheinlichkeit überhaupt nicht existent ist. Korrigiert der Benutzer nun im Korrekturworkflow den Städtenamen, so muss anschließend der Straßenname erneut akustisch oder per Tastatur eingegeben werden, obwohl der Straßenname bereits einmal akustisch eingegeben worden ist und sich zwischenzeitlich auch nicht geändert hat. Dies führt zu langwierigen und komplizierten Verfahrensabläufen bei der Korrektur der Adresseingabe.Depending on the quality of the speech recognition module, very good hit rates for speech recognition are already achieved. However, since speech recognition, in particular also with regard to the very different ways of speaking of the various users, can not be assumed to be a hundred percent hit rate, the known navigation systems are additionally equipped with correction procedures. If, for example, the user has entered the name of the town, the street name and the house number, then the street is recognized by a street vocabulary that has been generated from all the streets of all recognized cities. However, this raises the problem that in cases where the city name was not recognized correctly, the correct recognition of the street name is often impossible, since the corresponding street in another city is highly likely to be nonexistent. If the user now corrects the city name in the correction workflow, the street name must then be entered again acoustically or via the keyboard, even though the street name has already been entered acoustically and has not changed in the meantime. This leads to lengthy and complicated procedures in the correction of address input.
Ausgehend von diesem Stand der Technik ist es deshalb Aufgabe der vorliegenden Erfindung, die Möglichkeiten zur Korrektur einer Adress- eingäbe zu vereinfachen und zu verbessern.Based on this prior art, it is therefore an object of the present invention to simplify and improve the possibilities for correcting an address input.
Diese Aufgabe wird durch ein Verfahren nach der Lehre des Anspruchs 1 gelöst.This object is achieved by a method according to the teaching of claim 1.
Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche. Das erfindungsgemäße Verfahren beruht auf dem Grundgedanken, dass zumindest ein Eingabebestandteil der akustischen Adresseingabe, beispielsweise der akustisch eingegebene Straßenname, als Akustikdatensatz in einem Arbeitsspeicher des Navigationssystems zwischengespei- chert wird. Durch die Zwischenspeicherung wird es ermöglicht, dass dieser Akustikdatensatz zu einem späteren Zeitpunkt jederzeit wieder aus dem Arbeitsspeicher geladen und erneut analysiert werden kann. Dieses erneute Laden von bereits durch den Benutzer eingesprochenen Adresseingaben ist insbesondere im Hinblick auf die Korrektur von Adressan- gaben von Vorteil. Hat das System beispielsweise den Städtenamen nicht korrekt erkannt, so kann nach der Korrektur des Städtenamens durch den Benutzer, beispielsweise durch Eingabe an einer Tastatur, die Sprachanalyse der weiteren Adressbestandteile durch erneutes Laden der entsprechenden Akustikdatensätze, in denen die zugeordneten Eingabebestand- teile dieser Adressbestandteile gespeichert sind, wiederum im Spracher- kennungsmodul durchgeführt werden, ohne dass der Benutzer diese Adressbestandteile erneut einsprechen muss.Advantageous embodiments of the invention are the subject of the dependent claims. The inventive method is based on the basic idea that at least one input component of the acoustic address input, for example, the acoustically entered street name, as an acoustic data set in a main memory of the navigation system is cached. Caching allows this acoustic data set to be reloaded from memory and re-analyzed at any later time. This reloading of address inputs already spoken by the user is advantageous, in particular with regard to the correction of address information. If the system has not correctly recognized the city name, for example, after the user has corrected the city name, for example by inputting a keyboard, the voice analysis of the further address components can be stored by reloading the corresponding acoustic data records in which the associated input components of these address components are stored are again performed in the voice recognition module without the user having to re-address these address components.
Gemäß einer bevorzugten Verfahrensvariante ist vorgesehen, dass der Benutzer zumindest zwei Eingabebestandteile, nämlich einen ersten Eingabebestandteil und einen zweiten Eingabebestandteil, beispielsweise einen Städtenamen und einen Straßennamen, in die Aufnahmeeinrichtung des Navigationssystems einspricht und diese akustische Aufnahme im Spracherkennungsmodul analysiert wird. Außerdem wird zumindest der eine Eingabebestandteil, beispielsweise der Straßenname, als Akustikda- tensatz im Arbeitsspeicher zwischengespeichert. Wird nun die Korrektur des ersten Eingabebestandteils notwendig, beispielsweise indem bei der Spracherkennungsanalyse nicht korrekt erkannte Städtenamen korrigiert werden, so kann anschließend der zwischengespeicherte Akustikdatensatz, in dem beispielsweise der Straßenname enthalten ist, aus dem Arbeitsspeicher geladen und erneut im Spracherkennungsmodul analysiert werden. Von besonders großem Vorteil ist das erfindungsgemäße Verfahren, wenn alle Eingabebestandteile der Adresseingabe, insbesondere der Städtename und/oder der Straßenname und/oder die Hausnummer, gemeinsam und hintereinander akustisch aufgenommen werden, unabhängig von einer j eweils dazwischen auszuführenden Spracherkennungsanalyse. Bei diesen so genannten „One-Shot-Eingabelösungen" kann der Benutzer also in sehr kurzer Zeit alle notwendigen Eingaben akustisch einsprechen. Zwischen den einzelnen Eingaben kann dabei beispielsweise eine entsprechende Eingabeaufforderung zur Eingabe des jeweils zugeordne- ten Adressbestandteils ausgegeben werden. Sobald alle Eingabebestandteile der Adresseingabe eingesprochen und als Akustikdatensätze im Arbeitsspeicher zwischengespeichert sind, sind weitere akustische Spracheingaben durch den Benutzer zur Spezifikation der Adresse nicht mehr notwendig, da die entsprechenden Angaben jederzeit durch Laden der zwischengespeicherten Akustikdatensätze wieder verfügbar gemacht werden können.According to a preferred variant of the method, it is provided that the user accepts at least two input components, namely a first input component and a second input component, for example a city name and a street name, into the receiving device of the navigation system and this acoustic recording is analyzed in the voice recognition module. In addition, at least one input component, for example the street name, is buffered as an acoustic data record in the main memory. Now, if the correction of the first input component is necessary, for example by incorrectly recognized city names are corrected in the speech recognition analysis, then the cached acoustic data set containing, for example, the street name can be loaded from the main memory and analyzed again in the speech recognition module. Of particular advantage is the method according to the invention, when all input components of the address input, in particular the city name and / or the street name and / or the house number, are recorded acoustically together and behind each other, regardless of an in each case interspersed voice recognition analysis. In the case of these so-called "one-shot input solutions", the user can then acoustically respond to all the necessary inputs in a very short time, for example by issuing a corresponding input request for inputting the respectively assigned address component between the individual inputs Address input are recorded and cached as acoustic data sets in the main memory, further acoustic speech input by the user to specify the address is no longer necessary because the corresponding information can be made available at any time by loading the cached acoustic data sets again.
Die Spracherkennungsanalyse kann optional nach der kompletten Eingabe oder im Hintergrund, das heißt als ein nebenläufiger Thread, parallel zu der Spracheingabe durchgeführt werden.The speech recognition analysis may optionally be performed after the complete input or in the background, that is, as a concurrent thread, in parallel with the speech input.
Soweit alle Eingabebestandteile der Adresseingabe akustisch aufgenommen werden, sollten die verschiedenen Eingabebestandteile jeweils als separate Akustikdatensätze zwischengespeichert werden, damit effektiv und zielgerichtet auf die verschiedenen Teile der Adresseingabe zugegriffen werden kann. Werden beispielsweise der Städtename, der Stra- ßenname und die Hausnummer vom Benutzer eingesprochen, sollte sowohl für den Städtenamen als auch für den Straßennamen als auch für die Hausnummer jeweils ein separater Akustikdatensatz generiert und im Arbeitsspeicher zwischengespeichert werden.As far as all input components of the address input are recorded acoustically, the various input components should each be cached as separate acoustic data records, so that the different parts of the address input can be accessed effectively and purposefully. If, for example, the name of the city, the street name and the house number are spoken by the user, a separate acoustic data record should be generated both for the city name and for the street name and for the house number and buffered in the main memory.
In welcher Form die Akustikdaten der akustisch aufgenommenen Adress- eingäbe zwischengespeichert werden, ist grundsätzlich beliebig. Besonders geeignet sind dabei Phonemvektoren, die eine Speicherung mit relativ geringem Speicherbedarf ermöglichen und außerdem eine effektive Spracherkennungsanalyse realisieren lassen.The form in which the acoustic data of the acoustically recorded address entries are temporarily stored is basically arbitrary. Particularly suitable are phoneme vectors that have a storage with allow relatively small memory requirements and also realize an effective speech recognition analysis.
Wird das erfindungsgemäße Verfahren im Hinblick auf die Korrektur eines Städtenamens realisiert, so ist es besonders vorteilhaft, wenn nach Korrektur des Städtenamens eine Wortschatzliste aller für diese Stadt gespeicherten Straßennamen erstellt wird. Anschließend wird der im Arbeitsspeicher zwischengespeicherte Akustikdatensatz, in dem der Straßenname zwischengespeichert ist, in das Spracherkennungsmodul geladen und im Hinblick auf die neu erstellte Wortschatzliste mit allen in der Stadt des korrigierten Städtenamens vorhandenen Straßennamen verglichen. Ein erneutes Einsprechen des Straßennamens nach der Korrektur des Städtenamens ist also nicht mehr erforderlich.If the method according to the invention is implemented with regard to the correction of a city name, then it is particularly advantageous if, after correction of the city name, a vocabulary list of all street names stored for this city is created. Subsequently, the cached in the working memory acoustic data in which the street name is cached, loaded into the speech recognition module and compared with regard to the newly created vocabulary list with all existing in the city of the corrected city name street names. Re-speaking the street name after the correction of the city name is therefore no longer necessary.
Auch im Hinblick auf die Korrektur des Straßennamens kann das erfindungsgemäße Verfahren eingesetzt werden. Wurde nämlich der Straßen- name korrigiert, so kann eine Wortschatzliste mit allen in dieser Straße vorhandenen Hausnummern erstellt werden und in der nachfolgenden Spracherkennungsanalyse der gespeicherte Akustikdatensatz mit diesen Hausnummern der korrigierten Wortschatzliste verglichen werden.The method according to the invention can also be used with regard to the correction of the street name. If the street name has been corrected, then a vocabulary list can be created with all house numbers present on this street, and in the subsequent speech recognition analysis the stored acoustic dataset can be compared with these house numbers of the corrected vocabulary list.
Verschiedene Aspekte der Erfindung sind in den Zeichnungen schema- tisch dargestellt und werden nachfolgend beispielhaft erläutert.Various aspects of the invention are illustrated schematically in the drawings and are explained below by way of example.
Es zeigen:Show it:
Fig. 1 die Eingabemaske zur Eingabe einer Adresse;Fig. 1 shows the input mask for entering an address;
Fig. 2 die Eingabemaske gemäß Fig. 1 während der Spracheingabe des Städtenamens, des Straßennamens und der Hausnummer;FIG. 2 shows the input mask according to FIG. 1 during voice input of the city name, the street name and the house number; FIG.
Fig. 3 die Maske zur Anzeige der Adresseingabe nach Durchführung der ersten Spracherkennungsanalyse;3 shows the mask for indicating the address input after carrying out the first speech recognition analysis;
Fig. 4 die Liste zur Anzeige weiterer Treffer der ersten Spracherkennungsanalyse; Fig. 5 die Eingabemaske zur Korrektur der Adresseingabe nach der Spracherkennungsanalyse;4 shows the list for displaying further hits of the first speech recognition analysis; FIG. 5 shows the input mask for correcting the address input after the speech recognition analysis; FIG.
Fig. 6 die Eingabemaske gemäß Fig. 5 während der erneuten Eingabe des Städtenamens;FIG. 6 shows the input mask according to FIG. 5 during the re-entry of the city name; FIG.
Fig. 7 die Trefferliste zur Anzeige der Städtenamen nach der zweiten Spracherkennungsanalyse;FIG. 7 shows the hit list for displaying the city names after the second speech recognition analysis; FIG.
Fig. 8 die Eingabemaske zur Korrektur des Straßennamens mit bereits korrigiertem Straßennamen;8 shows the input mask for the correction of the street name with already corrected street name;
Fig. 9 die Eingabemaske zur Korrektur der Adresse durch alphanume- rische Tastatureingabe.9 shows the input mask for correcting the address by alphanumeric keyboard input.
Nachfolgend soll das erfindungsgemäße Verfahren anhand eines Beispiels erläutert werden, bei dem der Benutzer die Adresse „Berliner Platz, 1 1 , Würzburg" in das Navigationssystem als Zieladresse eingeben möchte. Dazu startet der Benutzer zunächst die Spracherkennungsanalyse mit der Eingabemaske gemäß Fig. 1. Das Navigationssystem lädt danach den Wortschatz aller Ortsnamen in dem gewählten Land, nämlich Deutschland. Danach wird der Benutzer vom Navigationssystem aufgefordert, den Städtenamen einzusprechen. Daraufhin spricht der Benutzer das Wort „Würzburg" in die Aufnahmeeinrichtung des Navigationssys- tems, beispielsweise ein Mikrophon. Gab es während dieser Eingabe des Städtenamens beispielsweise störende Nebengeräusche, so kann der korrekte Städtename aufgrund der schlechten Aufnahmequalität beispielsweise nicht erkannt werden, so dass der korrekte Städtename „Würzburg" beispielsweise nicht bei den besten Treffern der Spracher- kennungsanalyse vorhanden ist. Da aber nur für die besten n Treffer der Spracherkennungsanalyse für den Städtenamen ein gemeinsamer Wortschatz für die nachfolgende Spracherkennungsanalyse im Hinblick auf den Straßennamen erstellt wird, ist der Straßenname „Berliner Platz" in diesem für die weitere Spracherkennungsanalyse zu verwendenden Straßennamen-Wortschatz nicht vorhanden.In the following, the method according to the invention will be explained with reference to an example in which the user would like to enter the address "Berliner Platz, 1 1, Würzburg" as the destination address in the navigation system The navigation system then loads the vocabulary of all place names in the selected country, namely Germany, whereupon the navigation system asks the user to enclose the name of the city, whereupon the user speaks the word "Würzburg" into the recording device of the navigation system, for example a microphone. If, for example, there were disturbing background noises during this input of the city name, the correct city name can not be recognized due to the poor recording quality, so that the correct city name "Würzburg" is not included in the best hits of the speech recognition analysis the best n hits of the speech recognition analysis for the city name a common vocabulary for the subsequent speech recognition analysis with regard to the street name is created, the street name is "Berliner Platz" in This street name vocabulary to be used for the further speech recognition analysis does not exist.
Wird nun der Benutzer aufgefordert, den Straßennamen einzusprechen und gibt, wie in Fig. 2 dargestellt, den Straßennamen „Berliner Platz" ein, so kann der korrekte Straßenname aufgrund des verwendeten Straßennamen-Wortschatzes, der den Straßennamen „Berliner Platz" überhaupt nicht enthält, von vornherein nicht erkannt werden. Nach der Spracheingabe des akustisch eingesprochenen Straßennamens „Berliner Platz" wurde ein Phonemvektor für diese Spracheingabe des entspre- chenden Eingabebestandteils erzeugt und im Arbeitsspeicher des Navigationssystems zwischengespeichert.If the user is now prompted to enclose the street name and, as shown in FIG. 2, enters the street name "Berliner Platz", the correct street name can not be included due to the street name vocabulary that does not contain the street name "Berliner Platz". not be recognized from the outset. After the voice input of the acoustically spoken street name "Berliner Platz", a phoneme vector for this voice input of the corresponding input component was generated and temporarily stored in the main memory of the navigation system.
Danach wird der Benutzer vom Navigationssystem aufgefordert, auch noch die Hausnummer einzusprechen, woraufhin der Benutzer die Hausnummer „1 1 " akustisch eingibt. Nach Durchführung der Spracherken- nungsanalyse für alle drei Eingabebestandteile, die vom Benutzer akustisch eingegeben wurden, wird als bester Treffer der Spracherkennungsanalyse die in Fig. 3 dargestellte Adresse ermittelt. Aufgrund der schlechten Aufnahmequalität bei der Eingabe des Städtenamens wurde jedoch eine falsche Adresse, nämlich „Wolzburg, Borbitzweg, 1 1 " ermittelt. Das aufgrund der ersten Spracherkennungsanalyse ermittelte Ergebnis enthält also weder den richtigen Ort noch die richtige Straße. Lediglich die Hausnummer wurde richtig erkannt.The user is then prompted by the navigation system to also enter the house number, whereupon the user acoustically enters house number "1 1." After performing the speech recognition analysis for all three input components that were entered acoustically by the user, the speech recognition analysis is the best match the address shown in Fig. 3. However, due to the poor quality of the image when entering the city name, an incorrect address, namely "Wolzburg, Borbitzweg, 1 1" was detected. The result obtained on the basis of the first speech recognition analysis thus contains neither the correct location nor the correct street. Only the house number was recognized correctly.
Anschließend wird der Benutzer abgefragt, ob das angezeigte Ergebnis der Adresseingabe zutreffend ist. Da das Ergebnis nicht zutreffend ist, wird anschließend die in Fig. 4 dargestellte Liste angezeigt, aus der die weiteren Treffer der ersten Spracherkennungsanalyse ersichtlich sind und dem Benutzer angezeigt werden. Ist auch hier die gewünschte Adresse nicht enthalten, so kann der Benutzer einen Korrekturworkflow starten, dessen Eingabemaske in Fig. 5 dargestellt ist. In dieser Korrektur - Eingabemaske kann der Benutzer zunächst den Städtenamen korrigieren, beispielsweise durch erneute akustische Eingabe des Städtenamens. Wie in Fig. 6 dargestellt, wird dann zunächst der nach der ersten Spracher- kennungsanalyse erkannte Städtenamen aus der Adresseingabe gelöscht und dem Benutzer, wie in Fig. 7 dargestellt, die Trefferliste nach der zweiten Spracherkennungsanalyse für den Städtenamen angezeigt. Aufgrund der verbesserten Akustikbedingungen wurde nunmehr der korrekte Städtename „Würzburg" erkannt. Dieser korrekte Städtename kann dann akzeptiert und in die Eingabemaske eingelesen werden.Subsequently, the user is asked whether the displayed result of the address input is correct. Since the result is not correct, the list shown in FIG. 4 is subsequently displayed, from which the further hits of the first speech recognition analysis can be seen and displayed to the user. If the desired address is also not included here, the user can start a correction workflow whose input mask is shown in FIG. In this correction input mask, the user can first correct the city name, for example by renewed acoustic input of the city name. As 6, the city name recognized after the first speech recognition analysis is first deleted from the address input, and the user is shown the hit list after the second speech recognition analysis for the city name, as shown in FIG. Due to the improved acoustic conditions, the correct city name "Würzburg" has now been recognized and this correct city name can then be accepted and read into the input mask.
Anschießend wird, wie in Fig. 8 dargestellt, die Korrektur des Straßennamens gestartet. Beim Start der Korrektur des Straßennamens lädt das Navigationssystem zunächst den für den Straßennamen im Arbeitsspeicher zwischengespeicherten Phonemvektor der ersten Spracheingabe, in dem der Straßenname gespeichert ist. Dieser zwischengespeicherte Phonemvektor wird nun mit der Straßennamen-Wortschatzliste abgeglichen, die aufgrund des geänderten Städtenamens generiert wurde. Dieser Städtenamen-Wortschatz für die Stadt Würzburg enthält nunmehr auch als mögliche Straße den „Berliner Platz" und wird deshalb auch korrekt erkannt. Dieser Straßenname „Berliner Platz" wird somit vom Navigationssystem automatisch in die Korrektur-Eingabemaske gemäß Fig. 8 eingetragen und dem Benutzer zur Auswahl angezeigt. Da nunmehr alle Adressbestandteile korrekt eingegeben sind, kann der Benutzer diese Adresse in seine Routenplanung durch das Navigationssystem übernehmen.Then, as shown in Fig. 8, the correction of the street name is started. When starting the correction of the street name, the navigation system first loads the phoneme vector of the first speech input, which is temporarily stored in the working memory for the street name, in which the street name is stored. This cached phoneme vector is now matched against the street name vocabulary generated due to the changed city name. This city name vocabulary for the city of Würzburg now also contains the "Berliner Platz" as a possible street and is therefore recognized correctly, so that the street name "Berliner Platz" is automatically entered by the navigation system into the correction input mask according to FIG displayed for selection. Since now all address components are entered correctly, the user can take over this address in his route planning by the navigation system.
Fig. 9 zeigt eine alphanumerische Eingabemaske, mit der der Benutzer durch manuelle Tastatureingaben alle falsch erkannten Adresskomponen- ten überschreiben kann. Da die Adresse über das beschriebene Verfahren mit Spracherkennung korrekt erkannt wurde, kann durch Drücken der Taste mit der Aufschrift „Navigation starten" eine Routenplanung zum gewünschten Ziel vorgenommen werden. FIG. 9 shows an alphanumeric input mask with which the user can overwrite all incorrectly recognized address components by manual keystrokes. Since the address has been recognized correctly by the speech recognition method described, a route planning to the desired destination can be made by pressing the button labeled "Start navigation".

Claims

Patentansprüche claims
1 . Verfahren zum Betrieb eines Navigationssystems mit einer Aufnahmeeinrichtung, an der eine akustische Adresseingabe, die aus mehre- ren Eingabebestandteilen besteht, aufgenommen werden kann, wobei die Eingabebestandteile der Adresse mit einem Spracherkennungsmo- dul analysiert werden, und wobei abhängig vom Ergebnis der Sprach- erkennungsanalyse zumindest ein geografischer Ort, der durch eine Adresse mit mehreren Adressbestandteilen definiert ist, aus einer Da- tenbank zur Weiterverarbeitung ausgewählt wird, dadurch gekennzeichnet, dass zumindest ein Eingabebestandteil als Akustikdatensatz in einem Arbeitsspeicher zwischengespeichert wird, wobei der zwischengespeicherte Akustikdatensatz später aus dem Arbeitsspeicher geladen wird.1 . Method for operating a navigation system with a recording device, at which an acoustic address input, which consists of several input components, can be recorded, wherein the input components of the address are analyzed with a voice recognition module, and depending on the result of the speech recognition analysis at least a geographical location, which is defined by an address with multiple address components, is selected from a database for further processing, characterized in that at least one input component is buffered as an acoustic data record in a working memory, wherein the buffered acoustic data record is loaded later from the working memory.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass zumindest ein erster und ein zweiter Eingabebestandteil nach der akustischen Aufnahme im Spracherkennungsmodul analysiert werden, wobei zumindest der zweite Eingabebestandteil als Akustikdatensatz in einem Arbeitsspeicher zwischengespeichert wird, und wobei der zwischengespeicherte Akustikdatensatz nach einer Korrektur des ersten Eingabebestandteils aus dem Arbeitsspeicher geladen und im Spracherkennungsmodul erneut analysiert wird.2. The method according to claim 1, characterized in that at least a first and a second input component are analyzed after the acoustic recording in the speech recognition module, wherein at least the second input component is buffered as an acoustic data set in a main memory, and wherein the buffered acoustic data set after a correction of the first Input component is loaded from memory and re-analyzed in the speech recognition module.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass alle Eingabebestandteile der Adresseingabe, insbesondere der Städtename und/oder der Straßenname und/oder die Hausnummer, gemeinsam hintereinander akustisch aufgenommen werden. 3. The method according to claim 1 or 2, characterized in that all input components of the address input, in particular the city name and / or the street name and / or the house number, are recorded acoustically in succession.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die gemeinsam akustisch aufgenommenen Eingabebestandteile der Adresseingabe als jeweils separate Akustikdatensätze zwischen- gespeichert werden.4. The method according to any one of claims 1 to 3, characterized in that the acoustically recorded input components of the address input are stored as a separate separate acoustic data sets.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Akustikdatensätze in der Art von Phonemvektoren zwischengespeichert werden.5. The method according to any one of claims 1 to 4, characterized in that the acoustic data sets are cached in the manner of phoneme vectors.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass nach Korrektur des Städtenamens eine Wortschatzliste aller zu dieser Stadt gespeicherten Straßennamen erstellt wird, wobei bei der nachfolgenden Spracherkennungsanalyse zur Erkennung des vom Be- nutzer eingesprochenen Straßennamens der dem Straßennamen zugeordnete, zwischengespeicherte Akustikdatensatz mit den Straßennamen der Wortschatzliste verglichen wird.6. The method according to any one of claims 1 to 5, characterized in that after correction of the city name a vocabulary list of all street names stored for this city is created, wherein in the subsequent speech recognition analysis for recognizing the user-spoken street name of the street name associated, cached Acoustic data set is compared with the street names of the vocabulary list.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass nach Korrektur des Straßennamens eine Wortschatzliste aller zu dieser Straße gespeicherten Hausnummern erstellt wird, wobei bei der nachfolgenden Spracherkennungsanalyse zur Erkennung der vom Benutzer eingesprochenen Hausnummer der der Hausnummer zugeordnete, zwischengespeicherte Akustikdatensatz mit den Hausnum- mern der Wortschatzliste verglichen wird. 7. The method according to any one of claims 1 to 6, characterized in that after correction of the street name a vocabulary list of all stored on this street house numbers is created, wherein in the subsequent speech recognition analysis for detecting the user-spoken house number of the house number associated, cached acoustic data set is compared to the house numbers of the vocabulary list.
PCT/DE2009/000273 2008-03-03 2009-02-27 Method for operating a navigation system WO2009109169A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP09717928A EP2250464A1 (en) 2008-03-03 2009-02-27 Method for operating a navigation system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102008012208 2008-03-03
DE102008012208.4 2008-03-03
DE102008027958A DE102008027958A1 (en) 2008-03-03 2008-06-12 Method for operating a navigation system
DE102008027958.7 2008-06-12

Publications (1)

Publication Number Publication Date
WO2009109169A1 true WO2009109169A1 (en) 2009-09-11

Family

ID=41051569

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2009/000273 WO2009109169A1 (en) 2008-03-03 2009-02-27 Method for operating a navigation system

Country Status (3)

Country Link
EP (1) EP2250464A1 (en)
DE (1) DE102008027958A1 (en)
WO (1) WO2009109169A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2518447A1 (en) * 2011-04-25 2012-10-31 Honda Motor Co., Ltd. System and method for fixing user input mistakes in an in-vehicle electronic device
WO2016082942A1 (en) * 2014-11-24 2016-06-02 Audi Ag Motor vehicle device operation with operating correction

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009024693B4 (en) * 2009-06-12 2019-07-11 Volkswagen Ag Infotainment system for a vehicle and method for presenting information
DE102009025530B4 (en) * 2009-06-19 2019-05-23 Volkswagen Ag Method for operating a vehicle by means of an automated voice dialogue and a correspondingly designed voice dialogue system and vehicle
DE102009058151B4 (en) * 2009-12-12 2020-08-20 Volkswagen Ag Method for operating a speech dialogue system with semantic evaluation and speech dialogue system in addition
DE102009059792A1 (en) * 2009-12-21 2011-06-22 Continental Automotive GmbH, 30165 Method and device for operating technical equipment, in particular a motor vehicle
DE102010026708A1 (en) * 2010-07-10 2012-01-12 Volkswagen Ag Method for operating voice portal utilized as user interface for operating devices in motor car, involves determining hit quantity depending on comparison process, where hit quantity contains set of records stored in database
DE102011012959A1 (en) * 2011-03-04 2012-09-06 Audi Ag Navigation device for a motor vehicle
CN115240664A (en) * 2019-04-10 2022-10-25 华为技术有限公司 Man-machine interaction method and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050055210A1 (en) * 2001-09-28 2005-03-10 Anand Venkataraman Method and apparatus for speech recognition using a dynamic vocabulary
DE102007015497A1 (en) * 2006-03-31 2007-10-04 Denso Corp., Kariya Speech recognition device for use in vehicle, has memory medium for storing dictionary data structured in tree, where data contain multiple words as node in tree, and reverse-speech-comparison unit comparing reverse language
EP1936606A1 (en) * 2006-12-21 2008-06-25 Harman Becker Automotive Systems GmbH Multi-stage speech recognition
WO2009010358A1 (en) * 2007-07-18 2009-01-22 Siemens Aktiengesellschaft Method for voice recognition
EP2026328A1 (en) * 2007-08-09 2009-02-18 Volkswagen Aktiengesellschaft Method for multimodal control of at least one device in a motor vehicle
EP2028646A1 (en) * 2007-08-17 2009-02-25 Envox International Limited Device for modifying and improving the behaviour of speech recognition systems

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19709518C5 (en) * 1997-03-10 2006-05-04 Harman Becker Automotive Systems Gmbh Method and device for voice input of a destination address in a real-time route guidance system
DE19742054A1 (en) * 1997-09-24 1999-04-01 Philips Patentverwaltung Input system at least for place and / or street names
JP3980791B2 (en) * 1999-05-03 2007-09-26 パイオニア株式会社 Man-machine system with speech recognition device
DE10036851A1 (en) * 2000-07-28 2002-02-28 Mannesmann Vdo Ag Method for selecting a place name in a navigation system by voice input
JP4116233B2 (en) * 2000-09-05 2008-07-09 パイオニア株式会社 Speech recognition apparatus and method
JP4283984B2 (en) * 2000-10-12 2009-06-24 パイオニア株式会社 Speech recognition apparatus and method
DE102005059390A1 (en) * 2005-12-09 2007-06-14 Volkswagen Ag Speech recognition method for navigation system of motor vehicle, involves carrying out one of speech recognitions by user to provide one of recognizing results that is function of other recognizing result and/or complete word input

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050055210A1 (en) * 2001-09-28 2005-03-10 Anand Venkataraman Method and apparatus for speech recognition using a dynamic vocabulary
DE102007015497A1 (en) * 2006-03-31 2007-10-04 Denso Corp., Kariya Speech recognition device for use in vehicle, has memory medium for storing dictionary data structured in tree, where data contain multiple words as node in tree, and reverse-speech-comparison unit comparing reverse language
EP1936606A1 (en) * 2006-12-21 2008-06-25 Harman Becker Automotive Systems GmbH Multi-stage speech recognition
WO2009010358A1 (en) * 2007-07-18 2009-01-22 Siemens Aktiengesellschaft Method for voice recognition
EP2026328A1 (en) * 2007-08-09 2009-02-18 Volkswagen Aktiengesellschaft Method for multimodal control of at least one device in a motor vehicle
EP2028646A1 (en) * 2007-08-17 2009-02-25 Envox International Limited Device for modifying and improving the behaviour of speech recognition systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2518447A1 (en) * 2011-04-25 2012-10-31 Honda Motor Co., Ltd. System and method for fixing user input mistakes in an in-vehicle electronic device
US9188456B2 (en) 2011-04-25 2015-11-17 Honda Motor Co., Ltd. System and method of fixing mistakes by going back in an electronic device
WO2016082942A1 (en) * 2014-11-24 2016-06-02 Audi Ag Motor vehicle device operation with operating correction
US9812129B2 (en) 2014-11-24 2017-11-07 Audi Ag Motor vehicle device operation with operating correction

Also Published As

Publication number Publication date
DE102008027958A1 (en) 2009-10-08
EP2250464A1 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
WO2009109169A1 (en) Method for operating a navigation system
EP1176395B1 (en) Method for the selection of the designation of a place in a system of navigation via voice input
DE102009017176A1 (en) Navigation arrangement for a motor vehicle
DE112010005918T5 (en) Voice recognition device
DE112011105407T5 (en) Speech recognition device and navigation device
EP1071075A2 (en) Method for speech recognition using confidence measures
DE102015211101A1 (en) Speech recognition system and method for operating a speech recognition system with a mobile unit and an external server
EP1739655A2 (en) Method for determining a list of hypotheses from the vocabulary of a speech recognition system
EP3152753B1 (en) Assistance system that can be controlled by means of voice inputs, having a functional device and a plurality of voice recognition modules
EP1606794A1 (en) Speaker-dependent voice recognition method and voice recognition system
DE60029456T2 (en) Method for online adjustment of pronunciation dictionaries
DE112014006957B4 (en) Information providing system
DE10129005B4 (en) Method for speech recognition and speech recognition system
DE102017211447A1 (en) Method for selecting a list entry from a selection list of an operating device by means of voice control and operating device
DE102007016887B3 (en) Method for operating navigation system, involves entering address information into corresponding phonetic address information, where address information is decoded in phonetic code
DE102010034357A1 (en) Method for operating a navigation system
DE112017007852B4 (en) Voice recognition dictionary data construction device, voice recognition device, voice recognition dictionary data construction method
DE102008028090A1 (en) Method for operating a navigation system
EP1046019A1 (en) Navigation system and navigation data carrier
EP1604353B1 (en) Voice acknowledgement independent of a speaker while dialling by name
DE102017216571B4 (en) motor vehicle
EP2096412A2 (en) Method for operating a navigation system
EP1256935A2 (en) Training process and use of a speech recognition system, speech recognizer and training system
DE10324425B4 (en) Method for preparing acoustic driving instructions and navigation terminal thereto
DE102005054582A1 (en) Destination data e.g. city name, inputting method for e.g. navigation system, involves selecting data objects from database, modifying input data by mutation, and outputting objects during existence of mutant data set in database

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09717928

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009717928

Country of ref document: EP