DE102015213722A1 - A method of operating a speech recognition system in a vehicle and speech recognition system - Google Patents
A method of operating a speech recognition system in a vehicle and speech recognition system Download PDFInfo
- Publication number
- DE102015213722A1 DE102015213722A1 DE102015213722.8A DE102015213722A DE102015213722A1 DE 102015213722 A1 DE102015213722 A1 DE 102015213722A1 DE 102015213722 A DE102015213722 A DE 102015213722A DE 102015213722 A1 DE102015213722 A1 DE 102015213722A1
- Authority
- DE
- Germany
- Prior art keywords
- text
- context
- user
- data
- semantic analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben eines Spracherkennungssystems (10) in einem Fahrzeug (6) sowie ein Spracherkennungssystem (10). Bei dem erfindungsgemäßen Verfahren wird zumindest eine Spracheingabe eines Nutzers erfasst wird und es werden Daten zu dem Kontext der Spracheingabe erfasst. Es wird ein erkannter Text der Spracheingabe erzeugt und eine semantische Analyse des erkannten Textes wird erzeugt. Schließlich wird anhand der semantischen Analyse eine Funktion ausgeführt.The invention relates to a method for operating a speech recognition system (10) in a vehicle (6) and to a speech recognition system (10). In the method according to the invention at least one speech input of a user is detected and data on the context of the speech input is detected. A recognized text of the speech input is generated and a semantic analysis of the recognized text is generated. Finally, a function is performed based on the semantic analysis.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug sowie ein Spracherkennungssystem.The invention relates to a method for operating a speech recognition system in a vehicle and to a speech recognition system.
Spracherkennungssysteme finden ein breites Anwendungsspektrum für Bediensysteme. Dies betrifft gleichermaßen die Bedienung von Geräten sowie die Erledigung fernmündlicher Aufgaben mittels Sprachcomputer, beispielsweise Telefon-Banking. Auch hat sich die Bedienung von Einrichtungen eines Fahrzeugs über Spracheingaben als wesentliches Merkmal aktueller Benutzerschnittstellen im Fahrzeug etabliert. Beispielsweise werden zur Eingabe komplexer Sachverhalte entsprechende Informationen durch ein Sprachdialogsystem sequentiell vom Nutzer abgefragt. Speech recognition systems find a wide range of applications for operating systems. This applies equally to the operation of devices and the completion of telephone tasks using voice computers, such as telephone banking. Also, the operation of facilities of a vehicle via voice inputs has become established as an essential feature of current user interfaces in the vehicle. For example, to input complex facts corresponding information is queried sequentially by a user through a speech dialogue system.
Es ist dabei von entscheidender Bedeutung, dass die Erkennung und Interpretation einer Spracheingabe des Nutzers möglichst fehlerfrei und schnell erfolgt. Hierfür wurden zwar bereits verschiedene Methoden vorgeschlagen, die zur Implementierung notwendige große Rechenkapazität erschwert allerdings häufig den Einsatz, etwa im Bereich mobiler Geräte oder in Fahrzeugen. Ein Ansatz zur Lösung dieses Problems ist, die Rechenaufgaben auf einen über das Internet erreichbaren Server auszulagern. Dies setzt allerdings voraus, dass das Spracherkennungssystem jederzeit Daten mit dem Server austauschen kann, was insbesondere in Gebieten mit lückenhafter Abdeckung durch Mobilfunknetze nicht jederzeit gewährleistet ist. It is of crucial importance that the recognition and interpretation of a user's speech input is as error-free and fast as possible. Although various methods have already been proposed for this, the large computing capacity required for implementation often makes deployment difficult, for example in the field of mobile devices or in vehicles. One approach to solving this problem is to outsource the computational tasks to a server accessible via the Internet. However, this presupposes that the voice recognition system can exchange data with the server at any time, which is not always guaranteed, especially in areas with incomplete coverage by mobile radio networks.
Bei dem in der
Die
Die
Es ist daher die Aufgabe der vorliegenden Erfindung, ein Verfahren zum Betreiben eines Spracherkennungssystems und ein Spracherkennungssystem bereitzustellen, mit denen Spracheingaben schnell und zuverlässig erkannt und interpretiert werden können. It is therefore the object of the present invention to provide a method for operating a speech recognition system and a speech recognition system with which speech inputs can be quickly and reliably recognized and interpreted.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein Spracherkennungssystem mit den Merkmalen des Anspruchs 15 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen. According to the invention, this object is achieved by a method having the features of
Bei dem erfindungsgemäßen Verfahren wird zumindest eine Spracheingabe eines Nutzers erfasst und es werden Daten zu dem Kontext der Spracheingabe erfasst. Ein erkannter Text der Spracheingabe wird erzeugt und eine semantische Analyse des erkannten Textes wird erzeugt. Anschließend wird anhand der semantischen Analyse eine Funktion ausgeführt.In the method according to the invention, at least one speech input of a user is detected and data relating to the context of the speech input is acquired. A recognized text of the speech input is generated and a semantic analysis of the recognized text is generated. Subsequently, a function is performed based on the semantic analysis.
Insbesondere kann das Spracherkennungssystem in einem Fahrzeug betrieben werden. In particular, the voice recognition system can be operated in a vehicle.
Die Erfassung der Spracheingabe erfolgt dabei durch an sich bekannte Verfahren, etwa mittels eines Mikrofons und einer dazugehörigen Einrichtung zur Speicherung und Verarbeitung des erfassten Signals. Der Benutzer kann dem System beispielsweise den Beginn einer Spracheingabe durch Drücken einer „Push-To-Talk“-Taste (PTT) signalisieren. Die erfassten Audiodaten der Spracheingabe können flüchtig oder nichtflüchtig gespeichert werden und so zu einem späteren Zeitpunkt zur Verfügung stehen.The speech input is detected by methods known per se, for example by means of a microphone and an associated device for storing and processing the detected signal. For example, the user may signal the system to begin voice input by pressing a push-to-talk (PTT) key. The recorded audio data of the voice input can be stored in a volatile or non-volatile manner and thus be available at a later time.
Nach der Erfassung der Spracheingabe wird eine Texterkennung durchgeführt. Dabei wird anhand eines Sprachmodells aus dem erfassten Audiosignal der Spracheingabe ein erkannter Text ermittelt. Dieser wird insbesondere maschinenlesbar erzeugt und kann für die weitere Analyse verwendet werden. Das Sprachmodell kann beispielsweise ein Wörterbuch umfassen. Es kann ferner die Frequenz von Wörtern einzeln oder in Kombination abbilden. Das Spracherkennungssystem kann mehrere Sprachmodelle umfassen, die beispielsweise einen verschieden großen Wortschatz abbilden. After detecting the speech input, a text recognition is performed. In this case, a recognized text is determined on the basis of a speech model from the detected audio signal of the speech input. This is generated in particular machine-readable and can be used for further analysis. The language model may include, for example, a dictionary. It can also map the frequency of words individually or in combination. The speech recognition system may include multiple language models, for example, mapping a different sized vocabulary.
In einem nächsten Schritt wird eine semantische Analyse des erkannten Textes erzeugt, wobei beispielsweise Verfahren aus dem Bereich der „Natural Language Recognition“ angewandt werden. Dies betrifft die Interpretation der Spracheingabe und die Ermittlung der Intention des Nutzers. Mittels der semantischen Analyse des erkannten Textes kann anschließend eine Funktion ausgeführt werden. In a next step, a semantic analysis of the recognized text is generated, using, for example, methods from the field of "Natural Language Recognition". This concerns the interpretation of the speech input and the determination of the intention of the user. By means of semantic analysis of the recognized text can then be performed a function.
Zur Verbesserung dieses Prozesses können die oben genannten, aufeinander aufbauenden Schritte einzeln oder in Kombination miteinander optimiert werden. Eine verbesserte Umwandlung der mündlichen Eingabe des Nutzers in maschinenlesbaren Text wird beispielsweise zu einer zuverlässigeren Interpretation der Spracheingabe führen. Ferner kann die semantische Analyse des erkannten Textes verbessert werden, um die Intention des Nutzers besser zu bestimmen und anschließend zuverlässig eine Funktion entsprechend der Spracheingabe auszuführen.To improve this process, the above-mentioned sequential steps can be optimized individually or in combination with each other. Improved conversion of the user's verbal input into machine-readable text, for example, will result in a more reliable interpretation of the speech input. Further, the semantic analysis of the recognized text can be improved to better determine the intention of the user and then reliably perform a function according to the speech input.
Dabei tragen die erfassten Daten zum Kontext zur Verbesserung verschiedener Schritte bei, indem zusätzliche Informationen bereitgestellt werden. The collected data contributes to the context for improving various steps by providing additional information.
Der „Kontext der Spracheingabe“ stellt erfindungsgemäß die Gesamtheit der Informationen dar, welche die Fahrsituation betreffen, in der die Spracheingabe erfolgt. Die Daten zum Kontext der Spracheingabe können insbesondere Informationen umfassen, die den Kontext zum Zeitpunkt der Spracheingabe betreffen; ferner können Daten zum Kontext in der Vergangenheit umfasst sein. Neben dem zeitlichen Bezug kann auch ein räumlicher Bezug den Kontext erstellen, etwa bei Informationen über die nähere Umgebung des Fahrzeugs. According to the invention, the "context of the speech input" represents the entirety of the information concerning the driving situation in which the speech input takes place. Specifically, the data on the context of the speech input may include information concerning the context at the time of voice input; furthermore, contextual data may be included in the past. In addition to the temporal reference, a spatial reference can also create the context, for example with information about the closer surroundings of the vehicle.
Bei einer Weiterbildung des erfindungsgemäßen Verfahrens betreffen die Daten zu dem Kontext der Spracheingabe Eigenschaften des Fahrzeugs, des Nutzers und/oder der Umgebung des Fahrzeugs. Dadurch können vorteilhafterweise Zusatzinformationen bereitgestellt und die einzelnen Schritte der Spracherkennung verbessert werden. In a development of the method according to the invention, the data relating to the context of the speech input relate to properties of the vehicle, the user and / or the environment of the vehicle. As a result, additional information can advantageously be provided and the individual steps of speech recognition can be improved.
Die erfassten Daten zu dem Kontext können beispielsweise durch die Sensorik des Fahrzeugs zur Verfügung gestellt werden. Ferner können sie beispielsweise durch den Hersteller vorgegeben werden und durch eine Einrichtung des Fahrzeugs, beispielsweise eine Speicher- und Recheneinheit des Fahrzeugs bereitgestellt werden. Sie können ferner von einem Rechner erfasst werden, der beispielsweise durch eine Internetverbindung mit anderen Rechnen verbunden ist oder durch ein lokales Netz beispielsweise mit einem mobilen Nutzergerät des Nutzers Daten austauschen kann. Ferner können Eingaben von dem Benutzer erfasst werden, beispielsweise durch Eingabevorrichtungen des Fahrzeugs. The captured data on the context may be provided, for example, by the sensors of the vehicle. Furthermore, they can be predetermined by the manufacturer, for example, and can be provided by a device of the vehicle, for example a storage and computing unit of the vehicle. They can also be detected by a computer which is connected, for example, by an Internet connection with other arithmetic or can exchange data through a local area network, for example with a mobile user device of the user. Further, inputs may be captured by the user, such as by input devices of the vehicle.
Die Daten über das Fahrzeug können beispielsweise die Geschwindigkeit und die Position des Fahrzeugs betreffen. Ferner können Daten zu konstruktiv bedingten Eigenschaften des Fahrzeugs umfasst sein, etwa der Fahrzeugtyp, die Abmessungen, der benötigte Kraftstofftyp oder die Wartungsintervalle. Auch Informationen über die Nutzung des Fahrzeugs, etwa die innerhalb eines Zeitintervalls gefahrene Strecke, können umfasst sein. For example, the data about the vehicle may relate to the speed and position of the vehicle. Furthermore, data may be included on design-related properties of the vehicle, such as the vehicle type, the dimensions, the required fuel type or the maintenance intervals. Information about the use of the vehicle, such as the distance traveled within a time interval, may also be included.
Der Nutzer des Spracherfassungssystems kann insbesondere der Fahrer des Fahrzeugs sein. Die Daten über den Nutzer können beispielsweise eine Identifikation des Nutzers oder frühere Interaktionen des Nutzers umfassen. Dies ermöglicht nutzerspezifische Anpassungen. Neben dem Nutzer können in einem Fahrzeug auch Daten über weitere Fahrzeuginsassen erfasst werden, beispielsweise deren Identität und Anzahl sowie ihre Interaktionen mit dem Spracherkennungssystem. Die Daten zum Kontext können von verschiedenen Einrichtungen erfasst werden, sie können aber auch von dem Spracherkennungssystem selbst bereitgestellt werden, beispielsweise im Rahmen einer Lernfunktion, bei der vergangene Interaktionen mit dem Nutzer vom Spracherkennungssystem gespeichert werden. The user of the speech detection system may in particular be the driver of the vehicle. The data about the user may include, for example, an identification of the user or previous interactions of the user. This allows user-specific adjustments. In addition to the user, data on further vehicle occupants can also be recorded in a vehicle, for example their identity and number as well as their interactions with the voice recognition system. The data on the context may be captured by various devices, but may also be provided by the speech recognition system itself, for example as part of a learning function in which past interactions with the user are stored by the speech recognition system.
Die Daten über die Umgebung des Fahrzeugs können beispielsweise Informationen über andere Fahrzeuge in der Umgebung des Fahrzeugs umfassen, etwa deren Position und Geschwindigkeit. Auch die Verkehrssituation kann erfasst werden, beispielsweise kann eine Stausituation erkannt werden. Ferner können Informationen über die befahrene Straße erfasst werden, beispielsweise der Straßentyp, die zulässige Höchstgeschwindigkeit, der Zustand des Straßenbelags oder die Dichte des Verkehrs. The data about the environment of the vehicle may, for example, include information about other vehicles in the vicinity of the vehicle, such as their position and speed. Also, the traffic situation can be detected, for example, a traffic jam situation can be detected. Further, information about the traveled road may be detected, such as the road type, the maximum speed allowed, the condition of the road surface or the density of the traffic.
Bei einer Weiterbildung umfassen die Daten zu dem Kontext der Spracheingabe weitere Daten, die durch Einrichtungen erzeugt oder auf ihnen gespeichert sind. Dadurch kann der Kontext vorteilhafterweise durch zusätzliche Informationen angereichert werden. Die Einrichtungen, durch die Daten erzeugt werden oder gespeichert werden können, sind insbesondere Einrichtungen des Fahrzeugs oder mobile Nutzergeräte. Beispielsweise kann erfasst werden, welche Einrichtungen im Moment der Spracheingabe aktiv sind und worauf sich die Spracheingabe bezieht. Daten können beispielsweise von einem elektronischen Kalender, einer Navigationsfunktion, einem Medienabspielgerät oder einer Telefoneinrichtung erfasst werden. In a further development, the data on the context of the speech input comprise further data generated by or stored on devices. As a result, the context can advantageously be enriched by additional information. The devices by which data can be generated or stored are, in particular, devices of the vehicle or mobile user devices. For example, it can be detected which devices are active at the moment of speech input and to which the speech input relates. Data may be collected, for example, from an electronic calendar, a navigation function, a media player or a telephone device.
Insbesondere können auch Bedieneinrichtungen Daten zum Kontext liefern, beispielsweise kann erfasst werden, ob der Nutzer die Bedienung einer bestimmten Einrichtung aktiviert hat und ob er gerade eine Bedienung vornimmt. Ist beispielsweise eine Navigationseinrichtung aktiviert, so kann das System daraus folgern, dass eine Spracheingabe im Zusammenhang mit dieser Einrichtung erfolgt.In particular, operating devices can provide data on the context, for example, it can be detected whether the user has activated the operation of a particular device and whether he is currently performing an operation. If, for example, a navigation device is activated, then the system can conclude that voice input takes place in connection with this device.
Bei einer Ausbildung der Erfindung wird nach der Erzeugung der semantischen Analyse ferner in Abhängigkeit von der semantischen Analyse und von den Daten zu dem Kontext der Spracheingabe eine Erkennungsgüte des erkannten Textes bestimmt und ein Sprachmodell aus einer Vielzahl von Sprachmodellen ausgewählt. Anhand des ausgewählten Sprachmodells wird ein weiterer erkannter Text der Spracheingabe erzeugt. Anschließend wird eine weitere semantische Analyse des weiteren erkannten Textes erzeugt und die genannten Schritte werden wiederholt, bis die Erkennungsgüte einen vorbestimmten Wert überschreitet. Dadurch kann vorteilhafterweise die Spracherkennung optimiert werden. In one embodiment of the invention, after the generation of the semantic analysis, a recognition quality of the recognized text is further determined and a language model selected from a plurality of language models depending on the semantic analysis and the data on the context of the speech input. Based on the selected language model, another recognized text of the speech input is generated. Subsequently, a further semantic analysis of the further recognized text is generated and said steps are repeated until the recognition quality exceeds a predetermined value. As a result, the speech recognition can advantageously be optimized.
Gemäß dieser Ausbildung folgt auf die erste Spracherkennung, durch die ein erkannter Text erzeugt wird, und eine erste semantische Analyse dieses erkannten Textes ein weiterer Schritt, bei dem die Erkennungsgüte des erkannten Textes überprüft wird. Insbesondere erfolgt dabei die erste Texterkennung anhand eines allgemeinen Sprachmodells, das etwa einen Grundwortschatz und grundlegende Satzstrukturen umfassen kann. Es wird daher erwartet, dass die erste Spracherkennung im Allgemeinen nicht optimal durchgeführt werden kann. Es wird eine Erkennungsgüte bestimmt, die ein Maß dafür angibt, wie gut der Text erkannt wurde. Dazu wird die auf diesem Text basierende semantische Analyse in Kombination mit den erfassten Daten über den Kontext der Spracheingabe verwendet. Beispielsweise kann so festgestellt werden, ob der erkannte Text dem Kontext sinngemäß widerspricht. Ferner wird erfindungsgemäß anhand der Daten über den Kontext und der semantischen Analyse ein Sprachmodell bestimmt, das dem ermitteltem Kontext angepasst ist. Beispielsweise kann damit ein Sprachmodell gewählt werden, das der jeweiligen Situation angepasst ist. Zum Beispiel kann anhand der ersten semantischen Analyse erkannt werden, dass der Nutzer im Begriff ist, eine Einkaufsliste einzugeben. Zur Erkennung des nun folgenden Textes kann danach ein Sprachmodell geladen werden, das etwa ein an Lebensmittel angepasstes Vokabular umfasst. Ferner kann beispielsweise bei der Bedienung eines Navigationssystems ein Sprachmodell gewählt werden, bei dem Orts- und Straßennamen bekannt sind. Ferner kann beispielsweise die Fahrsituation zur Bestimmung eines geeigneten Sprachmodells verwendet werden. Wird beispielsweise registriert, dass sich das Fahrzeug in einem Stau befindet, so kann ein Sprachmodell gewählt werden, um Mitteilungen zu erkennen, bei denen eine bevorstehende Verspätung mitgeteilt wird.According to this embodiment, the first speech recognition, by which a recognized text is generated, and a first semantic analysis of this recognized text, are followed by a further step, in which the recognition quality of the recognized text is checked. In particular, the first text recognition takes place on the basis of a general language model, which may include, for example, a basic vocabulary and basic sentence structures. It is therefore expected that the first speech recognition generally can not be performed optimally. A recognition quality is determined, which is a measure of how well the text was recognized. For this purpose, the semantic analysis based on this text is used in combination with the acquired data about the context of the speech input. For example, it can be determined whether the recognized text contradicts the context mutatis mutandis. Furthermore, according to the invention, based on the data on the context and the semantic analysis, a language model is determined which is adapted to the determined context. For example, a language model can be selected that is adapted to the respective situation. For example, it can be recognized from the first semantic analysis that the user is about to enter a shopping list. In order to recognize the text that follows, a language model can then be loaded that includes, for example, a food-adapted vocabulary. Furthermore, for example, in the operation of a navigation system, a language model can be selected in which place and street names are known. Furthermore, for example, the driving situation can be used to determine a suitable language model. For example, if it is registered that the vehicle is in a traffic jam, a voice model may be selected to detect messages announcing an imminent delay.
Anhand des so bestimmten weiteren Sprachmodells wird erneut eine Spracherkennung der Spracheingabe und anschließend eine neue semantische Analyse durchgeführt. In einem iterativen Prozess wird wiederum die Erkennungsgüte bestimmt und ein neues Sprachmodell gewählt, bis ein Text erzeugt wird, der die vorbestimmten Anforderungen an die Erkennungsgüte erfüllt.On the basis of the thus determined further language model, speech recognition of the speech input is again carried out, followed by a new semantic analysis. In an iterative process, in turn, the recognition quality is determined and a new language model is chosen until a text is generated that meets the predetermined recognition quality requirements.
Bei einer Weiterentwicklung wird anhand der semantischen Analyse zumindest eine Nutzerintentionsklasse bestimmt. Die Daten zu dem Kontext der Spracheingabe werden in Abhängigkeit von der Nutzerintentionsklasse erfasst und es wird zumindest eine weitere semantische Analyse in Abhängigkeit von den Daten zu dem Kontext der Spracheingabe erzeugt. Dadurch wird vorteilhafterweise eine verbesserte semantische Analyse erreicht.In a further development, at least one user intervention class is determined on the basis of the semantic analysis. The data on the context of the speech input is detected depending on the user's intention class, and at least one more semantic analysis is generated depending on the data on the context of the speech input. This advantageously achieves an improved semantic analysis.
Insbesondere kann dies iterativ erfolgen, indem die semantische Analyse schrittweise immer weiter durch Einbeziehung des Kontextes spezifiziert und verbessert wird. In particular, this can be done iteratively by gradually specifying and improving the semantic analysis step-by-step by incorporating the context.
Bei der Bestimmung der Nutzerintentionsklasse wird die Eingabeabsicht des Nutzers grob abgeschätzt. Es können nun solche Daten über den Kontext der Spracheingabe erfasst werden, die für Eingaben der ermittelten Nutzerintentionsklasse relevant sind. Beispielsweise kann bei einer Eingabe, die eine Navigationseinrichtung betrifft, erfasst werden, welche Termine in einer Kalendereinrichtung verzeichnet sind, welche Energiereserven des Fahrzeugs verfügbar sind und welche Informationen über die Verkehrssituation in der Umgebung des Fahrzeugs vorliegen. Anhand dieser erfassten, spezifischen Kontextinformationen kann eine weitere semantische Analyse erzeugt werden.In determining the user Intent class, the input intent of the user is roughly estimated. It is now possible to record such data about the context of the speech input that are relevant for inputs of the determined user's intention class. For example, in the case of an input relating to a navigation device, it can be detected which appointments are recorded in a calendar device, which energy reserves of the vehicle are available and what information about the traffic situation in the surroundings of the vehicle is available. On the basis of this collected, specific context information, a further semantic analysis can be generated.
Insbesondere können dabei auch Kontextinformationen erfasst werden, die etwa aus vergangenen Interaktionen des Nutzers mit dem Spracherkennungssystem gespeichert sind. Beispielsweise kann bei mehreren Spracheingaben gespeichert werden, welche Informationen der Nutzer eingegeben oder abgerufen hat. Dies ermöglicht die Auflösung von Rückbezügen, insbesondere deiktischer Ausdrücke. Auf diese Weise kann beispielsweise der Ausdruck „dort“ interpretiert werden, indem aus vergangenen Interaktionsschritten hergeleitet wird, welcher Ort gemeint ist. Beispielsweise kann dies aus vergangenen Anfragen im Navigationssystem ermittelt werden. Ferner kann etwa das Nutzerverhalten in verschiedenen Kontexten gelernt werden. Beispielsweise kann, wenn im Kalender ein kurz bevorstehender Termin erfasst wird, bei der Wahl einer anzufahrenden Tankstelle eine geringe Entfernung höher gewichtet werden als ein geringer Preis. Ferner können beispielsweise in Abhängigkeit von der Wetterlage bestimmte Restaurants höher bewertet werden als andere.In particular, context information can also be recorded that is stored, for example, from past interactions of the user with the speech recognition system. For example, with multiple voice inputs, the information that the user has entered or retrieved may be stored. This allows the resolution of back references, especially deictic expressions. In this way, for example, the term "there" can be interpreted by deducing from past interaction steps which location is meant. For example, this can be determined from past requests in the navigation system. Furthermore, user behavior can be learned in different contexts. For example, when an imminent deadline is recorded in the calendar, a small distance may be weighted higher than a lower price when choosing a gas station to approach. Further, for example, depending on the weather conditions, certain restaurants may be rated higher than others.
Ferner können Mehrdeutigkeiten aufgelöst werden, beispielsweise beim Aufruf eines Telefonbucheintrags, wenn mehrere Personen gleichen Namens gespeichert sind. Die Mehrdeutigkeit kann in diesem Fall zum Beispiel anhand der geographischen Position, etwa am Arbeitsplatz oder am Wohnort, aufgelöst werden.Furthermore, ambiguities can be resolved, for example when calling a Phone book entry, if several persons with the same name are stored. The ambiguity can be resolved in this case, for example, based on the geographical position, such as at work or at the place of residence.
Bei diesem Verfahren wird eine möglichst vollständige semantische Analyse der Spracheingabe vorgenommen, sodass bei späteren Auswertungsschritten, beispielsweise durch eine Dialogfunktion, alle wesentlichen semantischen Informationen bereits erfasst werden und der folgende Analyseaufwand reduziert wird.In this method, as complete a semantic analysis of the speech input is made, so that in subsequent evaluation steps, for example by a dialog function, all essential semantic information is already recorded and the following analysis effort is reduced.
Bei einer Weiterbildung werden semantische Analysen von Spracheingaben gespeichert. Dies erlaubt vorteilhafterweise die Einbeziehung vergangener Sprachinteraktionen in die zukünftigen semantischen Analysen und die Spracherkennung. Es wird also insbesondere eine Lernfunktion ermöglicht.In a further development, semantic analyzes of speech input are stored. This advantageously allows the inclusion of past speech interactions in future semantic analysis and speech recognition. In particular, a learning function is made possible.
Bei einer weiteren Ausgestaltung umfassen die Daten zu dem Kontext der Spracheingabe ferner semantische Analysen früherer Spracheingaben. Dadurch werden vorteilhafterweise frühere Spracheingaben in die semantische Analyse einbezogen. Beispielsweise kann bei kurz aufeinanderfolgenden Spracheingaben der Kontext des gesprochenen Textes erkannt werden. Dies erleichtert ferner die oben genannte Auflösung deiktischer Ausdrücke und Rückbezüge.In a further embodiment, the data on the context of the speech input further comprises semantic analyzes of previous speech inputs. This advantageously includes earlier speech inputs in the semantic analysis. For example, in short successive speech inputs, the context of the spoken text can be recognized. This further facilitates the above resolution of deictic expressions and back references.
Bei einer Weiterbildung des erfindungsgemäßen Verfahrens wird anhand der semantischen Analyse eine Suchfunktion ausgeführt. Der Benutzer kann so vorteilhafterweise durch eine Spracheingabe Informationen suchen.In a further development of the method according to the invention, a search function is carried out on the basis of the semantic analysis. The user can thus advantageously search for information by voice input.
Bei einer Ausbildung werden anhand der semantischen Analyse und der Daten zu dem Kontext der Spracheingabe Suchkriterien bestimmt. Anhand der bestimmten Suchkriterien wird eine Teilmenge von Daten einer Datenbasis bestimmt und die Daten der Teilmenge werden ausgegeben. Damit wird vorteilhafterweise eine Suchfunktion implementiert.In an education, search criteria are determined based on the semantic analysis and data on the context of the speech input. On the basis of the specific search criteria, a subset of data of a database is determined and the data of the subset is output. This advantageously implements a search function.
Es wird eine vorgegebene Datenbasis durchsucht, die beispielsweise durch Einrichtungen im Fahrzeug, durch Nutzereinrichtungen oder durch über ein Rechnernetzwerk verbundene Einrichtungen bereitgestellt wird. Durch die Suche soll eine Teilmenge von Daten aus dieser Datenbasis bestimmt werden, die zur Beantwortung der Spracheingabe relevant sind. Die Spracheingabe ist in diesem Fall eine Suchanfrage. Um die Teilmenge der Daten aus der Datenbasis auszuwählen, werden Suchkriterien bestimmt. Beispielsweise können Schlagworte bestimmt werden, durch die eine Auswahl von Daten aus der Datenbasis erfolgt. Die Bestimmung der Suchkriterien erfolgt insbesondere in Abhängigkeit von den Daten zum Kontext. Dadurch kann beispielsweise eine Suchanfrage präzisiert werden.It searches a given database provided by, for example, in-vehicle facilities, user facilities, or facilities connected through a computer network. The search is intended to determine a subset of data from this database which are relevant for answering the speech input. The speech input is a search query in this case. To select the subset of data from the database, search criteria are determined. For example, keywords can be determined by which a selection of data from the database is made. The determination of the search criteria takes place in particular depending on the data on the context. As a result, for example, a search query can be specified.
Insbesondere wird so eine unvollständige, unterspezifizierte Suchanfrage des Nutzers vervollständigt. Das System kann etwa Informationen hinzufügen, die der Nutzer bei der Eingabe impliziert. Beispielsweise kann erkannt werden, dass bei der Suche nach einer Tankstelle nur solche Orte gemeint sein können, die das Fahrzeug mit den gegenwärtigen Energiereserven erreichen kann.In particular, such an incomplete, underspecified user's search query is completed. For example, the system may add information that the user implies as they type. For example, it can be recognized that in the search for a gas station only those places can be meant that can reach the vehicle with the current energy reserves.
Bei einer Weiterentwicklung werden zu den Daten der Teilmenge Prioritäten erzeugt und die Ausgabe der Daten der Teilmenge erfolgt anhand der ihnen zugeordneten Prioritäten. Dadurch kann vorteilhafterweise bestimmt und für den Nutzer ausgegeben werden, welches etwa die relevantesten Daten zu der Suchanfrage sind. Insbesondere werden umso höhere Prioritäten zugeordnet, je relevanter die Daten sind.In a further development, priorities are generated for the data of the subset and the output of the data of the subset is based on their assigned priorities. As a result, it can be advantageously determined and output for the user, which is about the most relevant data for the search query. In particular, the more relevant the data, the higher priorities are assigned.
Bei einer Ausbildung werden die Suchkriterien ferner anhand früherer Aufrufe der Suchfunktion bestimmt. Damit wird vorteilhafterweise eine Lernfunktion der Suche implementiert.In an education, the search criteria are further determined by previous calls of the search function. This advantageously implements a learning function of the search.
Das Lernen kann beispielsweise mittels neuronaler Netze oder Bayes’scher Netze erfolgen. Dadurch können etwa Korrelationen zwischen bestimmten Informationen über den Kontext und dem Verhalten des Nutzers extrahiert werden. Das System kann somit beispielsweise erkennen, ob der Nutzer unter bestimmten Wetterbedingungen einen Straßentyp meidet oder etwa Lokale mit bestimmten Eigenschaften anfährt. Dies kann genutzt werden, um bei der Zuweisung von Prioritäten zu den Daten der Datenbasis für den Nutzer relevante Ergebnisse höher zu priorisieren als weniger relevante Daten.The learning can be done for example by means of neural networks or Bayesian networks. This can be used to extract correlations between certain information about the context and behavior of the user. The system can thus detect, for example, whether the user avoids a road type under specific weather conditions or approaches restaurants with certain characteristics. This can be used to prioritize results that are more relevant to the user when assigning priorities to the database data than less relevant data.
Beim Lernen anhand früherer Interaktionen des Nutzers mit der Suchfunktion werden verschiedene Strategien einzeln oder in Kombination angewandt. Die Lernfunktion kann etwa anhand positiver, neutraler oder negativer Rückmeldungen die Suchfunktion für die Zukunft anpassen. When learning from previous interactions of the user with the search function, different strategies are applied individually or in combination. The learning function can adjust the search function for the future based on positive, neutral or negative feedback.
Beispielsweise kann als positive Rückmeldung gewertet werden, wenn bei einem Navigationssystem der Nutzer eine vorgeschlagene Adresse auswählt und zum Beispiel die Navigation zu diesem Ort startet. Als weitere positive Eingabe kann gewertet werden, wenn der Nutzer z. B. den vorgeschlagenen Ort tatsächlich anfährt. Geht der Nutzer nicht auf die Ergebnisse der erweiterten Suche ein, formuliert er etwa die Suchanfrage erneut mit spezifischeren Suchbegriffen oder startet er keine Navigation zu dem vorgeschlagenen Ort, so lässt dies auf den Misserfolg der durchgeführten Suche schließen. Ferner kann eine negative Rückmeldung erfasst werden, wenn der Nutzer ein Suchergebnis verwirft, etwa durch die Eingabe einer Ablehnung. Durch das Lernen aus dem vergangenen Nutzerverhalten kann die Erweiterung der Suche durch den Kontext verbessert werden.For example, can be considered as positive feedback, if in a navigation system, the user selects a suggested address and, for example, the navigation to this location starts. As a further positive input can be considered if the user z. B. actually approaches the proposed location. If the user does not respond to the results of the extended search, he formulates the search query again with more specific keywords or if he does not start navigation to the proposed location, this indicates the failure of the search performed. Furthermore, a negative feedback can be recorded when the user discards a search result, such as by entering a rejection. By learning from the past user behavior, the extension of the search by the context can be improved.
Bei einer weiteren Ausbildung werden zumindest zwei Spracheingaben des Nutzers erfasst. Für beide Spracheingaben werden jeweils erkannte Texte erzeugt, die aus geordneten Textfragmenten bestehen, wobei der zu der ersten Spracheingabe erkannte Text der Originaltext ist und der zu der zweiten Spracheingabe erkannte Text der Korrigiertext ist. anhand des Originaltextes und des Korrigiertextes wird ein korrigierter Text erzeugt. Dadurch kann vorteilhafterweise eine Eingabe verbessert werden.In a further embodiment, at least two voice inputs of the user are recorded. For both speech inputs, respectively recognized texts are generated which consist of ordered text fragments, whereby the text recognized for the first speech input is the original text and the text recognized for the second speech input is the correction text. a corrected text is generated based on the original text and the correction text. As a result, an input can advantageously be improved.
Dies betrifft die Korrektur einer falschen Spracheingabe, die zwar richtig durch das System erkannt wurden, bei denen der Nutzer aber eine fehlerhafte Eingabe vorgenommen hat. Die Grundlage für die Korrektur des eingegebenen Textes sind die durch die Spracherkennung erzeugten maschinenlesbaren Texte der beiden Spracheingaben. Durch einen Abgleich von Originaltext und Korrigiertext wird ermittelt, welcher Teil des Originaltextes verbessert werden soll. Mittels des Korrigiertextes wird der Originaltext so verändert, dass ein korrigierter Text erzeugt wird.This concerns the correction of a wrong speech input, which was correctly recognized by the system, but where the user made an incorrect input. The basis for the correction of the entered text are the machine-readable texts of the two speech inputs generated by the speech recognition. A comparison of the original text and the correction text determines which part of the original text should be improved. By means of the correction text, the original text is changed so that a corrected text is generated.
Bei einer Weiterbildung umfasst der Korrigiertext zumindest ein Textfragment, welches den Anfang und/oder das Ende des Korrigiertextes signalisiert. Dies ermöglicht vorteilhafterweise eine Erkennung des Korrigiertextes als solchen. Beispielsweise kann der Nutzer bei der Spracheingabe durch einen definierten Ausdruck den Beginn des Korrigiertextes kennzeichnen. Er kann beispielsweise sagen, dass nun ein Korrigiertext folgt. Er kann beispielsweise auch eine Taste oder ein Bedienelement betätigen. Ferner kann analog das Ende des Korrigiertextes gekennzeichnet werden.In a further development, the correction text comprises at least one text fragment which signals the beginning and / or the end of the correction text. This advantageously makes it possible to recognize the correction text as such. For example, the user can mark the beginning of the correction text by a defined expression when the voice is input. For example, he can say that a correction text now follows. For example, he can also operate a key or a control element. Furthermore, the end of the correction text can be marked analogously.
Bei einer Weiterbildung wird anhand eines Vergleichs des Originaltextes mit dem Korrigiertext die Position zumindest eines Textfragmentes im Originaltext bestimmt, das sowohl von dem Originaltext als auch von dem Korrigiertext umfasst ist. Der korrigierte Text wird anhand der bestimmten Position erzeugt. So kann vorteilhafterweise bestimmt werden, welcher Teil des Originaltextes korrigiert werden soll. In a further development, the position of at least one text fragment in the original text, which is encompassed by both the original text and the correction text, is determined on the basis of a comparison of the original text with the correction text. The corrected text is generated based on the specific position. Thus it can advantageously be determined which part of the original text should be corrected.
Dies geschieht dadurch, dass einzelne Textfragmente, also beispielsweise einzelne Begriffe, sowohl im Originaltext als auch im Korrigiertext vorkommen. Der Nutzer wiederholt also einen Teil der ursprünglichen Eingabe, um die Position der Korrektur zu kennzeichnen. Beispielsweise kann so der Beginn oder das Ende des zu korrigierenden Textes markiert werden. Ferner kann sowohl der Anfang als auch das Ende definiert werden.This happens because individual text fragments, for example individual terms, occur both in the original text and in the correction text. Thus, the user repeats part of the original input to identify the position of the correction. For example, the beginning or the end of the text to be corrected can be marked in this way. Furthermore, both the beginning and the end can be defined.
Bei einer Ausbildung wird ferner zumindest ein Alt-Textfragment des Originaltextes bestimmt und zumindest Neu-Textfragment des Korrigiertextes bestimmt, wobei beim Erzeugen des korrigierten Textes das Alt-Textfragment durch das Neu-Textfragment ausgetauscht wird. Dadurch kann vorteilhafterweise eine definierte Korrektur des Originaltextes erfolgen.In one embodiment, at least one legacy text fragment of the original text is further determined and at least the new text fragment of the correction text is determined, wherein the legacy text fragment is replaced by the new text fragment when the corrected text is generated. This can advantageously be done a defined correction of the original text.
Die Korrektur erfolgt, indem wenigstens ein Textfragment des Originaltextes durch wenigstens ein Textfragment des Korrigiertextes ausgetauscht wird. Der Nutzer verbessert also die ursprüngliche Eingabe, indem er den zu korrigierenden Text spricht und der Originaltext an einer definierten Stelle überschrieben wird. The correction is made by replacing at least one text fragment of the original text with at least one text fragment of the correction text. The user thus improves the original input by speaking the text to be corrected and overwriting the original text at a defined location.
Bei einer weiteren Ausbildung umfasst das zumindest eine Textfragment, das sowohl von dem Originaltext als auch von dem Korrigiertext umfasst ist, das erste und/oder das letzte Textfragment des Korrigiertextes. Dadurch kann vorteilhafterweise das auszutauschende Textfragment besonders leicht angegeben werden.In a further embodiment, the at least one text fragment, which is encompassed by both the original text and the correction text, comprises the first and / or the last text fragment of the correction text. As a result, advantageously the text fragment to be exchanged can be specified particularly easily.
Der Nutzer kann also eine Korrektur vornehmen, indem er einen Teil des Originaltextes wiederholt, der beibehalten werden soll. In diesem Fall kann der Teil des Korrigiertextes, der auf das gemeinsame Textfragment folgt, zum Überschreiben eines Teiles des Originaltextes verwendet werden. Umgekehrt kann der Nutzer am Ende des Korrigiertextes einen Teil des Originaltextes wiederholen, um das Ende des zu korrigierenden Teils zu markieren.The user can thus make a correction by repeating a part of the original text that is to be retained. In this case, the part of the correction text that follows the common text fragment may be used to override a part of the original text. Conversely, at the end of the correction text, the user may repeat part of the original text to mark the end of the part to be corrected.
Bei einer Weiterbildung sind ein erstes und ein zweites Textfragment sowohl von dem Originaltext als auch von dem Korrigiertext umfasst. Dabei ist das erste Textfragment sowohl im Originaltext als auch im Korrigiertext vor dem zweiten Textfragment angeordnet. Anhand des ersten und des zweiten Textfragmentes werden das Alt-Textfragment und das Neu-Textfragment bestimmt. Der auszutauschende Text wird dadurch vorteilhafterweise präzise bestimmt.In a further development, a first and a second text fragment are encompassed by both the original text and the correction text. The first text fragment is arranged in the original text as well as in the correction text in front of the second text fragment. Based on the first and the second text fragment, the legacy text fragment and the new text fragment are determined. The text to be exchanged is thereby advantageously determined precisely.
Auf diese Weise werden etwa Rahmenwörter angegeben, die den auszutauschenden Teil des Originaltextes umrahmen. Möchte der Nutzer einen bestimmten Teil des Originaltextes durch den Korrigiertext austauschen, so wiederholt er zunächst einen Teil des direkt vor dem auszutauschenden Alt-Textfragment liegenden Textes, gibt dann das hier zu verwendende Neu-Textfragment ein und beendet die Eingabe mit einem weiteren Textfragment, das im originalen Wortlaut belassen werden soll. Es kann also ein Rahmen durch vor und nach dem Alt-Textfragment liegende Wörter definiert werden, um eine bestimmte Ersetzung durchzuführen.In this way, for example, frame words are specified, which frame the part of the original text to be exchanged. If the user wishes to exchange a certain part of the original text with the correction text, he first repeats a part of the text lying directly in front of the old text fragment to be exchanged, then enters the new text fragment to be used here and ends the input with another text fragment that should be left in the original wording. So it can be a frame through before and after the old Text fragment words are defined to perform a particular replacement.
Das erfindungsgemäße Spracherkennungssystem in einem Fahrzeug umfasst eine Erfassungseinheit, durch die zumindest eine Spracheingabe eines Nutzers erfassbar ist, und eine Kontexterfassungseinheit, durch die Daten zu dem Kontext der Spracheingabe erfassbar sind. Es umfasst ferner eine Spracherkennungseinheit, durch die ein erkannter Text der Spracheingabe erzeugbar ist, sowie einen Semantikerkenner, durch den eine semantische Analyse des erkannten Textes erzeugbar ist. Es umfasst ferner eine Ausführungseinheit, an die die semantische Analyse übertragbar ist und durch die anhand der semantischen Analyse eine Funktion ausführbar ist. The speech recognition system according to the invention in a vehicle comprises a detection unit, by means of which at least one speech input by a user can be detected, and a context detection unit, by means of which data relating to the context of the speech input can be detected. It also comprises a speech recognition unit, by means of which a recognized text of the speech input can be generated, as well as a semantic recognizer, by means of which a semantic analysis of the recognized text can be generated. It also comprises an execution unit to which the semantic analysis can be transferred and by means of which a function can be executed on the basis of the semantic analysis.
Das erfindungsgemäße Spracherkennungssystem ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Es weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.The speech recognition system according to the invention is in particular designed to implement the method according to the invention described above. It thus has the same advantages as the method according to the invention.
Das erfindungsgemäße Spracherkennungssystem ist in einem Fahrzeug angeordnet. Dadurch kann das Spracherkennungssystem vorteilhafterweise zur Steuerung von Einrichtungen des Fahrzeugs genutzt werden und es stehen Kontextinformationen des Fahrzeugs zur Verfügung. The speech recognition system according to the invention is arranged in a vehicle. As a result, the voice recognition system can advantageously be used to control facilities of the vehicle and context information of the vehicle is available.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.The invention will now be explained by means of embodiments with reference to the drawings.
Mit Bezug zu
Das Spracherkennungssystem
Der Nutzer kann den Beginn einer Spracheingabe signalisieren, indem er etwa eine Push-To-Talk-Taste (PTT) betätigt. Alternativ oder zusätzlich kann vorgesehen sein, dass das System den Nutzer zu einer Spracheingabe auffordert und der im Anschluss an die Aufforderung gesprochene Text als Spracheingabe behandelt wird.The user can signal the beginning of a voice input, for example by pressing a push-to-talk button (PTT). Alternatively or additionally, it can be provided that the system prompts the user for a voice input and the text spoken after the request is treated as a voice input.
Mit Bezug zu
Wie bereits in
Bei dem Verfahren gemäß der Erfindung wird zunächst eine Spracheingabe des Nutzers erfasst. Im gezeigten Ausführungsbeispiel signalisiert der Nutzer den Beginn der Spracheingabe durch Drücken eines PTT und die Erfassungseinheit
Ferner werden durch die Kontexterfassungseinheit
Die Daten zum Kontext über die Umgebung des Nutzers und des Fahrzeugs
Die Kontextverarbeitungseinheit
Bei dem in
Bei diesem Verfahren wird iterativ immer wieder ein neues, spezifischeres Sprachmodell ausgewählt, bis die resultierende Spracherkennung entweder den vorbestimmten Anforderungen an die Erkennungsgüte genügt oder eine Abbruchbedingung erfüllt ist. Auf diese Weise wird die Spracherkennung schrittweise verbessert. Gleichzeitig erlaubt die Auswahl immer spezifischerer Sprachmodelle z. B. eine Einschränkung des für die Spracherkennung zur Verfügung stehenden Wortschatzes. Dadurch wird der Rechenaufwand verringert und gleichzeitig die Erkennungsgüte verbessert.In this method, a new, more specific language model is iteratively selected over and over again until the resulting speech recognition either satisfies the predetermined requirements for the recognition quality or an abort condition is met. In this way, the speech recognition is gradually improved. At the same time allows the selection of more specific language models z. B. a limitation of the vocabulary available for speech recognition. This reduces the computational effort while improving the recognition quality.
Beispielsweise kann der Nutzer dem System eine Einkaufsliste diktieren. Mithilfe des allgemeinen Sprachmodells kann aus Signalwörtern, etwa „Einkaufen“ oder „Einkaufsliste“ abgeleitet werden, dass der Nutzer die Intention hat, eine Einkaufsliste zu diktieren. Anhand dieser Kontextinformation kann ein entsprechendes Sprachmodell von der Spracherkennungseinheit
Ein Beispiel, bei dem der Kontext der gegenwärtigen Fahrsituation sich auf die Spracherkennung auswirkt, ist eine Stausituation. Erkennt das System, dass sich das Fahrzeug
Die Kontextinformationen tragen also dazu bei, die hohe Komplexität aller möglichen Fahr- und Sprechsituationen auf die konkrete Situation einzuschränken. Insbesondere können der Wortschatz und die zur Verfügung stehenden Satzstrukturen für die Spracherkennung reduziert werden.The context information thus contributes to limiting the high complexity of all possible driving and speech situations to the specific situation. In particular, the vocabulary and the available sentence structures for speech recognition can be reduced.
Mit Bezug zu
Das hier dargestellte Spracherkennungssystem
Anhand einer ersten semantischen Analyse wird ein grundlegendes Verständnis der Nutzerintention etabliert. Typischerweise wird dabei zumindest eine Klasse und Art der Nutzerintention erkannt. Beispielsweise wird erkannt, dass der Nutzer nach einer Tankstelle suchen will. Gleichzeitig werden alle für die so ermittelte Intentionsklasse relevanten Kontextinformationen über den Fahrer, das Fahrzeug und die Umwelt berücksichtigt. Beispielsweise können Informationen über den aktuellen Fahrerzustand (beispielsweise Müdigkeit), Informationen über anstehende Termine, das übliche Verhalten des Nutzers in gleichen oder ähnlichen Situationen und Informationen über die aktuelle Wetterlage einbezogen werden. Diese Kontextdaten werden genutzt, um neue semantische Informationen aus dem Gesprochenen abzuleiten und die bisherigen Ergebnisse aufzuwerten und zu ergänzen.Based on a first semantic analysis, a basic understanding of the user's intention is established. Typically, at least one class and type of user intention are recognized. For example, it is recognized that the user wants to search for a gas station. At the same time, all relevant contextual information about the driver, the vehicle and the environment is taken into account for the intention class thus determined. For example, information about the current driver status (eg, fatigue), information about upcoming appointments, the user's usual behavior in the same or similar situations, and information about the current weather conditions may be included. These contextual data are used to derive new semantic information from the spoken word and to enhance and supplement the previous results.
Über die oben genannten Kontextinformationen hinaus werden auch die vergangenen Interaktionsschritte des Nutzers gespeichert. Dadurch ist es möglich, Referenzen des Nutzers zu Objekten, die Teil der Interaktionshistorie sind, aufzulösen. Darunter fallen insbesondere deiktische Ausdrücke, beispielsweise „dort“ oder „diese“. Beispielsweise kann nach den Preisen „dieser Tankstelle“ gefragt werden, die in einem vorhergehenden Interaktionsschritt als Ergebnis einer Tankstellensuche geliefert wurde. Es können ferner für das Verständnis einer Spracheingabe relevante Informationen ergänzt werden, beispielsweise der vom Fahrzeug benötigte Kraftstofftyp.In addition to the context information mentioned above, the past interaction steps of the user are also stored. This makes it possible to resolve user references to objects that are part of the interaction history. This includes in particular deictic expressions, for example "there" or "this". For example, it is possible to ask for the prices of "this gas station" which was delivered in a previous interaction step as a result of a gas station search. It may also be supplemented for understanding a voice input relevant information, such as the type of fuel required by the vehicle.
Ferner kann eine Disambiguierung vorgenommen werden, beispielsweise wenn ein Name im Adressbuch nicht eindeutig ist. Will der Nutzer eine Person dieses Namens anrufen, so kann bei der semantischen Analyse anhand des Kontextes festgestellt werden, welche der mehreren Personen dieses Namens mit höherer Wahrscheinlichkeit gemeint ist. Beispielsweise können Arbeitskollegen bevorzugt ausgegeben werden, wenn sich der Nutzer am Arbeitsplatz befindet. Umgekehrt können im privaten Bereich private Kontakte bevorzugt werden.Furthermore, a Disambiguierung be made, for example, if a name in the address book is not unique. If the user wants to call a person of this name, semantic analysis based on the context can determine which of the several persons of this name is meant to be more likely. For example, coworkers can be preferred spent when the user is at the workplace. Conversely, private contacts can be preferred in the private sector.
Zu den Kontextinformationen kann auch das übliche Nutzerverhalten in gleichen oder ähnlichen Situationen gehören. Beispielsweise kann der Nutzer in Situationen, in denen ein Termin kurz bevorsteht, die räumliche Nähe von Tankstellen als relevanter bewerten als einen niedrigen Preis. Umgekehrt kann die Kostenersparnis höhere Priorität haben, wenn kein dringender Termin ansteht. Ferner können zum Beispiel bei gutem Wetter solche Restaurants bevorzugt ausgegeben werden, bei denen ein Sitzen im Freien möglich ist. Die Eigenschaften von POIs können also in Abhängigkeit vom Kontext der Spracheingabe gewichtet werden und zur semantischen Analyse der Spracheingabe beitragen. Dies führt insbesondere dazu, dass das Ergebnis der semantischen Analyse ein weitergehendes Verständnis der Nutzerintention umfasst, als dies von anderen Semantikerkennern bekannt ist. Dadurch wird der Analyseaufwand für weitere Einrichtungen, an die beispielsweise eine Anfrage des Nutzers weitergeleitet wird, verringert.The context information may also include the usual user behavior in the same or similar situations. For example, in situations where an appointment is imminent, the user may rate the proximity of gas stations as more relevant than a low price. Conversely, the cost savings can have higher priority, if no urgent date is pending. Further, for example, in good weather, those restaurants may be preferred in which outdoor seating is possible. The properties of POIs can thus be weighted depending on the context of the speech input and contribute to the semantic analysis of speech input. This leads in particular to the result of the semantic analysis comprising a further understanding of the user intention than is known from other semantic experts. As a result, the analysis effort for other facilities, to which, for example, a request of the user is forwarded, is reduced.
Die oben beschriebenen Verfahren zur Optimierung der Spracherkennung und der semantischen Analyse können einzeln oder in Kombination implementiert sein. The methods described above for optimizing speech recognition and semantic analysis may be implemented individually or in combination.
Mit Bezug zu
Das Spracherkennungssystem
Das Spracherkennungssystem
Mit Bezug zu
Bei diesem Ausführungsbeispiel wird vorausgesetzt, dass die Spracherkennung und die semantische Analyse wie oben dargestellt durchgeführt werden. Insbesondere wird von dem in
Insbesondere ist im dargestellten Fall das Ergebnis der semantischen Analyse eine Suchanfrage
Die Datenbasis
Bei der Bestimmung der Suchkriterien
Die Hauptaufgabe bei der Bestimmung der Suchkriterien
Bei einem ersten Beispiel lautet die Eingabe des Nutzers „Suche Tankstelle“. Zu den ferner erfassten Kontextdaten
Bei einem weiteren Beispiel lautet die Spracheingabe des Nutzers „Suche Restaurant“. Aus den Kontextdaten ist bekannt, dass der Kalender keinen dringenden Termin enthält und das Wetter gut ist. In Kombination dieser Suchanfrage
Mit Bezug zu
Wie bereits in
Die Entscheidung, ob die erweiterte Suchanfrage
Mit Bezug zu den
In einem ersten Schritt werden zwei Spracheingaben des Nutzers erfasst und es wird eine Texterkennung für beide Spracheingaben durchgeführt. Der für die erste Spracheingabe erkannte Text ist der Originaltext
Bei dem in
Als Textfragmente können einzelne Wörter definiert sein, allerdings können auch Kombinationen mehrerer aufeinanderfolgender Wörter als ein Textfragment betrachtet werden. Insbesondere ist es bei diesem Verfahren möglich, dass mehrere aufeinanderfolgende Wörter ein Rahmenvorwort bilden und mehrere aufeinanderfolgende Wörter ein Rahmennachwort. Ebenso kann der Korrekturteil aus mehreren aufeinanderfolgenden Wörtern bestehen, die vom Rahmenvorwort und Rahmennachwort definiert sind. Beispielsweise kann auf diese Art ein einzelnes Wort im Originaltext
Der korrigierte Text
Ist lediglich das Rahmenvorwort vorhanden, so können entweder die darauffolgenden Textfragmente im Korrigiertext
Bei dem in
Zur Bestimmung des zu korrigierenden Textes können alternativ oder zusätzlich weitere Verfahren angewandt werden. Beispielsweise kann durch ein Textdistanzverfahren (etwa die Levenshtein-Distanz) die Position im Originaltext gefunden werden, welche die geringste Distanz zum Korrigiertext aufweist. Ferner kann das System erkennen, ob ein Text mit hoher Erkennungsgüte oder Konfidenz erkannt wurde. Wurde ein Text nicht oder nur ungenügend erkannt, so kann dies dem Nutzer, etwa graphisch oder per Sprachausgabe, mitgeteilt werden. Eine neue Spracheingabe des Nutzers wird als Korrektur dieses Wortes oder Satzteils interpretiert und entsprechend der korrigierte Text erzeugt. Ferner kann die Suche nach ähnlichen Passagen im Originaltext erfolgen, indem Worte mit unverwechselbar vielen Silben, also ein ähnlich langes Wort, gefunden wird, indem Worte mit ähnlichen Silben und Phonemen, also ähnlich klingende Worte, ermittelt werden oder indem Textpassagen, deren Worte jeweils dieselbe Anzahl an Silben haben, ermittelt werden.To determine the text to be corrected, other methods can be used alternatively or additionally. For example, a text distance method (such as the Levenshtein distance) can be used to find the position in the original text that has the smallest distance to the corrected text. Furthermore, the system can detect whether a text with high recognition quality or confidence was detected. If a text was not or only insufficiently recognized, this can be communicated to the user, for example graphically or by voice output. A new speech input from the user is interpreted as a correction of that word or phrase, and the corrected text is generated accordingly. Furthermore, the search for similar passages in the original text can be done by finding words with a distinctive number of syllables, ie a similarly long word, by finding words with similar syllables and phonemes, ie similar-sounding words, or by text passages whose words are the same Number of syllables have to be determined.
Die oben beschriebenen Ausführungsbeispiele des erfindungsgemäßen Spracherkennungssystems und Verfahren können miteinander beliebig kombiniert werden. Beispielsweise kann lediglich die Spracherkennung oder lediglich die Semantikerkennung durch die Kontextdaten angereichert werden. Auch die Erweiterung unterspezifizierter Suchanfragen kann unabhängig davon erfolgen. Selbiges gilt für die Korrektur von Spracheingaben, die auch in Kombination oder isoliert durchgeführt werden kann. The above-described embodiments of the speech recognition system and method according to the invention can be combined with each other as desired. For example, only the speech recognition or only the semantic recognition can be enriched by the context data. The extension of underspecified searches can also be done independently. The same applies to the correction of voice inputs, which can also be performed in combination or in isolation.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Erfassungseinheit acquisition unit
- 1a1a
- Mikrofon microphone
- 22
- Spracherkennungseinheit Voice recognition unit
- 33
- Semantikerkenner Semantikerkenner
- 44
- Kontexterfassungseinheit Context sensing unit
- 4a4a
- Kontextverarbeitungseinheit Context processing unit
- 55
- Ausführungseinheit execution unit
- 66
- Fahrzeug vehicle
- 77
- Navigationssystem navigation system
- 88th
- Medienabspielgerät media player
- 99
- Fahrzeuginformationssystem (mit Sensoren) Vehicle information system (with sensors)
- 1010
- Spracherkennungssystem Voice recognition system
- 1111
- Internetserver Internet server
- 1212
- Mobiles Nutzergerät Mobile user device
- 1313
- Suchanfrage search query
- 1414
- Kontextdaten context data
- 1515
- Suchkriterien search criteria
- 15a15a
- Erweiterte Suchanfrage Extended search
- 1616
- Datenbasis database
- 1717
- Geordnete Teilmenge Ordered subset
- 1818
- Gelerntes Wissen Learned knowledge
- 18a18a
- Lerneinheit lesson
- 1919
- Verwerfen discard
- 2020
- Originaltext original
- 20a–20j20a-20j
- Textfragmente (Originaltext) Text fragments (original text)
- 2121
- Korrigiertext Korrigiertext
- 21a–21d21a-21d
- Textfragmente (Korrigiertext) Text fragments (correction text)
- 2222
- Korrigierter Text Corrected text
- 22a–22j22a-22j
- Textfragmente (korrigierter Text) Text fragments (corrected text)
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 10329546 A1 [0004] DE 10329546 A1 [0004]
- EP 2273491 A1 [0005] EP 2273491 A1 [0005]
- US 2007/0073540 A1 [0006] US 2007/0073540 A1 [0006]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015213722.8A DE102015213722B4 (en) | 2015-07-21 | 2015-07-21 | Method for operating a voice recognition system in a vehicle and voice recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015213722.8A DE102015213722B4 (en) | 2015-07-21 | 2015-07-21 | Method for operating a voice recognition system in a vehicle and voice recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102015213722A1 true DE102015213722A1 (en) | 2017-01-26 |
DE102015213722B4 DE102015213722B4 (en) | 2020-01-23 |
Family
ID=57739002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015213722.8A Active DE102015213722B4 (en) | 2015-07-21 | 2015-07-21 | Method for operating a voice recognition system in a vehicle and voice recognition system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015213722B4 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016218270A1 (en) * | 2016-09-22 | 2018-03-22 | Audi Ag | Method for operating a motor vehicle operating device with speech recognizer, operating device and motor vehicle |
DE102017213241A1 (en) * | 2017-08-01 | 2019-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, mobile user device, computer program for controlling an audio system of a vehicle |
DE102017213249A1 (en) * | 2017-08-01 | 2019-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for generating an auditory message in an interior of a vehicle |
DE102018200088B3 (en) | 2018-01-04 | 2019-06-13 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium with instructions for processing a voice input, motor vehicle and user terminal with a voice processing |
DE102018215293A1 (en) * | 2018-09-07 | 2020-03-12 | Bayerische Motoren Werke Aktiengesellschaft | Multimodal communication with a vehicle |
CN111583919A (en) * | 2020-04-15 | 2020-08-25 | 北京小米松果电子有限公司 | Information processing method, device and storage medium |
CN113168833A (en) * | 2018-12-13 | 2021-07-23 | 大众汽车股份公司 | Method for operating an interactive information system of a vehicle and vehicle |
WO2022263179A1 (en) * | 2021-06-15 | 2022-12-22 | Mercedes-Benz Group AG | Method and device for generating voice outputs in a vehicle |
DE102021120246A1 (en) | 2021-08-04 | 2023-02-09 | Bayerische Motoren Werke Aktiengesellschaft | voice recognition system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030216912A1 (en) * | 2002-04-24 | 2003-11-20 | Tetsuro Chino | Speech recognition method and speech recognition apparatus |
DE10329546A1 (en) | 2003-06-30 | 2005-01-20 | Daimlerchrysler Ag | Lexicon driver past language model mechanism e.g. for automatic language detection, involves recognizing pure phonetic inputs which are compared for respective application and or respective user relevant words against specific encyclopedias |
US20070073540A1 (en) | 2005-09-27 | 2007-03-29 | Hideki Hirakawa | Apparatus, method, and computer program product for speech recognition allowing for recognition of character string in speech input |
US20090150156A1 (en) * | 2007-12-11 | 2009-06-11 | Kennewick Michael R | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
DE102012019178A1 (en) * | 2011-09-30 | 2013-04-04 | Apple Inc. | Use of context information to facilitate the handling of commands in a virtual assistant |
-
2015
- 2015-07-21 DE DE102015213722.8A patent/DE102015213722B4/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030216912A1 (en) * | 2002-04-24 | 2003-11-20 | Tetsuro Chino | Speech recognition method and speech recognition apparatus |
DE10329546A1 (en) | 2003-06-30 | 2005-01-20 | Daimlerchrysler Ag | Lexicon driver past language model mechanism e.g. for automatic language detection, involves recognizing pure phonetic inputs which are compared for respective application and or respective user relevant words against specific encyclopedias |
US20070073540A1 (en) | 2005-09-27 | 2007-03-29 | Hideki Hirakawa | Apparatus, method, and computer program product for speech recognition allowing for recognition of character string in speech input |
US20090150156A1 (en) * | 2007-12-11 | 2009-06-11 | Kennewick Michael R | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
EP2273491A1 (en) | 2007-12-11 | 2011-01-12 | Voicebox Technologies, Inc. | Providing a natural language voice user interface in an integrated voice navigation services environment |
DE102012019178A1 (en) * | 2011-09-30 | 2013-04-04 | Apple Inc. | Use of context information to facilitate the handling of commands in a virtual assistant |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016218270A1 (en) * | 2016-09-22 | 2018-03-22 | Audi Ag | Method for operating a motor vehicle operating device with speech recognizer, operating device and motor vehicle |
DE102016218270B4 (en) | 2016-09-22 | 2018-04-26 | Audi Ag | Method for operating a motor vehicle operating device with speech recognizer, operating device and motor vehicle |
US11122367B2 (en) | 2017-08-01 | 2021-09-14 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, mobile user apparatus and computer program for controlling an audio system of a vehicle |
DE102017213249A1 (en) * | 2017-08-01 | 2019-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Method and system for generating an auditory message in an interior of a vehicle |
DE102017213241A1 (en) * | 2017-08-01 | 2019-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, device, mobile user device, computer program for controlling an audio system of a vehicle |
DE102018200088B3 (en) | 2018-01-04 | 2019-06-13 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium with instructions for processing a voice input, motor vehicle and user terminal with a voice processing |
WO2019134774A1 (en) | 2018-01-04 | 2019-07-11 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium having instructions for processing a speech input, motor vehicle, and user terminal with speech processing |
US11646031B2 (en) | 2018-01-04 | 2023-05-09 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium having instructions for processing a speech input, transportation vehicle, and user terminal with speech processing |
DE102018215293A1 (en) * | 2018-09-07 | 2020-03-12 | Bayerische Motoren Werke Aktiengesellschaft | Multimodal communication with a vehicle |
CN113168833A (en) * | 2018-12-13 | 2021-07-23 | 大众汽车股份公司 | Method for operating an interactive information system of a vehicle and vehicle |
CN111583919A (en) * | 2020-04-15 | 2020-08-25 | 北京小米松果电子有限公司 | Information processing method, device and storage medium |
CN111583919B (en) * | 2020-04-15 | 2023-10-13 | 北京小米松果电子有限公司 | Information processing method, device and storage medium |
WO2022263179A1 (en) * | 2021-06-15 | 2022-12-22 | Mercedes-Benz Group AG | Method and device for generating voice outputs in a vehicle |
DE102021120246A1 (en) | 2021-08-04 | 2023-02-09 | Bayerische Motoren Werke Aktiengesellschaft | voice recognition system |
Also Published As
Publication number | Publication date |
---|---|
DE102015213722B4 (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015213722B4 (en) | Method for operating a voice recognition system in a vehicle and voice recognition system | |
DE19709518C1 (en) | Speech entering method as motor vehicle destination address in real time | |
DE102009017177B4 (en) | Speech recognition arrangement and method for acoustically operating a function of a motor vehicle | |
EP1176395B1 (en) | Method for the selection of the designation of a place in a system of navigation via voice input | |
DE102013223036B4 (en) | Adaptation methods for language systems | |
EP0905662A2 (en) | Input system for at least locality and street names | |
DE102013222507A1 (en) | Adaptation methods and systems for speech systems | |
DE102015211101A1 (en) | Speech recognition system and method for operating a speech recognition system with a mobile unit and an external server | |
EP3152753A1 (en) | Assistance system that can be controlled by means of voice inputs, having a functional device and a plurality of voice recognition modules | |
DE102014211834A1 (en) | Method and device for correcting a control parameter for an automatic cruise control device of a vehicle | |
DE102009030263A1 (en) | Method for controlling menu-based operation and information system of vehicle, involves displaying menu and forming controlling element for controlling menu | |
WO2008052823A1 (en) | Method for selecting a destination | |
EP1330817A1 (en) | Robust voice recognition with data bank organisation | |
DE10129005B4 (en) | Method for speech recognition and speech recognition system | |
DE102015015486B3 (en) | Method for automatic routing of a motor vehicle and motor vehicle with navigation system | |
DE102016218270B4 (en) | Method for operating a motor vehicle operating device with speech recognizer, operating device and motor vehicle | |
DE102019217751A1 (en) | Method for operating a speech dialogue system and speech dialogue system | |
EP3735688B1 (en) | Method, device and computer-readable storage medium having instructions for processing a speech input, motor vehicle, and user terminal with speech processing | |
WO2014108232A1 (en) | Method and device for providing navigation destinations for a motor vehicle | |
EP4124211B1 (en) | Method and device for generating voice outputs in a vehicle | |
DE102018221712B4 (en) | Method for operating an interactive information system for a vehicle, and a vehicle | |
WO2023152003A1 (en) | Driver assistance system, means of locomotion and method for operating a driver assistance system | |
DE102016009196A1 (en) | Method for operating a plurality of speech recognizers and speech recognition apparatus | |
WO2023148063A1 (en) | Method for processing speech inputs and operating device for controlling vehicle functions | |
DE102016005731A1 (en) | Method for operating multiple speech recognizers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G10L0015220000 Ipc: G10L0015183000 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |