WO2014060053A1 - Bearbeiten eines textes während einer fahrt in einem kraftfahrzeug - Google Patents

Bearbeiten eines textes während einer fahrt in einem kraftfahrzeug Download PDF

Info

Publication number
WO2014060053A1
WO2014060053A1 PCT/EP2013/001487 EP2013001487W WO2014060053A1 WO 2014060053 A1 WO2014060053 A1 WO 2014060053A1 EP 2013001487 W EP2013001487 W EP 2013001487W WO 2014060053 A1 WO2014060053 A1 WO 2014060053A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
driver
word
motor vehicle
selection element
Prior art date
Application number
PCT/EP2013/001487
Other languages
English (en)
French (fr)
Inventor
Gerd Gruchalski
Kristin DETTMER
Tanya KANCHEVA
Doreen ENGELHARDT
Original Assignee
Audi Ag
Volkswagen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag, Volkswagen Ag filed Critical Audi Ag
Publication of WO2014060053A1 publication Critical patent/WO2014060053A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the invention relates to a method for operating a motor vehicle in order to process text in the motor vehicle during a journey, for example a text of a message which the driver wishes to send to a person outside the motor vehicle.
  • the text may be, for example, a previously generated with the speech input text or a text template.
  • the invention also includes a motor vehicle with an infotainment system which is designed to carry out the method according to the invention.
  • ASR automatic speech recognition systems
  • a mobile telephone which has a text editor for correcting a previously entered by voice input text.
  • a key of the telephone keypad is assigned to each word of the text.
  • the user can then activate an edit mode to change that word.
  • the user may also voice pronoun the wrong word or key designation associated with that word and thereby also activate the edit mode.
  • EP 2 133 869 A2 also a mobile phone with a text correction for a previously entered by voice input text is known.
  • alternative recognition results are displayed, which are then manually selected by the user or voice input can be selected.
  • the incorrectly recognized word can also be overwritten by entering text.
  • the invention has for its object to allow in a motor vehicle for a driver editing a text while driving with a low driver deflection.
  • the invention is based on the situation in which a driver wants to change a text, for example a message text of an e-mail.
  • the text may have recognition errors in individual words caused by a speech recognizer due to misrecognitions.
  • the text can also be, for example, a text template in which individual keywords are to be adapted by the driver, for example: "I am driving straight to X", in which case X must be replaced by the current destination.
  • the editing of the text is made possible according to the method by an editing device of the motor vehicle, which may be part of an infotainment system of the motor vehicle, for example.
  • a first step of the method it is a matter of selecting a defective word in the text for editing.
  • the driver operates a selection element, for example a rotary-push-dial of the motor vehicle.
  • a positioning signal of the selection element is jumped or changed in the text between text units.
  • a text unit includes here in each case at least one word of the text and / or at least one delimiter of the text.
  • Under separator is here a two-word separating character, meaning in particular a Lee character (English: Space) to understand.
  • the driver can, for example, continue to jump one paragraph further (the text unit therefore comprises an entire paragraph here), or sentence by sentence or by word.
  • a processing mode is activated in a second step as long as the next text unit is not jumped. This happens preferably without another confirmation signal from the user.
  • the text unit is changed as a function of control signals of an operating device which is also to be operated by the driver for this purpose. It is particularly important here that the operating device in this case comprises both a speech recognizer and a handwriting connoisseur.
  • the driver first selects the erroneous text unit by means of the selection element. If the editing mode for this text unit is activated, then at least two input modalities, namely the speech input and the handwriting input, are available to him for changing this text unit.
  • the speech recognizer and the handwriting connoisseur can each be configured in a manner known per se from the prior art.
  • the text can be edited by the driver without having to look at a screen. So he can keep his eyes on the traffic all the time. If, for example, the text is read to him / her through a text-to-speech unit and the driver recognizes that, for example, the third word in the text is wrong, he can select the third word by means of the selection element and then simply repeat the correct word or several times Uttering words which can then cause the wrong word to be replaced by the correct text.
  • the spaces or other separators between the words / sentences can also be selected and edited here. In this way, additional words can be inserted or falsely written apart composites can be put together.
  • the "selected text units" can therefore be paragraphs, sentences, words or separators. This means that the cursor then changes eg to word level and eg when turning a rotary-push-button always "word - separation - word - separation - "
  • the text unit to which the last change is read out automatically by a text-to-speech unit. Then the driver knows at any time during the operation of the selection element, where he is currently in the text. Additionally or alternatively, reading aloud can also be triggered as a function of a read-out command generated by the driver. Then, the driver with the generation of the Vorlesebeletss, for example, by pressing a rotary-push-button, with which he also changes between text units, specifically orientate.
  • an extended processing mode of the respective text unit that has just been changed is preferably activated after receiving an acknowledgment signal, which the driver generates by means of the selection element.
  • the user marks a "text unit” and can then:
  • the user can also preferably switch to letter-by-letter editing here.
  • a further development of the invention provides that, when the advanced processing mode is activated, an editing cursor for letter-precise processing is positioned in the respectively current text unit. This again takes place as a function of the positioning signal of the selection element. Additionally or alternatively, the positioning of the edit cursor takes place in dependence on the control signal of the operating device. For example, the user can thus position the editing cursor within a word by means of speech recognition.
  • an editing cursor is to be understood as a positioning element which can be positioned on a text character, for example a letter, or else between two text characters in order to determine at which position text insertion is to take place. If a letter is missing from a word, the driver can select that word by means of the selection element and then simply draw the missing letter on a touchpad of a handwriting connoisseur, for example, so that the handwriting connoisseur recognizes and inserts the missing letter.
  • the editing device preferably also includes a gesture recognizer, which generates at least one of the mentioned control signals upon detection of a gesture of the driver.
  • the gesture recognizer can recognize, for example, a gesture such as handwriting recognition on a touchpad or by means of a camera system a gesture carried out freely by the driver in the air.
  • a gesture recognizer has the advantage that the driver can not only add text or make text changes without averting his view of the traffic situation. but also, for example, the described positioning of the edit cursor can make.
  • the selection element may also include a gesture recognizer. This has the advantage that it is also possible to switch between the text units by means of a gesture.
  • a editing command can be generated by the editing unit by means of at least one control signal, by means of which at least one already existing character or a character group is changed. Additionally or alternatively, one of the control signals may also cause the insertion of a new character.
  • a group of characters is in the context of the invention in particular a whole word. It is not limited to a single word at this point, but it can also several words, half sentences or complete sentences including punctuation spoken or handwritten. So also new text sections can be inserted.
  • An embodiment of the invention provides that the text is also displayed on a display device and the text unit to which was last changed, is marked marked.
  • the zuletze selected text unit is marked by being enlarged in relation to the rest of the text (zoom) or colored deposited or displayed with colored characters.
  • the display of the text has the advantage that the driver can reassure himself by briefly averting his gaze from the traffic to the display device, for which text unit the editing mode is currently activated.
  • the enlarged representation of the currently activated text unit in this case has the particular advantage that the driver can capture the text content of this text unit very quickly.
  • the invention also includes a motor vehicle.
  • the motor vehicle according to the invention has an infotainment system comprising a selection element and an editing device with a speech recognizer and a handwriting connoisseur.
  • the infotainment system is designed to carry out an embodiment of the method according to the invention.
  • the motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger car.
  • the selection element comprises a turntable or a rotary pushbutton actuator. This has proven to be particularly suitable for switching between text units.
  • the selection element may also comprise the described touchpad and / or the gesture control provided by the gesture recognizer.
  • a vehicle interior 12 with a center console 14 and a steering wheel 16 is shown by the motor vehicle 10.
  • the viewing direction shown in the figure points from the rear to the front of the motor vehicle.
  • a driver (not shown) of the motor vehicle 10 can look through a windscreen 18 at the traffic situation ahead of the motor vehicle 10. Meanwhile, the driver wants to edit a text 20 which may be displayed on a display 22 of the motor vehicle 10, e.g. on an extendable screen.
  • the motor vehicle 10 comprises an infotainment system 24 with a central processing unit 26 and a haptic control device 28.
  • the haptic control device 28 may include, for example, a touchpad 30 and a selection element 32, wherein the selection element 32 configured, for example, as a rotary push-button can be.
  • the infotainment system 24 may also include a microphone assembly 34, by which a speech sound in the vehicle interior can be detected.
  • the microphone assembly 34 may be coupled to a speech recognizer 36 (StT) of the infotainment system 24.
  • the speech recognizer 36 may be a program module of the central processing unit 26.
  • the touchpad 30 may be coupled to a recognizer 38 through which handwriting recognition and / or gesture recognition may be provided. Also with the recognition device 38 it can For example, be a program module of the computing device 26.
  • the infotainment system 24 has an editing device 40, which may likewise be a program module of the arithmetic unit 26, for example.
  • the editor 40 may receive a positioning signal from the selector 32.
  • the editing device 40 may further receive a control signal from the recognizer 38 and the voice recognizer 36, respectively.
  • the infotainment system 24 may further include a speech synthesizer 42 (TtS - Text-to-Speech).
  • the speech synthesizer 42 may be driven by the editing device 40.
  • the speech synthesizer 42 can convert the text 20 or a part of the text 20 into an audio signal and radiate it into the interior of the motor vehicle via an audio output 44, which may for example comprise a loudspeaker, so that the driver can hear it.
  • each text unit 46 may be a word of the text 20. It can also be provided that the delimiters 46 'between individual words, sentences or paragraphs are treated as further text units and can also be explicitly changed to these separators 46'.
  • a currently selected text unit 46 which has just been changed to last, can be displayed, for example, in color. In the figure, this text unit is marked for further explanation with the additional reference numeral 48.
  • the user can activate a processing mode for the selected text unit 48, for example, by pressing the rotary push-button of the selection unit 32.
  • the editing mode can also be activated automatically.
  • the driver can then correct the word of the text unit 48, for example by voice input, for which purpose his speech signal is detected and processed by means of the microphone arrangement 34 and the speech recognizer 36.
  • the driver may also execute a gesture to generate a processing command, for example deletion, on the touchpad 30. ren or on the touchpad 30 also draw a letter, which is then inserted into the text unit 48.
  • Editing complex texts 20 using on-board user input methods using voice, touch, and data distribution system (DDS) is a challenge, especially during driving.
  • DDS data distribution system
  • Voice input - the driver can interact with the system by speaking into a microphone. It is believed that the available ASR can both execute simple commands and transcribe speech to text.
  • Touching - the driver can interact with the system using a touchpad.
  • the touchpad can recognize various gestures and handwritten writing.
  • the driver dictates a longer message, the transcription of speech to text occurs and the recognized text is displayed and read. If the text needs to be corrected, the driver can proceed as follows:
  • the edit mode may include a word edit mode.
  • each letter of the word can be edited separately, and turning the knob left / right moves the cursor between the letters of the word.
  • the touchpad can be used anywhere to enter a new letter. If the cursor is on a word, the word is replaced. When the cursor is between words or letters, the new letter is inserted, or overwritten directly by writing letters.
  • the touch ped can be used anywhere to delete a selected word or character by using a defined gesture, such as a swipe to the left.
  • the user can replace a word anywhere by expressing a voice command containing the new word. If the word to be replaced is specified in the speech command, the cursor is first positioned on that word. If not, the currently selected word will be replaced. For example, Replace with ⁇ new word> replaces the selected word. Replace ⁇ old word> with ⁇ new word> "to select ⁇ old word> and replace it with ⁇ new word>.
  • the user can extend the text at any time by dictating additional sentences. Such sentences are appended to the end of the text.
  • the current word can be replaced by multiple words or any dictated or written text.
  • the user may at any time delete and re-record the complete text by voice command.
  • the system offers more flexibility and leaves the driver what type of editing he prefers depending on the driving situation or depending on the type of error and which distracts him less.
  • the invention realizes the combination of voice, touch, and toggle switches for editing longer texts while driving.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bearbeiten eines Textes (20) während einer Fahrt in einem Kraftfahrzeug (10). Der Erfindung liegt die Aufgabe zugrunde, in dem Kraftfahrzeug (10) für einen Fahrer das Bearbeiten des Textes (20) während der Fahrt mit einer geringen Fahrerablenkung zu ermöglichen. Hierzu wird in Abhängigkeit von einem Positioniersignal eines Auswahlelements (32), das ein Fahrer des Kraftfahrzeugs (10) bedient, durch eine Editiereinrichtung (14) in dem Text (20) zwischen Texteinheiten (46, 48) gewechselt, die jeweils zumindest ein Wort oder Trennzeichen des Textes (20) umfassen. Jeweils nur für die Texteinheit (48), zu der zuletzt gewechselt wurde, wird ein Bearbeitungsmodus aktiviert und in dem Bearbeitungsmodus die Texteinheit (48) in Abhängigkeit von Steuersignalen einer Bedieneinrichtung (36, 38) verändert, wobei die Bedieneinrichtung (38, 36) sowohl einen Spracherkenner (36) als auch einen Handschrifterkenner (38) umfasst.

Description

Bearbeiten eines Textes während einer Fahrt in einem Kraftfahrzeug
BESCHREIBUNG: Die Erfindung betrifft ein Verfahren zum Betreiben eines Kraftfahrzeugs, um in dem Kraftfahrzeug während einer Fahrt einen Text zu bearbeiten, beispielsweise einen Text einer Nachricht, die der Fahrer an eine Person außerhalb des Kraftfahrzeugs senden möchte. Bei dem Text kann es sich beispielsweise um einen zuvor mit der Spracheingabe erzeugten Text oder auch eine Textvorlage handeln. Zu der Erfindung gehört auch ein Kraftfahrzeug mit einem Infotainmentsystem, das zum Durchführen des erfindungsgemäßen Verfahrens ausgelegt ist.
Fahrzeugeigene Infotainmentsysteme von heute gestatten die Spracheinga- be von komplexen Texten. Moderne automatische Spracherkennungssyste- me (ASR - Automated Speech Recognition) bieten zwar einen sehr hohen Spracherkennungsgrad, aber in manchen Fällen muss der erkannte Text korrigiert werden. Aus der EP 2 131 355 A2 ist ein Mobiltelefon bekannt, welches einen Texteditor zum Korrigieren eines zuvor per Spracheingabe eingegebenen Texts aufweist. Um in dem Text ein falsch erkanntes Wort korrigieren zu können, wird jedem Wort des Textes eine Taste der Telefontastatur zugeordnet. Durch Drücken der Taste kann dann der Benutzer einen Bearbeitungsmodus zum Verändern dieses Wortes aktivieren. Alternativ dazu kann der Benutzer auch per Spracheingabe das falsche Wort oder die Tastenbezeichnung, die diesem Wort zugeordnet ist, aussprechen und hierdurch ebenfalls den Bearbeitungsmodus aktivieren. Aus der EP 2 133 869 A2 ist ebenfalls ein Mobiltelefon mit einer Textkorrektur für einen zuvor per Spracheingabe eingegebenen Text bekannt. Bei Auswählen eines falsch erkannten Wortes werden alternative Erkennungsergebnisse angezeigt, die dann von dem Benutzer per Hand oder Spracheingabe ausgewählt werden können. Das falsch erkannte Wort kann auch per Texteingabe überschrieben werden.
Aus der US 2009/0326938 A1 ist eine Mehrwort-Textkorrektur bekannt, bei welcher mehrere falsch erkannte Wörter zunächst alle markiert und dann in einem zweiten Schritt nacheinander bearbeitet werden können.
Die aus dem Stand der Technik bekannten Korrekturmöglichkeiten für Texte weisen im Zusammenhang mit der Verwendung in einem Kraftfahrzeug den Nachteil auf, dass sie von einem Fahrer erfordern, einen Bildschirm zu betrachten, um die Bearbeitung des Textes vorzunehmen. Dies führt während einer Fahrt zu einer unerwünschten und sogar gefährlichen Ablenkung des Fahrers vom Straßenverkehr. Der Erfindung liegt die Aufgabe zugrunde, in einem Kraftfahrzeug für einen Fahrer das Bearbeiten eines Textes während einer Fahrt mit einer geringen Fahrerablenkung zu ermöglichen.
Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 und ein Kraftfahrzeug gemäß Patentanspruch 9 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.
Die Erfindung setzt an bei der Situation, dass ein Fahrer einen Text, beispielsweise einen Nachrichtentext einer E-Mail, verändern möchte. Bei- spielswiese kann der Text Erkennungsfehler in einzelnen Worten aufweisen, die durch einen Spracherkenner aufgrund von Fehlerkennungen verursacht wurden. Der Text kann aber auch beispielsweise eine Textvorlage sein, bei welcher einzelne Schlüsselwörter von dem Fahrer angepasst werden sollen, z.B.:„Ich fahre gerade nach X", wobei dann X durch den aktuellen Zielort zu ersetzen ist.
Das Bearbeiten des Textes wird gemäß dem Verfahren durch eine Editiereinrichtung des Kraftfahrzeugs ermöglicht, die beispielsweise Bestandteil eines Infotainmentsystems des Kraftfahrzeugs sein kann. In einem ersten Schritt des Verfahrens geht es darum, ein fehlerhaftes Wort in dem Text für die Bearbeitung auszuwählen. Hierzu bedient der Fahrer ein Auswahlelement , beispielsweise einen Dreh-Drück-Steller des Kraftfahrzeugs. In Abhängigkeit von einem Positioniersignal des Auswahlelements wird in dem Text zwischen Texteinheiten gesprungen oder gewechselt. Eine Texteinheit umfasst hier jeweils zumindest ein Wort des Textes und/oder zumindest ein Trennzeichen des Textes. Unter Trennzeichen ist hier ein zwei Wörter trennendes Zeichen, also insbesondere ein Leezeichen (Englisch: Space) zu verstehen. Der Fahrer kann also durch Bedienen des Auswahlelements jeweils zum Beispiel einen Absatz weiter springen (die Texteinheit umfasst hier also einen ganzen Absatz), oder satzweise oder wortweise.
Für diejenige Texteinheit, zu der zuletzt gewechselt wurde, wird in einem zweiten Schritt jeweils ein Bearbeitungsmodus aktiviert, solange nicht zur nächsten Texteinheit gesprungen wird. Dies geschieht bevozugt ohne ein weiteres Bestätigungssignal des Benutzers. In dem Bearbeitungsmodus wird die Texteinheit in Abhängigkeit von Steuersignalen einer Bedieneinrichtung verändert, die hierzu ebenfalls von dem Fahrer zu bedienen ist. Besonders ist hier nun, dass die Bedieneinrichtung hierbei sowohl einen Spracherkenner als auch einen Handschrifterkenner umfasst. Gemäß dem Verfahren wählt der Fahrer also zunächst mittels des Auswahlelements die fehlerhafte Texteinheit aus. Bei aktiviertem Bearbeitungsmodus für diese Texteinheit stehen ihm dann zumindest zwei Eingabemodalitäten, nämlich die Spracheingabe und die Handschrifteingabe, zum Verändern dieser Text- einheit zur Verfügung. Der Spracherkenner und der Handschrifterkenner können dabei jeweils in an sich aus dem Stand der Technik bekannter Weise ausgestaltet sein.
Wichtig zu erkennen ist, dass der Text vom Fahrer bearbeitet werden kann, ohne dass er hierbei zwingend einen Bildschirm betrachten muss. Er kann also den Blick die ganze Zeit auf das Verkehrsgeschehen gerichtet halten. Wird ihm beispielsweise der Text durch eine Text-to-Speech-Einheit vorgelesen und erkennt der Fahrer, dass beispielsweise das dritte Wort im Text falsch ist, kann er mittels des Auswahlelements das dritte Wort auswählen und dann einfach noch einmal das korrekte Wort oder auch mehrere Worte aussprechen, wodurch dann bewirkt werden kann, dass das falsche Wort durch den richtigen Text ersetzt wird.
Wie bereits erläutert, können hierbei auch die Leerzeichen oder sonstigen Trennzeichen zwischen den Worten/Sätzen auch ausgewählt und editiert werden. Auf diese Art können zusätzliche Worte eingefügt oder fälschlich auseinander geschriebene Komposita zusammenfügt werden. Die "ausgewählten Texteinheiten" können also Absätze, Sätze, Worte oder auch Trennzeichen sein. D.h. der Cursor wechselt dann z.B. auf Wortebene und z.B. beim Drehen eines Dreh-Drück-Stellers immer "Wort - Trennung - Wort - Trennung - ..."
Bei der Erfindung ist bevorzugt auch vorgesehen, dass die Texteinheit, zu der zuletzt gewechselt wurde, automatisch durch eine Text-to-Speech- Einheit vorgelesen wird. Dann weiß der Fahrer während des Bedienens des Auswahlelements jederzeit, wo er sich gerade im Text befindet. Zusätzlich oder alternativ dazu kann auch in Abhängigkeit von einem durch den Fahrer erzeugten Vorlesebefehl das Vorlesen ausgelöst werden. Dann kann sich der Fahrer mit Erzeugen des Vorlesebefehls, beispielsweise durch Drücken eines Dreh-Drück-Stellers, mit dem er auch zwischen Texteinheiten wechselt, gezielt orientieren.
Bei der Erfindung wird bevorzugt ein erweiterter Bearbeitungsmodus der je- weiligen Texteinheit, zu der gerade gewechselt wurde, nach Empfangen eines Bestätigungssignals aktiviert, welches der Fahrer mittels des Auswahlelements erzeugt. Ein Vorteil hiervon ist, dass nicht versehentlich durch Aussprechen eines Wortes oder durch Berühren beispielsweise eines Touch- pads des Handschrifterkenners eine ungewollte Wortveränderung in der ak- tuellen Texteinheit verursacht wird.
Bevorzugt ergibt sich also folgende Abstufung bei der Auswahl von Texteinheiten und den automatisch und manuell aktivierten Bearbeitungsmodi:
Mittels des Auswahlelement markiert der Benutzer eine "Texteinheit" und kann dann:
1) bei automatisch aktiviertem ersten Bearbeitungsmodus diese direkt per Sprachkommando überschreiben und/oder
2) diese direkt per Touchpad überschreiben, d.h. er schreibt einfach los; das ausgewählte, markierte Wort wird dann gelöscht und durch das ge- schriebene ersetzt.
3) in einen "besonderen Bearbeitungsmodus", d.h. in den erweiterten Bearbeitungsmodus, wird durch das Bestätigungssignal gewechselt:
3a) Es wird dann bevorzugt eine Liste von möglichen Alternativbegriffen, sofern vorhanden, angezeigt und der Nutzer kann einen davon auswäh- len; die Texteinheit wird dann durch diese ersetzt.
3b) Falls der gewünschte Begriff nicht enthalten ist, kann der Nutzer hier auch bevorzugt ins buchstabenweise Editieren umschalten. Zu dem Punkt 3b) sieht eine Weiterbildung der Erfindung vor, dass bei aktiviertem erweiterten Bearbeitungsmodus in der dann jeweils aktuellen Texteinheit ein Editiercursor für buchstabengenaues Bearbeiten positioniert wird. Dies geschieht wieder in Abhängigkeit von dem Positioniersignal des Aus- wahlelements. Zusätzlich oder alternativ dazu geschieht die Positionierung des Editiercursors in Abhängigkeit des Steuersignals der Bedieneinrichtung. Beispielsweise kann also der Benutzer per Spracherkennung den Editiercursor innerhalb eines Wortes positionieren. Im Zusammenhang mit der Erfindung ist unter einem Editiercursor ein Positionierelement zu verstehen, wel- ches auf einem Textzeichen, beispielsweise einem Buchstaben, oder auch zwischen zwei Textzeichen positioniert werden kann, um festzulegen, an welcher Stelle im Text eine Texteinfügung erfolgen soll. Fehlt bei einem Wort ein Buchstabe, so kann der Fahrer dieses Wort mittels des Auswahlelements auswählen und dann einfach beispielsweise auf einem Touchpad eines Handschrifterkenners den fehlenden Buchstaben zeichnen, so dass der Handschrifterkenner den fehlenden Buchstaben erkennt und einfügt.
Nach dem Wechsel zu einer Texteinheit und mit dem Empfangen des Bestätigungssignals muss aber zunächst bei Empfangen eines weiteren Positioniersignals des Auswahlelements, z.B. bei Drehen des Dreh-Drück- Stellers, nicht gleich das buchstabenweise positionieren begonnen werden, sondern es kann allgemein innerhalb der aktuellen Texteinheit zwischen Sub-Texteinheiten gewechselt werden, von denen jede kleiner als die aktuelle Texteinheit selbst ist. Wechselt der Fahrer also beispielsweise mittels des Auswahlelements zunächst satzweise von einem Satz zum nächsten und erzeugt dann das Bestätigungssignal beispielsweise durch Drücken des Dreh-Drück-Stellers, so kann er dann innerhalb des aktuell ausgewählten Satzes wortweise zu dem falschen Wort springen. Das stufenweise Wechseln (erst Texteinheiten, dann Sub-Texteinheiten) weist den Vorteil auf, dass der Fahrer schneller gezielt ein fehlerhaftes Wort auswählen kann.
Bei der Erfindung umfasst die Editiereinrichtung bevorzugt auch einen Gestenerkenner, welcher bei Erkennen einer Geste des Fahrers zumindest eines der erwähnten Steuersignale erzeugt. Der Gestenerkenner kann dabei beispielsweise eine Geste wie die Handschrifterkennung an einem Touchpad oder mittels eines Kamerasystems eine frei in der Luft von dem Fahrer ausgeführte Geste erkennen. Ein Gestenerkenner weist den Vorteil auf, dass der Fahrer ebenfalls ohne Abwenden seines Blicks vom Verkehrsgeschehen nicht nur Texthinzufügungen oder Textveränderungen vornehmen kann, sondern beispielsweise auch die beschriebene Positionierung des Editiercursors vornehmen kann.
Zusätzlich oder alternativ dazu kann auch das Auswahlelement einen Gestenerkenner umfassen. Dies weist den Vorteil auf, dass auch das Wechseln zwischen den Texteinheiten per Geste ermöglicht ist.
Wie bereits ausgeführt, kann durch die Editiereinheit mittels zumindest eines Steuersignals ein Bearbeitungsbefehl erzeugt werden, durch welchen zu- mindest ein bereits vorhandenes Zeichen oder eine Zeichengruppe verändert wird. Zusätzlich oder alternativ dazu kann eines der Steuersignale auch das Einfügen eines neuen Zeichen bewirken. Eine Zeichengruppe ist im Zusammenhang mit der Erfindung insbesondere ein ganzes Wort. Man ist an dieser Stelle aber nicht auf ein einzelnes Wort beschränkt, sondern es können auch mehrere Worte, Halbsätze oder ganze Sätze inklusive Satzzeichen gesprochen oder handschriftlich eingegeben werden. So können auch neue Texteabschnitte eingefügt werden.
Eine Ausführungsform der Erfindung sieht vor, dass der Text auch auf einer Anzeigeeinrichtung angezeigt wird und die Texteinheit, zu welcher zuletzt gewechselt wurde, markiert dargestellt wird. Insbesondere wird die zuletze ausgewählte Texteinheit markiert, indem sie im Verhältnis zu dem übrigen Text vergrößert dargestellt wird (Zoom) oder farbig hinterlegt oder mit farbigen Zeichen dargestellt wird. Das Anzeigen des Textes weist den Vorteil auf, dass sich der Fahrer durch kurzes Abwenden seines Blicks vom Verkehrsgeschehen hin zur Anzeigeeinrichtung rückversichern kann, für welche Texteinheit momentan der Bearbeitungsmodus aktiviert ist. Das vergrößerte Darstellen der momentan aktivierten Texteinheit weist hierbei den besonderen Vorteil auf, dass der Fahrer den Textinhalt dieser Texteinheit besonders schnell erfassen kann.
Wie bereits ausgeführt, gehört zu der Erfindung auch ein Kraftfahrzeug. Das erfindungsgemäße Kraftfahrzeug weist ein Infotainmentsystem auf, das ein Auswahlelement sowie eine Editiereinrichtung mit einem Spracherkenner und einem Handschrifterkenner umfasst. Erfindungsgemäß ist bei dem Kraftfahrzeug vorgesehen, dass das Infotainmentsystem dazu ausgelegt ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen, ausgestaltet. Das Auswahlelement um- fasst insbesondere einen Drehsteller oder einen Dreh-Drück-Steller. Dieser hat sich als besonders geeignet für das Wechseln zwischen Texteinheiten erwiesen. Zusätzlich oder alternativ dazu kann das Auswahlelement auch das beschriebene Touchpad und/oder die durch den Gestenerkenner bereitgestellte Gestensteuerung umfassen.
Im Folgenden ist die Erfindung noch einmal anhand eines konkreten Ausfüh- rungsbeispiels erläutert. Hierzu zeigt die einzige Figur (Fig.) eine Ausführungsform des erfindungsgemäßen Kraftfahrzeugs.
In der Fig. ist von dem Kraftfahrzeug 10 ein Fahrzeuginnenraum 12 mit einer Mittelkonsole 14 und einem Lenkrad 16 gezeigt. Die in der Fig. dargestellte Blickrichtung weist vom Heck zur Front des Kraftfahrzeugs. Ein (nicht dargestellter) Fahrer des Kraftfahrzeugs 10 kann durch eine Frontscheibe 18 auf das vor dem Kraftfahrzeug 10 befindliche Verkehrsgeschehen blicken. Währenddessen möchte der Fahrer einen Text 20 bearbeiten, welcher auf einer Anzeigeeinrichtung 22 des Kraftfahrzeugs 10 dargestellt sein kann, z.B. auf einem ausfahrbaren Bildschirm. Zum Bearbeiten des Textes umfasst das Kraftfahrzeug 10 ein Infotainmentsystem 24 mit einer zentralen Recheneinheit 26 und einer haptischen Bedieneinrichtung 28. Die haptische Bedieneinrichtung 28 kann beispielsweise ein Touchpad 30 und ein Auswahlelement 32 umfassen, wobei das Auswahlelement 32 beispielsweise als ein Dreh- Drück-Steller ausgestaltet sein kann.
Zu dem Infotainmentsystem 24 kann auch eine Mikrofonanordnung 34 gehören, durch welche ein Sprachschall im Kraftfahrzeuginnenraum erfasst werden kann. Die Mikrofonanordnung 34 kann mit einem Spracherkenner 36 (StT - Speech-to-Text) des Infotainmentsystems 24 gekoppelt sein. Beispielsweise kann der Spracherkenner 36 ein Programmmodul der zentralen Recheneinheit 26 sein.
Die Geometrie und die relative Anordnung der Element kann anders als in der Fig. gezeigt realisiert sein.
Das Touchpad 30 kann mit einer Erkennungseinrichtung 38 gekoppelt sein, durch welche eine Handschrifterkennung und/oder eine Gestenerkennung bereitgestellt sein können. Auch bei der Erkennungseinrichtung 38 kann es sich beispielsweise um ein Programmmodul der Recheneinrichtung 26 handeln.
Zum Bearbeiten des Textes 20 weist das Infotainmentsystem 24 eine Edi- tiereinrichtung 40 auf, bei der es sich ebenfalls beispielsweise um ein Programmmodul der Recheneinheit 26 handeln kann. Die Editiereinrichtung 40 kann ein Positioniersignal von dem Auswahlelement 32 empfangen. Die Editiereinrichtung 40 kann des Weiteren jeweils ein Steuersignal von der Erkennungseinrichtung 38 und dem Spracherkenner 36 empfangen.
Das Infotainmentsystem 24 kann des Weiteren einen Sprachsynthesizer 42 (TtS - Text-to-Speech) aufweisen. Der Sprachsynthesizer 42 kann von der Editiereinrichtung 40 angesteuert werden. Hierbei kann der Sprachsynthesizer 42 den Text 20 oder einen Teil des Textes 20 in ein Audiosignal umwan- dein und dieses über eine Audioausgabe 44, die beispielsweise einen Lautsprecher umfassen kann, in den Kraftwageninnenraum abstrahlen, so dass der Fahrer es hören kann.
Zum Editieren des Textes kann der Fahrer mittels der Auswahleinrichtung 32, beispielsweise durch Drehen des Dreh-Drück-Stellers, zwischen einzelnen Texteinheiten 46 des Textes 20 wechseln. Beispielsweise kann es sich bei jeder Texteinheit 46 um ein Wort des Textes 20 handeln. Es kann auch vorgesehen sein, das als weitere Texteinheiten die Trennzeichen 46' zwischen einzelnen Worten, Sätzen oder Absätzen behandelt werden und auch explizit zu diesen Trennzeichen 46' hin gewechselt werden kann. Eine aktuell ausgewählte Texteinheit 46, zu der gerade zuletzt gewechselt wurde, kann beispielsweise farbig hinterlegt dargestellt werden. In der Fig. ist diese Texteinheit für die weiteren Erläuterungen mit dem zusätzlichen Bezugszeichen 48 gekennzeichnet.
Nach Auswählen der Texteinheit 48 kann der Nutzer für die ausgewählte Texteinheit 48 beispielsweise durch Drücken des Dreh-Drück-Stellers der Auswahleinheit 32 einen Bearbeitungsmodus aktivieren. Das Drücken ist aber optional, der Bearbeitungsmodus kann auch automatisch aktiviert wer- den. Der Fahrer kann im Bearbeitungsmodus dann beispielsweise per Spracheingabe das Wort der Texteinheit 48 korrigieren, wozu sein Sprachsignal mittels der Mikrofonanordnung 34 und des Spracherkenners 36 erfasst und verarbeitet wird. Der Fahrer kann auch eine Geste zum Erzeugen eines Bearbeitungsbefehls, beispielsweise Löschen, an dem Touchpad 30 ausfüh- ren oder an dem Touchpad 30 auch einen Buchstaben zeichnen, der dann in die Texteinheit 48 eingefügt wird.
Insgesamt kann erfindungsgemäß vorgesehen sein, dass in dem Kraftfahr- zeug 10 die folgenden Bearbeitungsmöglichkeiten für einen Text wie den Text 20 bereitgestellt sind.
Das Editieren komplexer Texte 20 durch Verwendung bordeigener Benutzereingabeverfahren unter Einsatz von Sprache, Berührung und Datenverbrei- tungssystemen (DDS - Data Distribution System) ist besonders während des Fahrens eine Herausforderung.
In der vorliegenden Erfindung wird ein Verfahren zum Korrigieren längerer Texte unter Verwendung einer multimodalen Benutzerschnittstelle beschrie- ben. Es wird davon ausgegangen, dass die fahrzeugeigenen Infotainment- Systeme mit den folgenden Eingabemodalitäten ausgerüstet sind:
1. Sprachbezogene Eingabe - der Fahrer kann mit dem System zusammenwirken, indem er in ein Mikrofon spricht. Es wird davon ausgegangen, dass die verfügbare ASR sowohl einfache Befehle ausführen als auch Gesprochenes zu Text transkribieren kann.
2. Eingabe mittels Berührung - der Fahrer kann unter Verwendung eines Touchpads mit dem System zusammenwirken. Das Touchpad kann verschiedene Gesten und handschriftlich Geschriebenes erkennen.
3. Eingabe mittels Tastenknopf - der Fahrer kann unter Verwendung eines Satzes Tastschalter und eines Drehknopfs zum Drehen und Klicken nach links/rechts mit dem System zusammenwirken.
Es wird weiterhin davon ausgegangen, dass der Fahrer den diktierten Text auf einem armaturenbrettfesten oder ausfahrbaren Bildschirm sehen und ihn aus den bordeigenen Lautsprechern hören kann.
Wenn der Fahrer eine längere Nachricht diktiert, erfolgt die Transkribierung von Gesprochenem zu Text und der erkannte Text wird angezeigt und vorge- lesen. Wenn der Text korrigiert werden muss, kann der Fahrer wie folgt vorgehen:
1. Er kann den Knopf nach links oder rechts drehen, um ein zu korrigierendes Wort oder ein Trennzeichen auszuwählen. In diesem Texted itiermo- dus wird der Wort-Cursor durch jede Knopfdrehung von Wort zu Wort durch den Text gescrollt.
1a. Optional kann nach Markierung einer Texteinheit mit dem Cursor diese per Sprachkommando durch einen neuen Text ersetzt werden oder durch direktes Schreiben auf dem Touchpad überschrieben werden.
2. Nach Auswahl eines Wortes kann man auf den Knopf oder auf dem Touchpad auf den entsprechenden Tab drücken, um z.B. in einen noch umfangreicheren Bearbeitungsmodus zu gelangen. Falls vorhanden wird z.B. eine Liste von Wortalternativen zur Auswahl angezeigt. Zusätzlich oder alter- nativ kann der Bearbeitungsmodus einen Worteditiermodus umfassen.
3. Im Worteditiermodus lässt sich jeder Buchstabe des Wortes getrennt editieren, und durch Drehen des Knopfs nach links/rechts wird der Cursor zwischen den Buchstaben des Worts bewegt.
4. Das Touchpad kann an beliebiger Stelle zur Eingabe eines neuen Buchstabens verwendet werden. Wenn der Cursor auf einem Wort ist, wird das Wort ersetzt. Wenn der Cursor zwischen Wörtern oder Buchstaben ist, wird der neue Buchstabe eingesetzt, oder diesen direkt durch Schreiben von Buchstaben überschreiben.
5. Das Touch Päd kann an beliebiger Stelle zum Löschen eines ausge- wählten Wortes oder Buchstabens durch Verwendung einer definierten Geste, wie beispielsweise eine Wischbewegung nach links, verwendet werden.
6. Ein Klicken auf ein ausgewähltes Wort an beliebiger Stelle unter Einsatz des Knopfes führt dazu, dass das ausgewählte Wort vorgelesen wird. Anstelle oder zusätzlich kann auch in einen speziellen Bearbeitungsmo- dus/Editiermodus gewechselt werden.
7. Der Benutzer kann an beliebiger Stelle ein Wort ersetzen, indem er ein das neue Wort enthaltendes Sprachkommando äußert. Wenn das zu ersetzende Wort im Sprachkommando spezifiziert ist, wird der Cursor zuerst auf diesem Wort positioniert. Wenn nicht, wird das aktuell ausgewählte Wort ersetzt. Beispielsweise wird durch„Replace with <new word>" („Durch <neu- es Wort> ersetzen") das ausgewählte Wort ersetzt. Durch „replace <old word> with <new word>" („<altes Wort> durch <neues Wort> ersetzen") wird das <alte Wort> ausgewählt und durch das <neue Wort> ersetzt.
8. Der Benutzer kann den Text jederzeit verlängern, indem er zusätzliche Sätze diktiert. Derartige Sätze werden am Ende des Texts angehängt. Optional kann auch das aktuelle Wort durch mehrere Worte oder einen beliebigen diktierten oder geschriebenen Text ersetzt werden.
9. Der Benutzer kann jederzeit den vollständigen Text durch einen Sprachbefehl löschen und neu aufzeichnen. Durch das Bereitstellen von drei unterschiedlichen Wegen zum Korrigieren des erkannten Texts bietet das System mehr Flexibilität und überlässt es dem Fahrer, welche Art des Editierens er je nach Fahrsituation bevorzugt oder abhängig von der Fehlerart bevorzugt und welche ihn weniger ablenkt.
Bevorzug wird durch Erfindung das Kombinieren von Sprache, Berührung und Tastschaltern zum Editieren von längeren Texten beim Fahren realisiert.

Claims

PATENTANSPRÜCHE:
1. Verfahren zum Bearbeiten eines Textes (20) während einer Fahrt in einem Kraftfahrzeug (10), wobei in Abhängigkeit von einem Positioniersignal eines Auswahlelements (32), das ein Fahrer des Kraftfahrzeugs (10) bedient, durch eine Editiereinrichtung (14) in dem Text (20) zwischen Texteinheiten (46, 48), die jeweils zumindest ein Wort des Textes (20) und/oder zumindest ein Trennzeichen des Textes (20) umfassen, gewechselt wird und jeweils nur für die Texteinheit (48), zu der zuletzt gewechselt wurde, ein Bearbeitungs- modus aktiviert wird und in dem Bearbeitungsmodus die Texteinheit (48) in Abhängigkeit von Steuersignalen einer Bedieneinrichtung (36, 38) verändert wird, wobei die Bedieneinrichtung (38, 36) sowohl einen Spracherkenner (36) als auch einen Handschrifterkenner (38) umfasst.
2. Verfahren nach Anspruch 1 , wobei die Texteinheit (48), zu der zuletzt gewechselt wurde, automatisch und/oder in Abhängigkeit von einem durch den Fahrer erzeugten Vorlesebefehl durch eine Text-to-Speech-Einheit (42) vorgelesen wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach dem Wechseln zu einer Texteinheit (48) nach Empfangen eines Bestätigungssignals, das der Fahrer mittels des Auswahlelements (32) erzeugt, ein erweiterter Bearbeitungsmodus aktiviert wird.
4. Verfahren nach Anspruch 3, wobei bei aktiviertem erweitertem Bearbeitungsmodus in der jeweiligen Texteinheit (48) ein Editiercursor für buchstabengenaues Bearbeiten in Abhängigkeit von dem Positioniersignal des Auswahlelements (32) und/oder des Steuersignals der Bedieneinrichtung (36, 38) positioniert wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach dem Wechseln zu einer Texteinheit (48) und nach Empfangen eines Bestätigungssignals, das der Fahrer mittels des Auswahlelements (32) erzeugt, bei Empfangen eines weiteren Positioniersignals des Auswahlelements (32) in- nerhalb der Texteinheit (48) zwischen jeweils zumindest ein Wort umfassenden Sub-Texteinheiten gewechselt wird, von denen jede kleiner als die Texteinheit (48) selbst ist.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Bedieneinrichtung (38) und/oder das Auswahlelement auch einen Gestenerkenner umfasst, durch welchen eine Bediengeste erkannt wird, die der Fahrer an einem Touchpad (30) und/oder frei in der Luft ausführt.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei zumindest eines der Steuersignale einen Bearbeitungsbefehl für ein bereits vorhandenes Zeichen oder eine Zeichengruppe (48) und/oder zumindest eines der Steuersignale das Einfügen eines neuen Zeichens bewirkt.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Text (20) auf einer Anzeigeeinrichtung (22) angezeigt wird und die Texteinheit (48), zu welcher zuletzt gewechselt wurde, markiert dargestellt wird.
9. Kraftfahrzeug (10) mit einem Infotainmentsystem (24), das ein Auswahlelement (32) und eine Bedieneinrichtung (36, 38) mit einem Spracherkenner (36) und einem Handschrifterkenner (38) umfasst,
dadurch gekennzeichnet, dass
das Infotainmentsystem (24) eine Editiereinrichtung (40) aufweist, die dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
10. Kraftfahrzeug nach Anspruch 9, wobei das Auswahlelement (32) a) einen Drehsteller oder einen Dreh-Drück-Steller und/oder b) ein Touchpad und/oder c) eine Gestensteuerung umfasst.
PCT/EP2013/001487 2012-10-16 2013-05-18 Bearbeiten eines textes während einer fahrt in einem kraftfahrzeug WO2014060053A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012020203 2012-10-16
DE102012020203.2 2012-10-16

Publications (1)

Publication Number Publication Date
WO2014060053A1 true WO2014060053A1 (de) 2014-04-24

Family

ID=48483021

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/001487 WO2014060053A1 (de) 2012-10-16 2013-05-18 Bearbeiten eines textes während einer fahrt in einem kraftfahrzeug

Country Status (1)

Country Link
WO (1) WO2014060053A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2131355A2 (de) 2008-05-28 2009-12-09 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Korrektur von Text dafür
EP2133869A2 (de) 2008-06-09 2009-12-16 LG Electronics Inc. Mobiles Endgerät und Textkorrekturverfahren darin
US20090326938A1 (en) 2008-05-28 2009-12-31 Nokia Corporation Multiword text correction
WO2012161686A2 (en) * 2011-05-23 2012-11-29 Nuance Communications Inc. Text browsing, editing and correction methods for automotive applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2131355A2 (de) 2008-05-28 2009-12-09 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Korrektur von Text dafür
US20090326938A1 (en) 2008-05-28 2009-12-31 Nokia Corporation Multiword text correction
EP2133869A2 (de) 2008-06-09 2009-12-16 LG Electronics Inc. Mobiles Endgerät und Textkorrekturverfahren darin
WO2012161686A2 (en) * 2011-05-23 2012-11-29 Nuance Communications Inc. Text browsing, editing and correction methods for automotive applications

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C.A. PICKERING ET AL: "A review of automotive human machine interface technologies and techniques to reduce driver distraction", 2ND IET INTERNATIONAL CONFERENCE ON SYSTEM SAFETY 2007, vol. 2007, 2007, pages 223 - 228, XP055076310, ISBN: 978 0 86341 863 1, DOI: 10.1049/cp:20070468 *
CHRISTIAN MÜLLER ET AL: "Multimodal Input in the Car, Today and Tomorrow", IEEE MULTIMEDIA, vol. 18, no. 1, 2011, pages 98 - 103, XP055076308, ISSN: 1070-986X, DOI: 10.1109/MMUL.2011.14 *
JAN CURÍN ET AL: "Dictating and Editing Short Texts while Driving: Distraction and Task Completion", PROCEEDINGS OF AUTOMOTIVEUI CONFERENCE, 30 November 2011 (2011-11-30), Salzburg, Austria, pages 13 - 20, XP055076306 *

Similar Documents

Publication Publication Date Title
EP2200858B1 (de) Fahrzeugsystem mit hilfefunktionalität
EP1282112B1 (de) Verfahren zur Unterstützung des Korrekturlesens eines spracherkannten Textes mit an die Erkennungszuverlässigkeit angepasstem Wiedergabegeschwindigkeitsverlauf
DE102012200635A1 (de) Verfahren und System zum Erzeugen einer Spracherkennungsdatenbank für ein mobiles Gertät unter Verwendung einer Bildverarbeitung und optischen Zeichenerkennung
EP1721245B1 (de) Verfahren zur auswahl eines listeneintrags und informations- oder unterhaltungssystem, insbesondere für kraftfahrzeuge
DE602004010054T2 (de) Betätigung eines Sprachdialogsystems
EP3486805A1 (de) Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
DE112017007546T5 (de) Gestenbedienvorrichtung und Gestenbedienverfahren
DE102008008948A1 (de) Systemarchitektur und Verfahren zur multimodalen Informationseingabe
EP3526790B1 (de) Multimodaler dialog in einem kraftfahrzeug
DE102009037658A1 (de) Fahrzeug mit mehreren Funktionen und einer zugehörigen Auswahleinrichtung
DE102013014887B4 (de) Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus
EP2026328A1 (de) Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
EP2217992A2 (de) Verfahren und vorrichtung zum bedienen einer einrichtung eines fahrzeugs mit einer sprachsteuerung
DE102009021124A1 (de) Bediensystem für ein Fahrzeug
DE60312963T2 (de) Methode und gerät zur schnellen, durch mustererkennung gestützen transkription von gesprochenen und geschriebenen äusserungen
DE102015221304A1 (de) Verfahren und Vorrichtung zur Verbesserung der Erkennungsgenauigkeit bei der handschriftlichen Eingabe von alphanumerischen Zeichen und Gesten
WO2014060053A1 (de) Bearbeiten eines textes während einer fahrt in einem kraftfahrzeug
EP3115886A1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
DE102008033441B4 (de) Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
WO2015043652A1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit
DE102017211447A1 (de) Verfahren zum Auswählen eines Listeneintrags aus einer Auswahlliste einer Bedienvorrichtung mittels Sprachbedienung sowie Bedienvorrichtung
DE102011015693A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
DE102021201184A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug mit einer Bedienvorrichtung
DE102009058151B4 (de) Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
EP3469581B1 (de) Verfahren zum betreiben eines kraftfahrzeugs mit einer bedienvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13724521

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 13724521

Country of ref document: EP

Kind code of ref document: A1