DE102012219852A1 - Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted - Google Patents
Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted Download PDFInfo
- Publication number
- DE102012219852A1 DE102012219852A1 DE201210219852 DE102012219852A DE102012219852A1 DE 102012219852 A1 DE102012219852 A1 DE 102012219852A1 DE 201210219852 DE201210219852 DE 201210219852 DE 102012219852 A DE102012219852 A DE 102012219852A DE 102012219852 A1 DE102012219852 A1 DE 102012219852A1
- Authority
- DE
- Germany
- Prior art keywords
- text
- command
- operator
- gesture
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000033001 locomotion Effects 0.000 claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims abstract description 5
- 230000004044 response Effects 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims 1
- 230000009471 action Effects 0.000 description 34
- 238000012790 confirmation Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001955 cumulated effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B60K2360/146—
-
- B60K2360/1464—
-
- B60K2360/148—
-
- B60K2360/21—
Abstract
Description
Stand der TechnikState of the art
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Beeinflussen einer Text-zu-Sprache-Ausgabe, auf ein Verfahren zum Ausgeben von Text als Sprache, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.The present invention relates to a method for influencing a text-to-speech output, to a method for outputting text as speech, to a corresponding device and to a corresponding computer program product.
Die
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund wird mit dem hier vorgestellten Ansatz ein Verfahren zum Beeinflussen einer Text-zu-Sprache-Ausgabe, ein Verfahren zum Ausgeben von Text als Sprache, weiterhin eine Vorrichtung, die eines dieser Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.Against this background, with the approach presented here, a method for influencing a text-to-speech output, a method for outputting text as a language, furthermore a device which uses one of these methods and finally a corresponding computer program product according to the main claims are presented. Advantageous embodiments emerge from the respective subclaims and the following description.
Informationen können einen Informationsempfänger auf verschiedenen Übertragungswegen erreichen. Insbesondere kann der Informationsempfänger die Informationen über seine Sinnesorgane aufnehmen. Um die, im Allgemeinen als wichtigste Sinnesorgane bezeichneten Augen zu entlasten, kann eine als Text vorliegende Information vorgelesen werden. Dadurch können die Augen andere Informationen aufnehmen. Information can reach an information recipient on different transmission paths. In particular, the information recipient can receive the information about his sense organs. In order to relieve the eyes, which are generally referred to as the most important sensory organs, it is possible to read out textual information. This allows the eyes to record other information.
Die Erfindung eignet sich in besonderer Weise auch für ein sogenanntes Fahrer-Informations-System in einem Fahrzeug, das Informationen an den Fahrzeugführer ausgibt. The invention is particularly suitable for a so-called driver information system in a vehicle that outputs information to the driver.
Wenn das Vorlesen, also eine Ausgabe von Text als Sprache von dem Informationsempfänger gesteuert werden soll, bedarf es einer Möglichkeit, einen Befehl des Informationsempfängers an ein Gerät für die Ausgabe zu übermitteln.If the reading aloud, that is to say an output of text as a language, is to be controlled by the information receiver, it is necessary to be able to transmit an instruction of the information receiver to a device for the output.
Der hier vorgestellte Ansatz basiert auf der Erkenntnis, dass ein Vorlesen von Text durch Gebärden oder Gesten des Informationsempfängers gesteuert werden kann, ohne dabei beispielsweise reelle oder virtuelle Schaltflächen zu bedienen. Die Gebärden können von dem Informationsempfänger frei im Raum ausgeführt werden. Ein Bewegungsablauf der Gebärde kann dabei ein Steuerkommando und/oder eine Abfolge von Steuerkommandos repräsentieren. Die Gebärden können dabei selbsterklärend sein. Die Gebärden können auch einfache Bewegungen sein, die mit einem abstrakten Steuerkommando logisch verknüpft sind.The approach presented here is based on the recognition that reading aloud text can be controlled by gestures or gestures of the information recipient without, for example, serving real or virtual buttons. The gestures can be executed by the information receiver freely in the room. A movement sequence of the gesture can represent a control command and / or a sequence of control commands. The gestures can be self-explanatory. The gestures can also be simple movements that are logically linked to an abstract control command.
Ein Verfahren zum Beeinflussen einer Text-zu-Sprache-Ausgabe an einen Bediener weist die folgenden Schritte auf:
Erfassen einer Gebärde des Bedieners in einer Gebärdeninformation;
Auswerten der Gebärdeninformation, um eine Anweisung des Bedieners zu erkennen;
Anpassen zumindest eines Parameters der Text-zu-Sprache-Ausgabe unter Verwendung der Anweisung, um die Text-zu-Sprache-Ausgabe zu beeinflussen.One method of affecting a text-to-speech output to an operator comprises the following steps:
Detecting a gesture of the operator in a gesture information;
Evaluating the gesture information to recognize an instruction of the operator;
Adjusting at least one parameter of the text-to-speech output using the instruction to affect the text-to-speech output.
Ein Verfahren zum Ausgeben von Text als Sprache weist den folgenden Schritt auf:
Bereitstellen eines Sprachsignals unter Verwendung zumindest eines Parameters, der mit einem Verfahren gemäß dem hier vorgestellten Ansatz beeinflusst wird.A method of outputting text as a language includes the following step:
Providing a speech signal using at least one parameter that is influenced by a method according to the approach presented here.
Unter einer Text-zu-Sprache-Ausgabe kann ein Verfahren zum Ausgeben von Text als Sprache verstanden werden. Bei der Text-zu-Sprache-Ausgabe kann ein Fließtext in eine akustische Sprachausgabe gewandelt werden. Beispielsweise kann die Text-zu-Sprache-Ausgabe einen elektronisch vorliegenden Text vorlesen. Eine Gebärde kann ein unterscheidbares Zeichen mit einer zugeordneten Bedeutung sein. Die Gebärde kann eine Geste sein. Die Gebärde kann insbesondere eine Bewegung des Bedieners sein. Die Bedeutung kann beispielsweise aus der Bewegung abgeleitet sein. Ebenso kann die Bedeutung willkürlich zu einer Bewegung zugeordnet sein. Die Gebärde kann beispielsweise an eine Gebärdensprache angelehnt sein. Eine Gebärdeninformation kann beispielsweise ein elektronisches Signal sein. Die Gebärdeninformation kann ein Abbild der Gebärde sein. Die Gebärdeninformation kann beispielsweise eine Trajektorie der Bewegung eines Körperteils der die Gebärde ausführenden Person repräsentieren. Eine Anweisung kann ein Kommando oder ein Befehl zur Steuerung einer Ausgabe von Sprache aus einem Textsegment sein. Die Anweisung kann auf einen Inhalt des Texts bezogen sein. Ebenso kann die Anweisung auf die Ausgabe des Texts bezogen sein. Ein Parameter kann beispielsweise eine Sprachgeschwindigkeit, eine Lautstärke, ein Verweis auf eine Textposition oder eine Hierarchieebene des Texts sein. Ein Sprachsignal kann ein elektrisches Signal für einen Lautsprecher oder ein akustisches Signal von einem Lautsprecher sein. Das Sprachsignal kann beispielsweise erstellt werden, indem Buchstaben und/oder Silben von Worten des Texts zu einem Sprache repräsentierenden Signal synthetisiert werden. Dabei kann der Parameter die selber Synthese und/oder einen Inhalt des synthetisierten Texts beeinflussen.A text-to-speech output may be understood to mean a method of outputting text as a language. In the text-to-speech output, a continuous text can be converted into an acoustic speech output. For example, the text-to-speech output may read an electronic text. A gesture can be a distinguishable character with an associated meaning. The gesture can be a gesture. The gesture may in particular be a movement of the operator. The meaning can be derived, for example, from the movement. Likewise, the meaning can be assigned arbitrarily to a movement. For example, the gesture may be based on a sign language. Sign information may be, for example, an electronic signal. The sign information can be an image of the gesture. For example, the gesture information may represent a trajectory of movement of a body part of the person performing the gesture. An instruction may be a command or command to control an output of speech from a text segment. The instruction may be related to a content of the text. Likewise, the instruction may be related to the output of the text. A parameter may be, for example, a voice speed, a volume, a reference to a text position or a hierarchical level of the text. A speech signal may be an electrical signal for a loudspeaker or an acoustic signal from a loudspeaker. The speech signal can be created, for example, by synthesizing letters and / or syllables of words of the text into a signal representing a speech. The parameter may influence the synthesis and / or content of the synthesized text itself.
Die Gebärde kann als räumliche Bewegungsfolge zumindest eines Körperteils des Bedieners innerhalb eines Erfassungsraums einer Erfassungseinrichtung erfasst werden. Beispielsweise kann eine Kopfbewegung und/oder eine Handbewegung und/oder eine Rumpfbewegung erfasst werden. Ein Erfassungsraum kann frei im Raum angeordnet sein. Der Erfassungsraum kann eine räumliche Ausdehnung in Höhe, Breite und Tiefe aufweisen. Eine Erfassungseinrichtung kann die Gebärde beispielsweise über Ultraschall, über eine Video- bzw. Stereo-Video-Aufzeichnung, über elektromagnetische Wellen und/oder Felder und/oder über Lidar erfassen. The gesture can be detected as a spatial movement sequence of at least one body part of the operator within a detection space of a detection device. For example, a head movement and / or a hand movement and / or a trunk movement can be detected. A detection room can be arranged freely in the room. The detection space can have a spatial extent in height, width and depth. A detection device can detect the gesture, for example, via ultrasound, via a video or stereo video recording, via electromagnetic waves and / or fields and / or via lidar.
Die Gebärdeninformation und ein Sprachbefehl des Bedieners können ansprechend auf den Sprachbefehl ausgewertet werden, um die Anweisung des Bedieners zu erkennen. Ein Sprachbefehl kann ein akustisches Kommando des Bedieners sein. Die Ausgabe der Sprache kann über beide Eingabemöglichkeiten gesteuert werden. Durch eine Steuerung über Gebärden und Sprache kann eine schnelle und/oder präzise Steuerung erreicht werden.The gesture information and a voice command of the operator may be evaluated in response to the voice command to recognize the instruction of the operator. A voice command can be an acoustic command from the operator. The output of the language can be controlled via both input options. Control over gestures and speech can provide fast and / or precise control.
Das Verfahren kann einen Schritt des Vergleichens der Anweisung mit einer vorhergehend erkannten Anweisung des Bedieners aufweisen, um eine Anweisungsfolge zu erkennen, wobei im Schritt des Anpassens der Parameter ferner unter Verwendung der Anweisungsfolge angepasst wird. Eine Anweisungsfolge kann beispielsweise eine Kombination aus Anweisungen sein. Die Anweisungen können kumuliert werden. Beispielsweise kann die Anweisung die vorhergehend erkannte Anweisung konkretisieren und/oder ergänzen. The method may include a step of comparing the instruction with a previously recognized instruction of the operator to identify a sequence of instructions, wherein in the adjusting step, the parameter is further adjusted using the instruction sequence. For example, a sequence of instructions may be a combination of instructions. The instructions can be cumulated. For example, the instruction can concretize and / or supplement the previously recognized instruction.
Die Anweisung kann als ein Beschleunigungsbefehl, ein Verlangsamungsbefehl, ein Startbefehl, ein Pausenbefehl, ein Vorwärtsbefehl, ein Rückwärtsbefehl, ein Aufwärtsbefehl und/oder ein Abwärtsbefehl erkannt werden. Durch eine diskrete Anzahl von Befehlen kann jeder Gebärde ein eindeutiger Befehl zugeordnet werden. Die unterschiedlichen Gebärden können beispielsweise lineare und/oder kreisförmige Bewegungen eines Körperteils, insbesondere einer Hand des Bedieners sein. The instruction may be recognized as an acceleration command, a deceleration command, a start command, a pause command, a forward command, a backward command, an up command, and / or a down command. Through a discrete number of commands each gesture can be assigned a unique command. The different gestures may be, for example, linear and / or circular movements of a body part, in particular a hand of the operator.
Ansprechend auf den Beschleunigungsbefehl kann ein Text schneller als vor dem Beschleunigungsbefehl ausgegeben werden. Ansprechend auf den Verlangsamungsbefehl kann der Text langsamer als vor dem Verlangsamungsbefehl ausgegeben werden. Ansprechend auf den Startbefehl kann mit der Text-zu-Sprache-Ausgabe begonnen werden. Ansprechend auf den Pausenbefehl kann die Text-zu-Sprache-Ausgabe unterbrochen werden. Ansprechend auf den Vorwärtsbefehl kann ein zeitlich und/oder in einer Reihenfolge nachfolgendes Textelement ausgegeben werden. Ansprechend auf den Rückwärtsbefehl kann ein zeitlich und/oder in einer Reihenfolge vorausgehendes Textelement ausgegeben werden. Ansprechend auf den Aufwärtsbefehl kann ein Textelement einer höheren Hierarchieebene als vor dem Aufwärtsbefehl ausgegeben werden. Ansprechend auf den Abwärtsbefehl kann ein Textelement einer niedrigeren Hierarchieebene als vor dem Abwärtsbefehl ausgegeben werden.In response to the acceleration command, a text may be output faster than before the acceleration command. In response to the deceleration command, the text may be output more slowly than before the deceleration command. In response to the start command, the text-to-speech output can be started. In response to the pause command, the text-to-speech output may be interrupted. In response to the forward command, a text element following in chronological order and / or in sequence may be output. In response to the backward command, a temporal and / or sequential text element may be output. In response to the up command, a text element of a higher hierarchical level may be output than before the up command. In response to the down command, a text element of a lower hierarchical level may be output than before the down command.
Das Verfahren kann einen Schritt des Ausgebens einer Bestätigung des Erkennens der Anweisung aufweisen. Die Bestätigung kann optisch und/oder akustisch erfolgen. Beispielsweise kann die Bestätigung über eine Sprachausgabe oder einen Signalton erfolgen. Beispielsweise können ein oder mehrere Worte ausgegeben werden, die einen Kontext der erkannten Anweisung wiedergeben. Ebenso kann die Bestätigung über eine Signalleuchte oder eine optische Anzeige erfolgen.The method may include a step of issuing an acknowledgment of the acknowledgment of the instruction. The confirmation can be made optically and / or acoustically. For example, the confirmation may be via a voice output or a beep. For example, one or more words may be output that reflect a context of the recognized statement. Likewise, the confirmation can be done via a signal light or a visual display.
Das Verfahren kann einen Schritt des Bereitstellens eines Namens einer Hierarchieebene eines aktuell ausgewählten Textsegments aufweisen, wobei der Name ansprechend auf einen Anfang des aktuellen Textsegments bereitgestellt wird. Unter einer Hierarchieebene kann ein Strukturelement einer Strukturierung des Texts verstanden werden. Beispielsweise kann ein Text einen Titel, einen Betreff, einen Hinweis auf einen Verfasser, eine Zusammenfassung und/oder eine Mehrzahl von Absätzen aufweisen.The method may include a step of providing a name of a hierarchical level of a currently selected text segment, the name being provided in response to a beginning of the current text segment. A hierarchical level can be understood as a structural element of structuring the text. For example, a text may include a title, a subject, an author reference, a summary, and / or a plurality of paragraphs.
Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte eines der erfindungsgemäßen Verfahren in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. The present invention further provides an apparatus configured to perform the steps of one of the methods of the invention in corresponding devices. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung eines der Verfahren nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product with program code which is stored on a machine-readable carrier such as a semiconductor memory, may be stored in a hard disk memory or an optical memory and used to perform any of the methods of any of the embodiments described above when the program product is executed on a computer or device.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:The invention will now be described by way of example with reference to the accompanying drawings. Show it:
In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of preferred embodiments of the present invention, the same or similar reference numerals are used for the elements shown in the various figures and similarly acting, wherein a repeated description of these elements is omitted.
Die Einrichtung
Mit anderen Worten zeigt
Freiraum-Gestensteuerung ermöglicht intuitive und ablenkungsarme Eingabekommandos z. B. per Handbewegung. Die Gesten und Gebärden können insbesondere e-Feld-, Radar- und/oder ultraschallbasiert erfasst werden. Free space gesture control allows intuitive and distraction-free input commands z. B. by hand. The gestures and gestures can be detected in particular e-field, radar and / or ultrasound-based.
Die intuitiven Gesten werden in der Vorrichtung
Der hier vorgestellte Ansatz kann beispielsweise bei Headunits verwendet werden. Grundsätzlich sind aber auch Instrument Cluster oder Center Stacks und ebenso Anwendungen mit jeglichen Tablets oder industriellen Bedienkonsolen oder Automaten denkbar.The approach presented here can be used, for example, in head units. In principle, however, instrument clusters or center stacks as well as applications with any tablets or industrial control consoles or machines are conceivable.
Mit anderen Worten zeigt
In den
Anhand von
Anhand von
Anhand von
Anhand von
Mit anderen Worten zeigt
In einer ersten Zeile
Üblicherweise ist bei TTS eine Lesegeschwindigkeit voreingestellt, die man als eher langsam bezeichnen kann. Diese ist für die gute Verständlichkeit von z. B. Menüpunkten empfehlenswert, erfordert in diesem Beispiel auf der anderen Seite auch nicht zu viel Zeit zum Zuhören. Für längere Texte (z. B. E-Mails oder Newsfeeds) ist jedoch eine schnellere und/oder variable Vorlesegeschwindigkeit vorteilhaft. Beispielsweise können drei Geschwindigkeitsstufen für die Sprachausgabe sowie als vierte Stufe ein Scan-Modus eingeführt werden. Dabei bezeichnet die Normale Geschwindigkeit eine normale (mäßige) Lesegeschwindigkeit. Das schnelle Vorlesen bezeichnet eine Ausgabe mit doppelter Geschwindigkeit. Das sehr schnelle Vorlesen bezeichnet eine Ausgabe mit dreifacher bis vierfacher Geschwindigkeit (abhängig von Deutlichkeit der Sprachengine). Im Scan-Modus (springen) können lediglich die ersten fünf Wörter eines Satzes schnell gelesen werden (doppelte Geschwindigkeit). Weiterhin können nur die ersten 3 Sätze eines Absatzes gelesen werden. Danach kann in den nächsten Absatz gesprungen werden. Auch hier kann mit Gesten zwischen den Stufen gewechselt werden.Usually TTS has a read speed that can be described as rather slow. This is for the good understanding of z. For example, menu items recommended in this example on the other side does not require too much time to listen. For longer texts (eg e-mails or newsfeeds), however, a faster and / or variable reading speed is advantageous. For example, three speed levels can be introduced for the voice output as well as a fourth level, a scan mode. The Normal Speed indicates a normal (moderate) reading speed. Fast reading means double speed output. The very fast reading means an output with three to four times the speed (depending on the clarity of the language engine). In the scan mode (jump) only the first five words of a sentence can be read quickly (double speed). Furthermore, only the first 3 sentences of a paragraph can be read. Then you can jump to the next paragraph. Again, gestures can be used to switch between levels.
In einer zweiten Zeile
In einer dritten Zeile
In einer vierten Zeile
In einer fünften Zeile
In einer sechsten Zeile
In einer siebten Zeile
In einer achten Zeile
Mit anderen Worten zeigt
Mit dem hier vorgestellten Ansatz ist unter Verwendung von beispielsweise acht einfachen, intuitiven Gesten eine umfassende (vollständige) Steuerung einer Sprachausgabe durch strukturierte Textelemente und innerhalb von Text möglich, wodurch die Effizienz der Sprachausgabe erheblich gesteigert wird. Damit ist erstmals ein handhabbarer Gebrauch von Sprachausgabe für Anwendungen wie E-Mail, Newsfeed, aber auch eine deutliche Verbesserung für SMS möglich.With the approach presented here, for example, using eight simple, intuitive gestures, a comprehensive (complete) control of a speech output by means of structured text elements and within text is possible, whereby the efficiency of the speech output is considerably increased. This is the first time a manageable use of speech output for applications such as e-mail, newsfeed, but also a significant improvement for SMS possible.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander oder auch multimodal mit anderen Ein-/Ausgabekanälen wie Display-Anzeige oder Sprach- oder Dreh-/Drückstellereingaben kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. The embodiments described and shown in the figures are chosen only by way of example. Different embodiments may be combined with each other in their entirety or in relation to individual features or also multimodally with other input / output channels such as display display or voice or rotary / push-button inputs. Also, an embodiment can be supplemented by features of another embodiment.
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden. Furthermore, method steps according to the invention can be repeated as well as carried out in a sequence other than that described.
Umfasst ein Ausführungsbeispiel eine „und/oder“ -Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102008051757 A1 [0002] DE 102008051757 A1 [0002]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210219852 DE102012219852A1 (en) | 2012-10-30 | 2012-10-30 | Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210219852 DE102012219852A1 (en) | 2012-10-30 | 2012-10-30 | Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102012219852A1 true DE102012219852A1 (en) | 2014-04-30 |
Family
ID=50479700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201210219852 Pending DE102012219852A1 (en) | 2012-10-30 | 2012-10-30 | Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102012219852A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016087902A1 (en) * | 2014-12-05 | 2016-06-09 | Audi Ag | Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device |
CN111157988A (en) * | 2020-02-27 | 2020-05-15 | 中南大学 | Gesture radar signal processing method based on RDTM and ATM fusion |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008051757A1 (en) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodal user interface of a driver assistance system for entering and presenting information |
-
2012
- 2012-10-30 DE DE201210219852 patent/DE102012219852A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008051757A1 (en) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodal user interface of a driver assistance system for entering and presenting information |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016087902A1 (en) * | 2014-12-05 | 2016-06-09 | Audi Ag | Operating device for a vehicle, in particular a passenger vehicle; as well as method for operating such an operating device |
CN107003142A (en) * | 2014-12-05 | 2017-08-01 | 奥迪股份公司 | The operation device and its operating method of vehicle particularly passenger stock |
CN111157988A (en) * | 2020-02-27 | 2020-05-15 | 中南大学 | Gesture radar signal processing method based on RDTM and ATM fusion |
CN111157988B (en) * | 2020-02-27 | 2023-04-07 | 中南大学 | Gesture radar signal processing method based on RDTM and ATM fusion |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1853465B1 (en) | Method and device for voice controlling a device or system in a motor vehicle | |
EP2451672B1 (en) | Method and device for providing a user interface in a vehicle | |
DE202017104779U1 (en) | Radar-based gesture interface | |
EP3224831B1 (en) | Motor vehicle operating device with a correction strategy for voice recognition | |
DE112006002954T5 (en) | Virtual interface system | |
EP1830244A2 (en) | Method and device for operating at least two functional components of a system, in particular of a vehicle | |
DE102008052485A1 (en) | Method and device for displaying list-ordered information | |
DE102007043935A1 (en) | Vehicle system with help functionality | |
DE10008226C2 (en) | Voice control device and voice control method | |
EP3040817A1 (en) | Device and method for inputting a text using virtual control elements with haptic feedback for simulating key haptics, especially in a motor vehicle | |
EP2300258B1 (en) | Communication system and method for representing information in a communication | |
DE102014221053A1 (en) | Method and device for providing a user interface in a vehicle | |
DE102012219852A1 (en) | Method for manipulating text-to-speech output to operator, involves detecting gesture of operator in gesture information and evaluating gesture information to detect operator command, where parameter of text-to-speech output is adjusted | |
DE112015003357T5 (en) | Method and system for recognizing a voice prompt containing a word sequence | |
WO2021004683A1 (en) | Method and operating system for detecting a user input for a device of a vehicle | |
DE102007042583B4 (en) | Method for communication between a natural person and an artificial speech system and communication system | |
DE102020001658B3 (en) | Procedure for securing the takeover of control of a vehicle | |
EP3115886A1 (en) | Method for operating a voice controlled system and voice controlled system | |
EP3718810A1 (en) | Method and device for operating electronically controllable components of a vehicle | |
EP3966064A1 (en) | Method for operating an operating system in a vehicle and operating system in a vehicle | |
DE102014018423B4 (en) | Motor vehicle with a status display that can be interpreted by peripheral vision and a corresponding method | |
DE102021003074B3 (en) | Method and device for generating voice output in a vehicle | |
DE102017211518A1 (en) | Method for creating a virtual environment for a user in a vehicle, corresponding virtual reality system and vehicle | |
DE102011015693A1 (en) | Method for providing graphical user interface (GUI) for operating navigation system in vehicle, involves selecting voice modes of GUI by control keys whose positions are independent or dependent on graphical objects of GUI | |
WO2021004681A1 (en) | Method for operating an operator control system, and operator control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |