DE102006055252B4 - Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen - Google Patents
Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen Download PDFInfo
- Publication number
- DE102006055252B4 DE102006055252B4 DE102006055252.0A DE102006055252A DE102006055252B4 DE 102006055252 B4 DE102006055252 B4 DE 102006055252B4 DE 102006055252 A DE102006055252 A DE 102006055252A DE 102006055252 B4 DE102006055252 B4 DE 102006055252B4
- Authority
- DE
- Germany
- Prior art keywords
- terminal
- telecommunication terminal
- menu
- user
- telecommunication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1624—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/161—Indexing scheme relating to constructional details of the monitor
- G06F2200/1614—Image rotation following screen orientation, e.g. switching from landscape to portrait mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Abstract
Verfahren zur Bedienung eines Telekommunikationsendgerätes, das Telekommunikationsendgerät weist mindestens einen Neigungssensor und/oder mindestens einen Drehbewegungssensor und/oder mindestens einen Beschleunigungssensor und mindestens ein Mikrofon auf, wobei die interaktive Bedienung des Telekommunikationsendgerätes aus einer Kombination von Sprachanweisungen und räumlichen Bewegungen des Telekommunikationsendgerätes erfolgt, dadurch gekennzeichnet, dass die Navigation durch Menüs über die Bewegung im Raum erfolgt und die Auswahl des Menü-Punktes durch mindestens ein Sprachkommando erfolgt, indem das Durchrollen von Menü-Punkten durch die Neigung des Endgerätes so erfolgt, dass beim Nutzer die Vorstellung vom Rollen einer Kugel auf einer geneigten Fläche geprägt wird, und wobei der Benutzer durch Sprechen mindestens einer Steueranweisung, wie „Halt“, „Stopp“ und/oder „Aktivieren“, das Rollen durch die Menü-Punkte anhält, um eine mit dem Menü-Punkt verbundene Funktionalität durch einen gesprochenen Ausführungsbefehl zu aktivieren.
Description
- Die Erfindung betrifft eine Anordnung und ein Verfahren, welches es ermöglicht, in einem mobilen, mit mindestens einem Display ausgestatteten Endgerät unter einhändiger Nutzung von Neigungs- und/oder Bewegungssensoren, sowie von Sprachtechnologie Displayinhalte bzw. auf dem Display dargestellte Objekte im Rahmen von 3D-Interaktionen auszuwählen und/oder ihre Darstellungsweise zu verändern.
- Hintergrund der Erfindung:
- Es ist bekannt ein auf einem Bildschirm dargestelltes und ggf. ausgewähltes Objekt (z.B. Menüoption) temporär durch besondere Farbgestaltung, Helligkeit, Umrandung oder Zeigerelemente zu kennzeichnen. Ein solcher Ansatz wird immer dann verfolgt, wenn ein elektronisches Gerät eine Benutzerschnittstelle aufweist, die es erlaubt einen oder mehrere Optionen auszuwählen.
- Bekannt sind multimodale Dialogsysteme (siehe http://www.w3.org/TR/mmi-framework/) für die eine Vielzahl von multimodalen Eingabemöglichkeiten wie Sprache, Tastatur, Griffel, Touchscreen, GPS vorgesehen sind. Eine weitere Technologie zur Eingabe von Nutzerreaktionen ergibt sich aus der Auswertung von Sensorsignalen zur Bestimmung von Bewegung und/oder Neigung eines Endgerätes (StdT).
- Eine Lösung für eine ähnliche Aufgabenstellung zum Durchscrollen eines Bildschirminhaltes (z.B. Namen in einem Telefonverzeichnis/Tabelle) unter Nutzung von Neigungssensoren wurde schon in
JP 07064754 A US5602566A beschrieben. Gleichzeitig ist hier zum Starten und Beenden des Durchrollens ein zusätzlicher mit einem Finger zu bedienender Schalter erforderlich, der die Handhabbarkeit einschränkt. - Aus der
US6201554B1 sind zusätzliche Aktivierungstasten zum Ein- und/oder Umschalten der durch die Neigung des Gerätes zu beeinflussenden Parameter bekannt. - Sowohl
DE29913814U1 , als auchDE10231570A1 offenbaren ein Mobilfunkgerät, welches mit mindestens einem Beschleunigungs- bzw. Bewegungssensor ausgestattet ist und damit über bestimmte definierte Bewegungen bestimmte Funktionen ausführen kann. In beiden Fällen dienen allein Bewegungen der Auswahl von Funktionen. - Die
DE10317542A1 beschreibt die Nutzung von Beschleunigungssensoren in einem Mobiltelefon zur Emulation einer Computermaus durch dieses Endgerät. Dabei erfolgt gemäß Zeichnung die Übertragung der Daten an den Computer über eine Steckverbinderschnittstelle. - Auch
DE10132243C2 offenbart eine handgehaltene Einrichtung zur Erzeugung und Übermittlung von Orts-, Lage- und/oder Bewegungsdaten und zur Steuerung von Anwendungen der virtuellen Realität. - Die Druckschriften
US2005/0212766A1 EP 1 717 676A1 offenbaren Eingabeverfahren in ein mobiles Endgerät bei dem Sprache und Bewegungserkennung eines mobilen Endgerätes verwendet werden. DieUS 2005/0197058 A1 - Alle genannten Verfahren und Systeme beschreiben nur die Nutzung eines Eingabemodus über Neigung oder Bewegung zur Steuerung von Funktionen des Gerätes oder einer auf dem Gerät dargestellten Anwendung. Eine bessere Bedienbarkeit von Endgeräten, wie z.B. Smartphones, ist, wie bekannt erst durch vielfältige multimodale Eingabemöglichkeiten erreicht. Die Definition von Start und Ende, einer durch die Neigung eines Gerätes ausgelösten Bewegung einer Darstellung auf dessen Display, allein durch Tastatur- oder wiederum andere Bewegungsaktionen schränken den Nutzer in seinen Interaktionsmöglichkeiten ein.
- Die Nutzung des Displays eines mobilen Endgerätes als virtuelle Linse zur Auswahl eines Teilbereiches eines virtuellen Fensters ist aus der
GB2357684A - Überblick über die Erfindung:
- Ziel ist es somit, nach Lösungen zu suchen, die weiterhin eine Bedienung über die Bewegung des Endgerätes gewährleisten, die jedoch keine zusätzlichen Eingaben über Schalter oder Tasten erfordern.
- Gelöst wird diese Aufgabe durch eine Erfindung mit den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Ausführungsform finden sich in den Unteransprüchen.
- Insbesondere handelt es sich bei der Erfindung um ein Verfahren zur Bedienung von Anwendungen, die auf einem Telekommunikationsendgerät implementiert sind. Bei diesem Gerät kann es sich um ein herkömmliches Mobiltelefon, einen PDA (Personal Digital Assistant), Smartphone oder ähnliches handeln. Die Geräte sind oftmals mit einer sehr komplexen Benutzeroberfläche versehen, die z.B. zusätzlich zu gewöhnlichen Tasten über Kipptasten oder -stifte, welche ähnlich einem Joystick in verschiedene Richtungen gekippt werden können oder über einen Touchscreen anzusteuern sind. Ferner gibt es eine Reihe von Funktionstasten, die die Auswahl von Menüpunkten erlaubt. Auch gibt es Telekommunikationsendgeräte mit Richtungstasten. Für den Benutzer ist es oftmals sehr aufwendig diese Vielzahl von Funktionen z.B. über Menüs zu steuern. Insbesondere dann, wenn er noch zusätzlich einen Stift benötigt, um Funktionen und Menüs auszuwählen.
- Das erfindungsgemäße Telekommunikationsendgerät weist mindestens einen Neigungssensor und/oder mindestens einen Drehbewegungssensor und mindestens ein Mikrofon auf, wobei die interaktive Bedienung des Telekommunikationsendgerätes aus einer Kombination von Sprachanweisungen und räumlichen Bewegungen des Telekommunikationsendgerätes erfolgt.
- Es werden hierbei die Neigungen und/oder Drehbewegungen des Gerätes um verschiedene Achsen erkannt, die auch außerhalb des Endgerätes liegen können.
- In einer bevorzugten Ausführungsform erfolgt die Auswertung von Signalen (z.B. Sprachsignalen) und die Interpretation der damit verbunden Nutzereingabe durch das Gerät selber. Unter Umständen führt dies zu einer hohen Speicher- und/oder Prozessorlast des Gerätes. Aus diesem Grund kann es zweckmäßig sein, dass eine Auswertung von Signalen von Mikrofonen und/oder Sensoren oder Teilen davon auf einem durch ein drahtloses und/oder drahtgebundenes Netzwerk angeschlossenen Server erfolgt. Auf dem mit mindestens einem Prozessor ausgestatteten Server oder Serversystem ist mindestens ein Spracherkennungssystem installiert, welches die Sprache erkennt und mindestens einen erkannten Befehl in mindestens einer definierten Kurzform oder auch in der Textform an das System zurückgibt.
Ein ähnlicher Ansatz kann auch für die Interpretation der Sensorinformationen gewählt werden.Bei einer verteilten Lösung ist es ebenfalls möglich, dass die Neigungsbestimmung auf dem Endgerät und die Spracherkennung auf mindestens einem Serversystem erfolgen kann. Alternative Kombinationen sind ebenfalls denkbar. So kann z.B. die Verarbeitung übermittelter Neigungsdaten ebenfalls auf mindestens einem Serversystem durchgeführt werden. - In der bevorzugten Ausführungsform erfolgt die Navigation durch Menüs über die Bewegung des Gerätes im Raum und die Auswahl des Menü-Punktes durch mindestens ein Sprachkommando. Entsprechend des Auswahl-Klicks oder des Auswahltastendrucks kann mindestens eine sprachliche Äußerung ggf. in Kombination mit mindestens einer kurzen Bewegung benutzt werden. Ein Nutzer kann dann über die Neigung die auf dem Display des Endgerätes dargestellte Menüoptionen auswählen, indem je nach Neigung des Gerätes die Auswahl einer Option bzw. Funktion erfolgt. So kann die Auswahl schrittweise mit einer vorgegebenen Zeitdauer je Option in Richtung der Neigung durchrollen. Folglich verbleibt die Auswahl einen bestimmten Zeitraum auf dem aktuellen Menüpunkt, um dann zum nächsten zu springen.
- In einer weiteren alternativen Ausführungsform kann auch ein Durchrollen von Menüoptionen durch die Neigung des Endgerätes so erfolgen, dass die Vorstellung des Nutzers vom Rollen einer Kugel auf einer geneigten Fläche geprägt wird.
- In noch einer alternativen Ausführungsform kann die gewünschte Menüoption im Verhältnis zur Ausgangsposition einer Menümarkierung durch den Neigungswinkel oder Rotationswinkel des Endgerätes ausgewählt werden.
- Um dann die Auswahl zu bestätigen kann mindestens einSprachkommando eingesetzt werden.
- Ferner kann der Benutzer durch Sprechen mindestens einer Steueranweisung, wie z.B. „Halt“, „Stopp“ und/oder „Aktivieren“, die Bewegung der Kennzeichnung, insbesondere das Rollen durch die Menüoptionen, anhalten oder eine mit der Option verbundene Funktionalität durch einen gesprochenen Ausführungsbefehl aktivieren.
- All diese Funktionen können beliebig den Bewegungen und der Sprache zugewiesen werden.
- Durch die Kombination von Neigungs- und/oder Bewegungssensoren in mobilen Endgeräten mit Technologien der Spracherkennung, ergeben sich neue multimodale Interaktionsmöglichkeiten zur Steuerung von Softwareanwendungen durch den Nutzer. Im Unterschied zum Stand der Technik sind zur Ergänzung der Interaktion über die Neigung des Endgerätes über Sprachbefehle keine zusätzlichen Bedienhandlungen über Tasten oder Bedienhandlungen mit der zweiten Hand mehr erforderlich.
- Figurenliste
- Im Folgenden werden die Figuren beschrieben, auf die in der detaillierten Beschreibung der Ausführungsformen Bezug genommen wird.
- Es zeigt:
-
1 ein serverbasiertes System zur Auswahl von Objekten in Anwendungen der Telekommunikation; -
2 ein endgerätebasiertes kombiniertes System zur Auswahl von Objekten zur Anwendung in der Telekommunikation, welches z.B. Griffel, Tastatur, Touchsreen und Spracherkennung aufweist, wobei die Spracherkennungstechnologie oder Teile davon sowohl auf dem Endgerät, als auch auf einem externer Server implementiert sein können; -
3 eine Darstellung der Definition von Rotationsachsen; -
4 Beispiel für Rotationsmenüs; -
5 Beispiel für Objektauswahl in Form von Icons -
6 Beispiel für die Umschaltung in Porträt/Landschaftsmodus als Vergrößerungsoption durch Drehbeschleunigungssensoren; -
7 Beispiele für mögliche Bedienmodi für die Interaktionsachsen (Aktivierung von Modi/Funktionen, Bestätigung) - Beschreibung der bevorzugten Ausführungsform:
- Zur Realisierung der Aufgabenstellung wird ein Telekommunikationsendgerät
1 (siehe1 ), welches mit Neigungs- und/oder Drehbewegungssensoren2 ausgestattet ist, zusätzlich mit Mitteln verbunden, die es erlauben, dass der Nutzer einer Anwendung zusätzlich gesprochene, steuernde Anweisungen, wie z.B. „Stopp“, „Halt“ u.a. übermitteln kann. Zu diesen Mitteln gehören Technologien der Spracherkennung3a . - Die Auswertung der Sprach-
3a und Bewegungs-/Neigungssignale3b , kann sowohl auf dem Endgerät (wie in2 dargestellt), als auch, wie in1 dargestellt, auf einem über ein Netzwerk2 , insbesondere einem Funknetzwerk (z.B. GSM, UMTS, WLAN u.ä.), angeschlossenen Serversystem erfolgen. Dabei sind auch zwischen Netzwerkserver und/oder Endgerät verteilte Lösungen möglich. Beispielsweise kann die Neigungsbestimmung auf dem Endgerät und die Spracherkennung auf mindestens einem Serversystem erfolgen. - Ein solches Serversystem
4 beinhaltet z.B. einen Interaktions/ Applikation Manager6 , der zwischen der Eingabeerkennung3 und der Informationsausgabe5 angeordnet ist und die Eingaben verarbeitet, um die Informationsausgabe entsprechend anzusteuern. Die Eingabeinformationen werden unmittelbar über die Sensoren bzw. Mikrofon und ein Netzwerk2 an die Eingabeerkennung3 gesendet. Hierbei kann es sich z.B. um Tastatureingaben3 , Eingaben über berührungsempfindliche Bildschirme, Spracheingaben und/oder Signale von Neigungs- und/oder Bewegungssensoren handeln. Bewegungs-, Neigungs-, Beschleunigungs- und/oder Lageerkennungssensoren haben die entsprechenden Informationen erzeugt, die durch mindestens eine Bewegungs-, Neigungs-, Lageerkennungseinheit3b interpretiert werden. Mindestens eine Spracherkennung3a erkennt die Audioeingabe, die über das Mikrofon des Gerätes eingegeben wurde. Die Bedeutung der Eingaben während der multimodalen Interaktion des Nutzers mit entsprechenden Anwendungen kann in Medienmodellen festgelegt werden. - Die genannten Komponenten und Funktionen sind alle gemäß der Ausführungsform aus
1 auf dem Serversystem4 angeordnet. - Die
2 zeigt eine alternative Ausführungsform, bei der die identischen Funktionen, die in der Ausführungsform aus1 auf dem Serversystem4 angeordnet waren, nun auf dem mobilen Endgerät selber ablaufen. Die Informationsausgabe5 umfasst hierbei eine Sprachausgabe TTS5b und eine Displayausgabe5a . Entsprechende Mikrofone und Displays sind natürlich vorhanden, wie man der2 entnehmen kann. - Die Neigungen und / oder Drehbewegungen des Gerätes können dabei um verschiedene Achsen erfolgen (
3 ). Diese können sich auch außerhalb des Endgerätes befinden. So ist der3 zu entnehmen, dass drei Achsen für die Drehbewegung berücksichtigt werden. Der ersten Teilfigur zu entnehmen, dass das Menü momentan den Auswahlknopf T- online dunkel darstellt. Durch Bewegung um die x-Achse, könnte der Menüeintrag der oberhalb von „T-Online“ liegt „SIM-Manager“ angesteuert werden. Durch Rotation um die y-Achse könnte der Menüeintrag „Terminaldienste“, der links von „T-online“ liegt, angesteuert werden. Eine Rotation um die z-Achse könnte ein diagonales Wandern durch die Menüeinträge einleiten. - Über die Neigung kann der Nutzer nun z.B. auf dem Display des Endgerätes dargestellte Menüoptionen auswählen (
4 ), indem je nach Neigung des Gerätes vorhandene Optionen nach oben oder unten und/oder nach rechts oder links langsam ggf. schrittweise mit einer vorgegebenen Zeitdauer je Option durchrollen. Dies ist immer dann möglich, wenn die Menüstruktur linear untereinander ausgebildet ist, wie z.B. bei Pull-Down-Menüs. - Das Zielobjekt „Menüoption“ kann im Verhältnis zur Ausgangsposition einer Objektmarkierung auch durch den Neigungswinkel des Endgerätes ausgewählt werden. So kann z.B. eine Neigungsrotation um 45 Grad nach rechts um die Längsachse, im Bezug auf die Ausgangslage des Endgerätes, als eine Verschiebung der Markierung, um eine Displaybreite nach rechts definiert werden (Siehe
5 ). Einer Neigung um 30 Grad könnten 2/3 der Bildschirmbreite entsprechen. Ähnliches gilt dann für eine Neigungsrotation um die Querachse. Ist z.B. auf diese Art ein Objekt ausgewählt worden, so kann mindestens eine damit verbundene Funktion durch das Sprechen eines Bestätigungs- und/oder Ausführungsbefehls, wie z.B. das Wort „abspielen“ für eine Videosequenz aktiviert werden. Das Durchrollen von Menüoptionen durch die Neigung des Endgerätes kann durch die Vorstellung des Nutzers vom Rollen einer Kugel auf einer geneigten Fläche geprägt werden.
Eine Neigung nach rechts oder links (y-Achse) kann neben der Auswahl eines weiteren Menüs ebenfalls die Auswahl innerhalb des Menüs verschieben. - Entspricht ein während des Durchrollens von Optionen gekennzeichnetes Objekt dem Zielobjekt (z.B. Menüoption) des Nutzers, kann dieser durch Sprechen mindestens einer Steueranweisung, wie z.B. „Halt“, „Stopp“ oder „Aktivieren“ die Bewegung der Kennzeichnung (Rollen) durch die Menüoptionen anhalten bzw. wie oben beschrieben eine mit der Option verbundene Funktionalität durch einen gesprochenen Ausführungsbefehl aktivieren. Alternative Kommandoäußerungen sind natürlich denkbar.
- Charakteristische Bewegungen des Endgerätes können multimodal durch bestimmte Spracheingaben im Rahmen der Informationseingaben
3 durch gleichzeitiges Sprechen von Äußerungen bestätigt werden, welche z.B. die Bewegungs-, Drehrichtung und/oder Neigungsrichtung („Vor“, „Zurück“, „Links“, „Rechts“, „Oben“, „Unten“) und/oder ausgewählte Menüpunkte zum Ausdruck bringen. - Tritt hier z.B. ein Widerspruch zwischen ermittelten Bewegungs-, Drehrichtungen und/oder Neigungsrichtungen und der Bedeutung von gleichzeitigen Spracheingaben auf, so können z.B. entsprechende Eingaben ignoriert oder über eine Interaktion mit dem Nutzer nachgefragt werden, was z.B. eine versehentliche unerwünschte Aktivierung bestimmter Funktionen in nicht erschütterungsfreien Umgebungen oder während des Transportes eines eingeschalteten Endgerätes vermeidet.
- Diese Verfahren eignen sich insbesondere für Menüoptionen, welche nicht als Text, sondern über Grafiken bzw. Videosequenzen dargestellt werden.
- Die angegebenen gesprochenen Anweisungen an die Anwendung können gem. vorhandener Spracherkennungstechnologie auch durch mehrere Wörter oder Sätze zum Ausdruck gebracht werden.
- Die Bewegung der Kennzeichnung von Menüoptionen mit einer Computermaus, Griffel oder einem anderen auf dem Endgerät befindlichen mechanischen Steuerungsteil würde die Benutzung der zweiten Hand oder eines Fingers, der das Endgerät haltenden Hand erfordern, was ausgeprägte taktile Fähigkeiten voraussetzt, über die z.B. bestimmte ältere Nutzer nur noch eingeschränkt verfügen.
- Zur Orientierung des Nutzers über die mit Hilfe der genannten Sensoren erkannten Bewegungen können charakteristischen Bewegungen des Endgerätes bestimmte Sprachausgaben im Rahmen der Informationsausgaben
5 zugeordnet werden, welche z.B. die Drehrichtung („Vor“, „Zurück“, „Links“, „Rechts“, „Oben“, „Unten“) und/oder ausgewählte Menüpunkte zum Ausdruck bringen. Dienen dabei die Bewegungen des Endgerätes der Steuerung entfernter realer Objekte und/oder virtueller Computerobjekte, so kann ggf. mit der Ausführung einer erkannten Bewegung gewartet werden, bis über die Spracheingabe eine Bestätigungsanweisung erkannt wurde. - Eine weitere Möglichkeit zur einhändigen Auswahl von Funktionalitäten ist in
5 dargestellt. Die Bestätigung einer mit Hilfe der Auswertung von Neigungssensorsignalen oder Drehbeschleunigungssensors ausgewählten Funktion kann dabei sowohl über eine Drehung in der z-Achse, als auch separat oder zusätzlich über eine sprachliche Äußerung erfolgen. Durch die sich ergänzende Bestätigung sowohl über Sprache, als auch entsprechende Bewegungen erhöht sich die Wahrscheinlichkeit der Erkennung der gewünschten Aktion, z.B. in sich bewegenden, nicht erschütterungsfreien Umgebungen (z.B. Bahnfahrt oder Fahrt in anderen Fahrzeugen). - Sind Objekte, wie z.B. Menüoptionen auf dem Bildschirm des Endgerätes aufgrund ihrer geringen Größe nur schwer erkennbar, so wird durch eine Drehbewegung in einer vorgegebenen Richtung um eine definierte Achse eine vergrößerte Anzeige gekennzeichneter Objekte ausgelöst (
6 ). Um eine erneute Verkleinerung z.B. während des Zurückdrehens in die Ausgangslage zu vermeiden, können auch hier zur Gewährleistung der Einhandbedienung zusätzliche Sprachbefehle, wie z.B. „Stopp“ u.a. vorgesehen werden. Auch kann das Ein- bzw. Ausschalten des Zoom-Modus über sprachliche Anweisungen erfolgen. Eine andere Möglichkeit zur Erhaltung der erreichten Vergrößerung besteht in der Auswertung der Geschwindigkeit der Drehbewegungen. So kann z.B. eine langsame (alternativ schnellere), d.h. bis zu (alternativ ab) einer definierten Maximaldrehgeschwindigkeit, vollzogene Drehung nach rechts zu einer Vergrößerung führen. Bei schnelleren (oder alternativ langsameren) Drehungen bleibt die gerade eingestellte Vergrößerung erhalten. Die Drehgeschwindigkeit wird dabei mit Hilfe von Rotationsbeschleunigungssensoren in den erforderlichen Achsen ermittelt. - Eine weitere Möglichkeit zur einhändigen Steuerung der Darstellung besteht in der Drehung eines Endgerätes einschließlich Display um 90 Grad und der Erfassung der Drehung über die Drehbeschleunigungssensoren und der entsprechenden Umschaltung zwischen Porträt und Landschaftsmodus der Darstellung (
6 ). - Im den letzten beschriebenen Beispielen ist über eine Drehung in der z-Achse (
6 ) und ergänzendem Sprachkommando des Betätigungsmodus, die Bedienung im Zoom-Modus und die Umschaltung zwischen Porträt und Landschaftsmodus beschrieben worden. Grundsätzlich lassen sich über eine Drehung in dieser Achse auch andere Funktionen und Modi steuern. Welcher der mit der jeweiligen Anwendung möglichen Modi mit Hilfe der Drehung in der angegebenen Achse angesteuert wird, kann ähnlich einer Steuerung in einer zusätzlichen Dimension, über Sprachanweisungen eingegeben werden. - In der
7 wird eine Übersicht über die möglichen Funktionen bei der Bewegung des Gerätes im einer bestimmten Achse dargestellt. Die erste Spalte zeigt die Bewegungsachse, die weiteren beiden Spalten die Funktionen in Bezug zu den Beispielen aus den einzelnen Figuren und die letzte Spalte bestimmt Besonderheiten. - Die Ausführungsbeispiele sollen die Erfindung nicht beschränken. Sie dienen lediglich zum Verständnis. Der Schutzumfang wird durch die Ansprüche festgelegt.
- Begriffsdefinitionen
-
Medienmodell, Eingabemodell Beschreibt die Reihenfolge, in der Eingaben (z.B. Wörter, Bewegungsmuster) vom Medienerkenner (z.B. Spracherkenner, Lage-/Bewegungserkenner) erwartet werden (z.B. Sprachmodell, Bewegungsmodell), bzw. in der Ausgaben mit bestimmten Informationsinhalten generiert werden. Unimodale Interaktion Kommunikation mit einem System über einen Modus (z.B. nur Sprache, nur Tastatur, nur Maus usw.) Multimodale Interaktion Kommunikation mit einem System über mehrere Modi (z.B. Sprache und Griffel) TTS Text-To-Speech - Bezugszeichenliste
-
- 1
- Mobiles Endgerät
- 1a
- Neigungs-, Bewegungs- und/oder Beschleunigungssensoren
- 2
- Daten-, Sprach- und/oder Übertragungsnetz für multimodale Ein- und Ausgaben (z.B. Mobilfunknetz)
- 3
- Eingabeerkennung
- 3a
- Spracherkennung, Erkennung von DTMF-Tönen
- 3b
- Bewegungs-, Neigungs-, Lageerkennung
- 3c
- Erkennung anderer multimodaler Eingaben (Griffel, Tastatur, Kamera, Touchscreen, ...)
- 5
- Informationsausgabe (aufgezeichnete Sprache, Sprachsynthese, Displayanzeigen, Audiosignale, Gerätevibration)
- 5a
- Displayausgabe
- 5b
- Sprachausgabe, TTS
- 6
- Interaktions-/Applikationsmanagement
Claims (20)
- Verfahren zur Bedienung eines Telekommunikationsendgerätes, das Telekommunikationsendgerät weist mindestens einen Neigungssensor und/oder mindestens einen Drehbewegungssensor und/oder mindestens einen Beschleunigungssensor und mindestens ein Mikrofon auf, wobei die interaktive Bedienung des Telekommunikationsendgerätes aus einer Kombination von Sprachanweisungen und räumlichen Bewegungen des Telekommunikationsendgerätes erfolgt, dadurch gekennzeichnet, dass die Navigation durch Menüs über die Bewegung im Raum erfolgt und die Auswahl des Menü-Punktes durch mindestens ein Sprachkommando erfolgt, indem das Durchrollen von Menü-Punkten durch die Neigung des Endgerätes so erfolgt, dass beim Nutzer die Vorstellung vom Rollen einer Kugel auf einer geneigten Fläche geprägt wird, und wobei der Benutzer durch Sprechen mindestens einer Steueranweisung, wie „Halt“, „Stopp“ und/oder „Aktivieren“, das Rollen durch die Menü-Punkte anhält, um eine mit dem Menü-Punkt verbundene Funktionalität durch einen gesprochenen Ausführungsbefehl zu aktivieren.
- Das Verfahren wobei eine Auswertung von Signalen von den Sensoren und/oder die Spracherkennung auf dem Telekommunikationsendgerät selber und/oder auf einem durch ein drahtloses Netzwerk angeschlossenen Server erfolgen.
- Das Verfahren nach dem vorhergehenden Anspruch, wobei auch verteilte Lösungen möglich sind, so dass die Neigungsbestimmung auf dem Endgerät und die Spracherkennung auf mindestens einem Serversystem oder umgekehrt erfolgen kann.
- . Das Verfahren nach dem vorhergehenden Anspruch, wobei ein Nutzer über die Neigung des Telekommunikationsendgerätes auf dem Display des Endgerätes dargestellte Menüoptionen auswählt, indem je nach Neigung des Gerätes vorhandene Optionen nach oben oder unten und/oder nach rechts oder links langsam, vorzugsweise schrittweise, mit einer vorgegebenen Zeitdauer je Option durchrollt werden.
- Das Verfahren nach einem oder mehreren der vorhergehenden drei Ansprüche , wobei die gewünschte Menüoption im Verhältnis zur Ausgangsposition einer Menümarkierung durch den Neigungswinkel oder Rotationswinkel des Endgerätes ausgewählt wird.
- Das Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei die Neigungen und/oder Drehbewegungen des Gerätes um verschiedene Achsen erkannt werden, die auch außerhalb des Endgerätes liegen können.
- Das Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei Funktionen benutzerindividuell den Bewegungen des Endgerätes oder den Sprachausgaben im Rahmen der Informationsausgaben zugeordnet werden können.
- Das Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei durch eine Drehbewegung in einer vorgegebenen Richtung um eine definierte Achse eine vergrößerte Anzeige gekennzeichneter Objekte ausgelöst wird.
- Das Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei durch eine Drehung in der z-Achse und/oder ein ergänzendes Sprachkommando eine Umschaltung zwischen Porträt- und Landschaftsmodus erfolgt.
- Telekommunikationsendgerät, umfassend eine Netzwerkschnittstelle, mindestens einen Neigungssensor und/oder Drehbewegungssensoren und mindestens ein Mikrofon, wobei das Telekommunikationsendgerät so eingerichtet und konfiguriert ist, dass die interaktive Bedienung des Telekommunikationsendgerätes aus einer Kombination von mindestens einer Sprachanweisung und mindestens einer räumlichen Bewegung des Telekommunikationsendgerätes erfolgt, dadurch gekennzeichnet, dass die Navigation durch Menüs über die Bewegung im Raum erfolgt und die Auswahl des Menü-Punktes durch ein Sprachkommando erfolgt, indem das Durchrollen von Menüoptionen durch die Neigung des Endgerätes so erscheint, dass die Vorstellung des Nutzers vom Rollen einer Kugel auf einer geneigten Fläche geprägt wird, und der Benutzer durch Sprechen mindestens einer Steueranweisung, wie „Halt“, „Stopp“ und/oder „Aktivieren“, die das Rollen durch die Menüoptionen anhält, um eine mit der Option verbundene Funktionalität durch einen gesprochenen Ausführungsbefehl zu aktivieren.
- Das Telekommunikationsendgerät nach dem vorhergehenden Anspruch, wobei eine Auswerteinheit die Signale von den Sensoren auf dem Telekommunikationsendgerät selber auswertet und/oder die Signale zur Auswertung über ein drahtloses Netzwerk an einen angeschlossenen Server zur Auswertung sendet, der die Auswertung zurück sendet.
- Das Telekommunikationsendgerät nach dem vorhergehenden Anspruch, wobei Mittel vorhanden sind, um eine verteilte Lösung zu ermöglichen, so dass die Neigungsbestimmung auf dem Endgerät und die Spracherkennung auf mindestens einem Serversystem erfolgt.
- Das Telekommunikationsendgerät nach dem vorhergehenden Anspruch, umfassend eine Einrichtung, die es erlaubt, dass ein Nutzer über die Neigung auf dem Display des Endgerätes dargestellte Menüoptionen auswählt, indem er je nach Neigung des Gerätes durch vorhandene Optionen nach oben oder unten und/oder nach rechts oder links langsam, vorzugsweise schrittweise, mit einer vorgegebenen Zeitdauer je Option rollt.
- Das Telekommunikationsendgerät nach einem oder mehreren der vorhergehenden drei Ansprüche , wobei die Mittel die gewünschte Menüoption im Verhältnis zur Ausgangsposition einer Menümarkierung durch den Neigungswinkel oder Rotationswinkel des Endgerätes erkennen.
- Das Telekommunikationsendgerät nach einem oder mehreren der vorhergehenden Telekommunikationsendgerätansprüche, wobei die Mittel die Neigungen und/oder Drehbewegungen des Gerätes um verschiedene Achsen erkennen, die auch außerhalb des Endgerätes liegen können.
- Das Telekommunikationsendgerät nach einem oder mehreren der vorhergehenden Telekommunikationsendgerätansprüche, wobei veränderbare Einstellungen gegeben sind, durch die Funktionen benutzerindividuell den Bewegungen des Endgerätes und/oder den Sprachausgaben im Rahmen der Informationsausgaben zuordenbar sind.
- Das Telekommunikationsendgerät nach einem oder mehreren der vorhergehenden Telekommunikationsendgerätansprüche, wobei Mittel vorhanden sind, die eine Drehbewegung in einer vorgegebenen Richtung um eine definierte Achse erkennen, um dann eine vergrößerte Anzeige gekennzeichneter Objekte auszulösen.
- Das Telekommunikationsendgerät nach einem oder mehreren der vorhergehenden Telekommunikationsendgerätansprüche, wobei Mittel vorhanden sind, die aufgrund einer Drehung um die z-Achse und/oder eines ergänzenden Sprachkommandos eine Umschaltung zwischen Porträt- und Landschaftsmodus durchführen.
- Software für ein mobiles Telekommunikationsendgerät, die ein Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche implementiert.
- Datenträger mit einer Datenstruktur, die durch Laden in ein mobiles Telekommunikationsendgerät ein Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche implementiert.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006055252.0A DE102006055252B4 (de) | 2006-11-23 | 2006-11-23 | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006055252.0A DE102006055252B4 (de) | 2006-11-23 | 2006-11-23 | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102006055252A1 DE102006055252A1 (de) | 2008-05-29 |
DE102006055252B4 true DE102006055252B4 (de) | 2019-03-28 |
Family
ID=39326237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006055252.0A Expired - Fee Related DE102006055252B4 (de) | 2006-11-23 | 2006-11-23 | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102006055252B4 (de) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100818991B1 (ko) * | 2007-01-05 | 2008-04-07 | 삼성전자주식회사 | 기울임 기반 리스트 탐색에서 커서 위치 피드백을 제공하는장치 및 방법 |
EP2136281A1 (de) * | 2008-06-19 | 2009-12-23 | Gigaset Communications GmbH | Vorrichtung und Verfahren zur Steuerung einer Ausgabe von Informationselementen |
CN102150160B (zh) | 2008-09-12 | 2015-05-20 | 皇家飞利浦电子股份有限公司 | 手持设备上图形用户界面中的导航 |
DE102013016196B4 (de) | 2013-09-27 | 2023-10-12 | Volkswagen Ag | Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten |
US20170075653A1 (en) * | 2014-03-26 | 2017-03-16 | Sony Corporation | Electronic device and method for controlling the electronic device |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764754A (ja) | 1993-08-24 | 1995-03-10 | Hitachi Ltd | 小型情報処理装置 |
DE29913814U1 (de) | 1999-08-06 | 1999-10-28 | Wiesemann Sandra | Handy |
JP2000276325A (ja) * | 1999-03-25 | 2000-10-06 | Shimadzu Corp | 表示装置 |
US6201554B1 (en) | 1999-01-12 | 2001-03-13 | Ericsson Inc. | Device control apparatus for hand-held data processing device |
GB2357684A (en) | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
DE10132243C2 (de) | 2001-07-04 | 2003-04-30 | Fraunhofer Ges Forschung | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
DE10231570A1 (de) | 2002-07-11 | 2004-01-29 | Mobilegames24 | Mobilfunkendgerät und prozessorlesbares Speichermedium |
WO2004066615A1 (en) * | 2003-01-22 | 2004-08-05 | Nokia Corporation | Image control |
DE10317542A1 (de) | 2003-01-29 | 2004-08-12 | Eric Haas | Mobiltelefon und Vorrichtung zur Datenverarbeitung |
US20050197058A1 (en) | 2004-03-05 | 2005-09-08 | Benq Corporation | Hand-held electronic device and method for inputting users' instruction |
US20050212766A1 (en) | 2004-03-23 | 2005-09-29 | Reinhardt Albert H M | Translation controlled cursor |
EP1717676A1 (de) | 2005-04-30 | 2006-11-02 | Cornelius Kabus | Bewegungsgesteuertes Mobiltelefon |
-
2006
- 2006-11-23 DE DE102006055252.0A patent/DE102006055252B4/de not_active Expired - Fee Related
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764754A (ja) | 1993-08-24 | 1995-03-10 | Hitachi Ltd | 小型情報処理装置 |
US5602566A (en) | 1993-08-24 | 1997-02-11 | Hitachi, Ltd. | Small-sized information processor capable of scrolling screen in accordance with tilt, and scrolling method therefor |
US6201554B1 (en) | 1999-01-12 | 2001-03-13 | Ericsson Inc. | Device control apparatus for hand-held data processing device |
JP2000276325A (ja) * | 1999-03-25 | 2000-10-06 | Shimadzu Corp | 表示装置 |
DE29913814U1 (de) | 1999-08-06 | 1999-10-28 | Wiesemann Sandra | Handy |
GB2357684A (en) | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
DE10132243C2 (de) | 2001-07-04 | 2003-04-30 | Fraunhofer Ges Forschung | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
DE10231570A1 (de) | 2002-07-11 | 2004-01-29 | Mobilegames24 | Mobilfunkendgerät und prozessorlesbares Speichermedium |
WO2004066615A1 (en) * | 2003-01-22 | 2004-08-05 | Nokia Corporation | Image control |
DE10317542A1 (de) | 2003-01-29 | 2004-08-12 | Eric Haas | Mobiltelefon und Vorrichtung zur Datenverarbeitung |
US20050197058A1 (en) | 2004-03-05 | 2005-09-08 | Benq Corporation | Hand-held electronic device and method for inputting users' instruction |
US20050212766A1 (en) | 2004-03-23 | 2005-09-29 | Reinhardt Albert H M | Translation controlled cursor |
EP1717676A1 (de) | 2005-04-30 | 2006-11-02 | Cornelius Kabus | Bewegungsgesteuertes Mobiltelefon |
Non-Patent Citations (1)
Title |
---|
W3C Multimodal Interaction Framework, 06 May 2003, Recherchiert am 16.07.2007 im Internet unter URL:http:/www.w3.org/TR/mmi-framework; Abs.7.2 * |
Also Published As
Publication number | Publication date |
---|---|
DE102006055252A1 (de) | 2008-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2451672B1 (de) | Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug | |
WO2007104635A2 (de) | Verfahren zur auswahl von funktionen mithilfe einer benutzerschnittstelle und benutzerschnittstelle | |
DE102010027915A1 (de) | Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems | |
EP2223046A2 (de) | Multimodale benutzerschnittstelle eines fahrerassistenzsystems zur eingabe und präsentation von informationen | |
DE102009048043A1 (de) | Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung | |
DE102006055252B4 (de) | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen | |
EP3096969B1 (de) | Anwenderschnittstelle und verfahren zum steuern einer lautstärke mittels einer berührungssensitiven anzeigeeinheit | |
DE102009013922A1 (de) | Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü | |
DE102017122396A1 (de) | Fahrzeugseitige Betätigungsvorrichtung | |
EP2955614A1 (de) | Anwenderschnittstelle und verfahren zum anpassen einer semantischen skalierung einer kachel | |
DE10226644A1 (de) | Eingabegerät für eine Datenverarbeitungsanlage | |
EP2924551A1 (de) | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug | |
EP3508968A1 (de) | Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle | |
WO2013037476A1 (de) | Verfahren und vorrichtung zum anzeigen von informationen und zum bediene eines elektronischen geräts | |
WO2014056829A1 (de) | Bedienelement für eine anzeigevorrichtung in einem kraftfahrzeug | |
DE19744941A1 (de) | Eingabevorrichtung zur Fernbedienung von einfachen und kombinierten Aufnahme- und Wiedergabegeräten für Bild und Ton sowie von Präsentationseinrichtungen und Verfahren zu ihrer Anwendung bei elektronischen Präsentationen | |
DE102009059869A1 (de) | Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung | |
DE102008015273A1 (de) | Eingeben von Informationen unter Verwendung einer Scroll-Taste | |
DE102019210010A1 (de) | Verfahren und Bediensystem zum Erfassen einer Nutzereingabe für eine Einrichtung eines Fahrzeugs | |
EP2766210B1 (de) | Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung | |
DE102017218506A1 (de) | Vorrichtung, System und Verfahren zur Bedienung einer graphischen Benutzeroberfläche sowie Kraftfahrzeug | |
WO2021004682A1 (de) | Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug | |
DE102005024638A1 (de) | Verfahren zum Navigieren durch ein Menü eines elektronischen Geräts | |
EP1333364A2 (de) | Tastatur zur Zeicheneingabe bei elektronischen Geräten bestehend aus einem Sensorstreifen und ein Verfahren zur Benutzung eines Sensorstreifens zur Zeicheneingabe | |
DE102018132589A1 (de) | Steuerung einer Multimodalen Benutzerschnittstelle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
R012 | Request for examination validly filed |
Effective date: 20131113 |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H04Q0007320000 Ipc: H04W0088020000 Effective date: 20131121 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |