DE602004013116T2 - Haptische tastengesteuerte Dateneingabe - Google Patents

Haptische tastengesteuerte Dateneingabe Download PDF

Info

Publication number
DE602004013116T2
DE602004013116T2 DE602004013116T DE602004013116T DE602004013116T2 DE 602004013116 T2 DE602004013116 T2 DE 602004013116T2 DE 602004013116 T DE602004013116 T DE 602004013116T DE 602004013116 T DE602004013116 T DE 602004013116T DE 602004013116 T2 DE602004013116 T2 DE 602004013116T2
Authority
DE
Germany
Prior art keywords
haptic
button
menu
key
activation state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004013116T
Other languages
English (en)
Other versions
DE602004013116D1 (de
Inventor
Ralf Kompe
Jason Williams
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Deutschland GmbH
Original Assignee
Sony Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Deutschland GmbH filed Critical Sony Deutschland GmbH
Publication of DE602004013116D1 publication Critical patent/DE602004013116D1/de
Application granted granted Critical
Publication of DE602004013116T2 publication Critical patent/DE602004013116T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf eine Mensch-Computer-Schnittstelle mit haptischer Rückmeldung (Feedback) für einen schnellen Zugriff auf Informationen in komplexen, hierarchisch strukturierten Datenstrukturen.
  • Eines der häufigsten Mittel zum Bedienen einer grafischen Benutzeroberfläche (GUI, Graphical User Interface) ist durch die Anordnung von Cursortasten. Den Richtungen 'OBEN', 'UNTEN', 'LINKS' und 'RECHTS' sind bestimmte Tasten zugewiesen oder bestimmte Endbereiche einer einzelnen großen Taste. 'Auswählen' (Select) wird in der Regel durch eine eigene Taste gewählt. Ein anderes häufig verwendetes Verfahren bei der Interaktion von Mensch und Computer, das oft bei PDAs (Personal Digital Assistant) verwendet wird, ist der Stylus. Dieses Verfahren bedient sich des Einsatzes des Stylus im Großen und Ganzen auf dieselbe Weise wie der Einsatz eines Stifts. Zu Navigationszwecken kann die Richtungsauswahl eingesetzt werden, wobei sichtbare Elemente direkt angeklickt werden. Alternativ können Tasten zum Blättern (Scroll) verwendet werden, um in den Bildschirm eingebettete Navigationsentitäten zu bewegen. Der Nachteil dieser Systeme ist, dass jedes Mal beide Hände zur Eingabe von Daten erforderlich sind. Im Besonderen ist bei persönlichen mobilen elektronischen Geraten, die in der Hand gehalten werden, wie einem PDA, einem Mobiltelefon oder einem KFZ-Navigationssystem, ein Betrieb mit einer Hand gewünscht.
  • Einige in der Hand zu haltende Gerate verwenden daher eine haptische Interaktion mit mehreren Finger, wobei ein Finger, wie z. B. der Daumen, auf einer Steuertaste ruht, während andere Tasten an einer Seite des Geräts mit verschiedenen Finger der Hand ausgewählt werden können. Zur Auswahl eines Elements in einem durch die GUI dargestellten Menüs wird die Steuertaste verwendet, um den Cursor in der Elementliste nach oben und unten zu bewegen. Die letzte Auswahl erfolgt, indem eine der Fingertasten gedrückt wird.
  • Einige KFZ-Navigationssysteme erlauben die Navigation durch die Menüs einer grafischen Benutzeroberfläche mit einer einzelnen haptischen Steuertaste. Mit Drehen der Steuertaste wird eine Liste durchblättert. Das Drücken der Taste führt zu einer Auswahl. Jedes Mal, wenn der Benutzer einen Schritt in der Menühierarchie nach unten gelangen möchte, ist nur ein Druck der Steuertaste erforderlich. Um in übergeordnete Ebenen der Hierarchie zurückzukehren, muss in der Regel ein Menüelement oder Symbol "Zurück" (Up) auf dem Bildschirm ausgewählt werden. Das Finden des gewünschten Elements in einer komplexen und hierarchisch strukturierten Datenstruktur ist in den aktuellen mit einer Hand zu bedienenden Mensch-Computer-Schnittstellen ein mühseliges Unterfangen. Jedes Mal, wenn man eine Hierarchieebene weiter nach unten gelangen möchte, muss eine Taste einmal gedrückt werden. Das Durchblättern durch eine Liste von Elementen erfordert, dass die Tasten als Cursortasten verwendet werden. Der Wechsel in ein anderes Menü, das sich in einem anderen Zweig der hierarchischen Struktur befindet, erfordert eine Rückkehr in das erste allgemeine übergeordnetere Menü, wobei jedes Mal eine Taste gedrückt werden muss, um auf die nächsthöhere Ebene zurückzukehren.
  • In einem anderen Ansatz, wie z. B. in US 2001/0000668 A1 vorgeschlagen, wird die Bedienung eines Mobilgeräts mit einer beschränkten Anzahl von Tasten verwirklicht, indem jeder Taste eine spezielle Funktion zugewiesen wird, wodurch die Funktion vom Zustand des Systems und des GUI-Kontexts abhängt. Dieses Verfahren ist jedoch nicht für Menüoperationen mit tiefen Hierarchieebenen angemessen, wo ähnliche Begriffe für unterschiedliche Funktionalitäten verwendet werden. Zum Beispiel wird der Begriff 'Optionen' oftmals als ein Menüelement verwendet und kann verschiedene Male an unterschiedlichen Stellen in einer Menüstruktur für ein und dieselbe Anwendung auftreten. Die Funktionalitäten, auf die über 'Optionen' zugegriffen werden kann, hängen allerdings von den übergeordneten Knoten einer bestimmten ausgewählten Hierarchie ab. Um zu wissen, wofür ein bestimmter 'Optionen'-Begriff steht, ist es daher für einen Benutzer wichtig, die höheren Ebenen der bestimmten Hierarchie klar zu verstehen.
  • US 2003/0090456 A1 legt eine Vorrichtung zur Eingabe von Daten in eine datenverarbeitende Einrichtung (im Folgenden Computing-Einrichtung) offen, wobei die Vorrichtung zumindest zwei Tasten, eine grafische Benutzeroberfläche zum Darstellen der hierarchisch strukturierten Informationen für einen Benutzer der Computing-Einrichtung und Steuermittel zum Steuern des Generieren der Eingabedaten bezüglich einer ausgewählten Taste und der durch die grafische Benutzeroberfläche dargestellten Informationen aufweist.
  • Das Ziel der vorliegenden Erfindung ist die Bereitstellung einer Vorrichtung für die Dateneingabe in eine Computing-Einrichtung, die einem Benutzer die schnelle Navigation durch die hierarchisch strukturierte Datenstruktur mit einer beschränkten Anzahl von Tasten erlaubt, wie auch eine weitere Rückmeldung an den Benutzer bezüglich der zu treffenden Auswahl liefert.
  • Das Ziel wird durch eine Vorrichtung zur Dateneingabe in eine Computing-Einrichtung gemäß dem Hauptanspruch 1 erreicht.
  • Eine haptische Taste ist eine Taste, die den menschlichen Tastsinn und/oder die Rückmeldung der Muskeln nutzt, um dem Benutzer eine Rückmeldung bezüglich ihres aktuellen Aktivierungszustands zu liefern. Das wird nützlicherweise durch eine Druck-Rückmeldung und/oder durch spezielle Echo-Merkmale erreicht, wie zum Beispiel mechanisch sensible Klicks, die ein Gefühl des aktuellen Zustands der Tastenaktivierung an den menschlichen Tastsinn übertragen.
  • Die Vorrichtung gemäß der vorliegenden Erfindung bietet eine verbesserte Schnittstelle für eine Mensch-Computer-Interaktion, die eine kontextsensitive Dateneingabe mehrerer Befehle in einer einzigen Aktion ermöglicht.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden in den Unteransprüchen definiert.
  • Im Besonderen ist die Vorrichtung bei in der Hand gehaltenen Geräten mit vier haptischen Tasten ausgestattet, die eine schnelle Bedienung mit vier Fingern abgewandt zum Daumen der menschlichen Hand ermöglichen. Durch die Anordnung der haptischen Tasten in einer Linie an einer ersten Seitenwand der Vorrichtung ist ein Benutzer in der Lage, die restlichen vier Finger der Hand abgewandet zum Daumen auf den Tasten dauerhaft abzulegen, so dass die Tasten ohne Verzögerung bedient werden können.
  • In einer bevorzugten Ausführungsform umfasst die Vorrichtung eine fünfte Taste mit mindestens einem klar ersichtlichen Aktivierungszustand, die das Steuermittel veranlasst, vordefinierte Eingabedaten unabhängig von der durch die graphische Benutzeroberfläche dargestellten Information zu generieren. Somit kann der Benutzer einen Befehl eingeben, der nicht in der grafischen Benutzeroberfläche dargestellt wird. Für eine ergonomische Handhabung der Vorrichtung ist die fünfte Taste bevorzugt an einer zweiten Seitenwand abgewandt zur ersten Seitenwand angeordnet. In einer weiteren vorteilhaften Ausführungsform der vorliegenden Erfindung bietet die fünfte Taste eine Auswahl- und Einstellfunktion, die zum Beispiel zum Wechseln zwischen den verschiedenen der Taste zugewiesenen Funktionen verwendet werden kann, oder um die Zuweisung für die anderen haptischen Tasten zu wechseln. In einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung ist die fünfte Taste als haptische Taste ausgebildet.
  • Für eine effiziente Bedienung wird jeder Aktivierungszustand einer haptischen Taste einem bestimmten Bereich an Druckkraft zugeordnet, die auf die haptische Taste ausgeübt wird. Hierdurch wird jeder Aktivierungszustand einer haptischen Taste vorzugsweise in einer Folge aufeinanderfolgender Aktivierungszustände angeordnet.
  • Um klar strukturierte Information bereitzustellen, wird die über die grafische Benutzeroberfläche dargestellte Information als Menüstruktur mit mindestens zwei Hierarchieebenen strukturiert, wobei ein Menü auf der obersten Hierarchieebene direkt durch Auswahl einer entsprechenden haptischen Taste ausgewählt wird. Eine effektive Auswahl der gewünschten Information wird erzielt, indem ein Element in einer Reihenfolge von Elementen in einem durch eine entsprechende haptische Taste ausgewählten Menü hervorgehoben wird, gemäß seiner Position in der Reihenfolge, die der Position des Aktivierungszustands entspricht, der in der Reihenfolge der aufeinanderfolgenden durch die haptische Taste gewählten Aktivierungszustände aktiviert ist.
  • In einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung enthält ein Menü auf einer übergeordneten Ebene Elemente, die einen Zugriff auf eine Zusammenstellung von Zeichen angeben, und ein Menü auf einer untergeordneten Ebene, das dem jeweiligen Element entspricht, stellt jedes Zeichen für die Auswahl für eine Texteingabe dar, wodurch Text in eine Anwendung ohne alphanumerische Tastatur mit einer beschränkten Anzahl an Tasten eingegeben werden kann.
  • In der folgenden Beschreibung wird die Erfindung detaillierter mit Bezug auf die speziellen Ausführungsformen bezüglich der angehängten Zeichnungen beschrieben, in denen:
  • 1 eine schematische Darstellung einer Vorrichtung gemäß der vorliegenden Erfindung zeigt,
  • 2 eine Zuweisung anderer Aktivierungszustände einer haptischen Taste an verschiedene Informationsstücke zeigt, die in einer grafischen Benutzeroberfläche dargestellt werden,
  • 3 die Zuweisung verschiedener haptischer Tasten an unterschiedliche Hierarchieebenen von Information zeigt, die auf einer grafischen Benutzeroberfläche dargestellt werden,
  • 4 eine alternative Lösung für grafische Benutzeroberflächen auf einem kleinen Bildschirm zeigt,
  • 5 das Zugriffsschema für eine strukturierte Zeichenzusammenstellung für die Texteingabe zeigt,
  • 6 eine alternative hierarchische Struktur der Zeichen für die Texteingabe zeigt, und
  • 7 ein Blockdiagramm einer Computing-Einrichtung gemäß der vorliegenden Erfindung zeigt.
  • Eine Vorrichtung 1 für eine Mensch-Computer-Interaktion gemäß der vorliegenden Erfindung wird in 1 dargestellt. Die Vorrichtung bietet eine grafische Benutzeroberfläche (GUI) 3, zwei oder mehr haptische Tasten 2 und eine separate Taste 4 auf einer Seite der Vorrichtung abgewandt zu den haptischen Tasten 2. Die grafische Benutzeroberfläche 3 ist angepasst, um Informationen in Form einer hierarchischen Struktur 5, die als hierarchisches Menü bekannt ist, zu liefern. In einer bevorzugten Ausführungsform der vorliegenden Erfindung ist die Mensch-Computer-Schnittstelle 1 ausgebildet, um in die Hand eines Benutzers zu passen. Vier haptische Tasten 2 sind vertikal eine über der anderen an der Seitenwand der Vorrichtung 1 angeordnet, um jeweils durch den Zeigefinger, Mittelfinger, Ringfinger und kleinen Finger bedient zu werden. Eine Daumentaste 4 ist an einer oberen Kante der Vorrichtung 1 abgewandt zur Seitenwand, die die vier haptischen Tasten 2 trägt, oder alternativ direkt auf der Seitenwand abgewandt zur Anordnung der haptischen Tasten 2 vorgesehen. Die somit erzielte ergonomische Anordnung der Tasten erlaubt einem Benutzer, jeden Finger der Hand für die Dateneingabe zu nutzen.
  • Jeder Taste ist eine bestimmte Hierarchieebene der Menüstruktur zugewiesen. Die oberste Taste, die vorzugsweise durch den Zeigefinger bedient wird, entspricht der höchsten oder obersten Ebene der Menüstruktur, die zweite Taste von oben entspricht der zweiten Ebene, die darauf folgenden Taste der dritten Ebene und die unterste Taste der vierten Ebene der Menüstruktur.
  • Wenn ein Benutzer mit der Suche eines bestimmten Eintrags beginnt, hat er oder sie durch ein bestimmtes Element der Menüstruktur Zugriff auf die hierarchische Struktur 5. Um das entsprechende Element zu finden, beginnt ein Benutzer in der Regel in der obersten Hierarchieebene, wählt ein passendes Elemente in der hier dargestellten Liste aus, geht dann zu der zugehörigen Unterebene usw. Um wieder auf das oberste Menü zuzugreifen, muss ein Benutzer eine haptische Taste drücken, die der entsprechenden Menüebene zugeordnet ist. Für Menüebene a ist dies z. B. die haptische Taste 2a, für Menüebene b ist dies z. B. die haptische Taste 2b , für Menüebene c ist dies z. B. die haptische Taste 2c und für Menüebene d ist dies z. B. die haptische Taste 2d . Angenommen, die Menühierarchie ist in vier Ebenen aufgeteilt, wobei a die oberste Ebene und d die unterste Ebene darstellt, dann gibt ein Benutzer die Menüstruktur ein, indem er die haptische Taste 2a drückt und eine grafische Benutzeroberfläche dem Benutzer das entsprechende Menü anzeigt. Das Menü enthält eine Elementliste, die entweder einen Befehl darstellen oder sich auf die nächstuntere Ebene in der Menüstruktur beziehen. Jedes haptische Taste 2 liefert eine Druck-Rückmeldung, die vom Benutzer einen erhöhten Druck erfordert, um weiter hinuntergedrückt zu werden. Ein Benutzer erhält so den Eindruck, wie weit er oder sie die Taste gerade hinunterdrückt. Parallel zur Druckbewegung der haptischen Taste durchlauft eine grafische Anzeige die Liste der Elemente, die auf der grafischen Benutzeroberfläche angezeigt werden. Indem eine haptische Taste 2 gedrückt bleibt, bleibt die grafische Anzeige, z. B. eine hervorgehobene Darstellung des gewählten Menüelements, fest auf dem obersten Element stehen. Wenn stärkerer Druck auf die haptische Taste 2 angewendet wird, führt dies dazu, dass jeweils das hervorgehobene Element oder die grafische Anzeige Schritt für Schritt die Elementliste hinab bewegt werden, wie in 2 dargestellt. In einer bevorzugten Ausführungsform der vorliegenden Erfindung ist ein Benutzer weiterhin in der Lage, einen Wechsel von einem Element zum nächsten durch eine taktile klickartige Empfindung zu fühlen, die mechanisch auf der haptischen Taste erzeugt wird.
  • Wenn ein gewünschtes Menüelement gefunden und hervorgehoben wird, wählt ein Benutzer das entsprechende Element durch Halten der haptischen Taste 2 für eine gewisse Zeit in der entsprechenden Position oder alternativ durch Drücken der Daumentaste 4. Die bestimmte zur Navigation im Menü verwendete Taste 2 wird dann mechanisch gesperrt, um zu verhindern, dass das ausgewählte Element irrtümlich verloren geht. Wenn das Element einen Befehl darstellt, wird der entsprechende Befehl nun ausgeführt. Das Blockieren der Taste wird nach der Befehlsausführung aufgehoben, oder wenn stärkerer Druck auf die Taste ausgeübt wird.
  • Wenn das Menüelement eine Referenz auf ein untergeordnetes Menü enthält, navigiert ein Benutzer zu dem referenzierten Menü, indem die nächstfolgende haptische Taste gedrückt wird, die der entsprechenden Menüebene zugeordnet ist. Wenn das Element in der Menüebene a ausgewählt wurde, verweist es nun auf ein Menü in der Menüebene b, was durch Drücken der haptischen Taste 2b eingegeben wird. Das gewünschte Element in diesem Menü wird dann mit derselben Art der Fingerbewegung ausgewählt wie oben beschrieben. Wiederum, wenn das gewünschte Element gefunden ist, wird die zugehörige haptische Taste zusätzlich zu der oder den vorhergehenden Tasten gesperrt, je nach vorheriger Historie, und das zugehörige Menü der nächstunteren Ebene wird dann mit dem nächsten Finger geöffnet, der die nächste haptische Taste aktiviert. Auch hier, wenn das gewünschte Element ausgewählt wurde, wird die Vorgehensweise bei der nächsten haptischen Taste wiederholt. 3 enthält eine grafische Darstellung des gerade erklärten Sachverhalts und stellt dar, dass jeder der haptischen Tasten eine bestimmte Menüebene der Menühierarchie zugeordnet ist.
  • Falls das letzte, d. h. im gegebenen Beispiel das vierte Menü, kein interessantes Element enthält, kann der Benutzer durch eine einzelne Aktion wieder zurücknavigieren, indem Druck auf eine haptische Taste ausgeübt wird, die der Menüebene zugeordnet ist, zu der der Benutzer springen möchte. Für die zuletzt bediente haptische Taste wird dann die Sperrposition gelöst, wie auch für alle haptische Tasten, die Ebenen zugewiesen sind, die in der Menühierarchie unter der Ebene, zu der gerade gesprungen wurde, liegen. Ein Benutzer kann somit mit nur einer Operation in seine Anfangsposition zurückkehren, wodurch eine zeitaufwändige Rückwärtsnavigation durch das Menüsystem nicht mehr erforderlich macht. In einer alternativen Ausführungsform werden nur die Tasten, die den Menüs entsprechen, die vom Benutzer verworfen werden, freigegeben.
  • Im Besonderen kann in mobilen in der Hand zu haltenden Geräten mit kleinen Bildschirmgrößen, wie PDAs in Scheckkartengröße oder Mobiltelefonen die Hierarchie der Menüebenen alternativ angezeigt werden, wie in 4 dargestellt.
  • Für jede Ebene wird nur ein Menüelement in einem Feld angezeigt, das sich verändert, wenn die entsprechende haptische Taste gedrückt wird, die einer entsprechenden Menüebene zugeordnet ist. Das Drücken z. B. der zweiten haptischen Taste kann gleichzeitig eine Veränderung im Text aller Felder unterhalb der Ebene a bewirken.
  • Eine Mensch-Computer-Schnittstelle 1 gemäß der vorliegenden Erfindung ist auch ausgebildet, um eine Texteingabe bereitzustellen, die für kleine in der Hand zu haltende Geräte optimiert ist. Für die Texteingabe sind eine Vielzahl von Zeichen erforderlich, wie z. B. Buchstaben, Ziffern und Sonderzeichen, die zum Beispiel für die Interpunktion oder die E-Mail-Adressen erforderlich sind. Die entsprechende Zusammenstellung der Zeichen ist gruppiert, wobei die Zeichen einer jeden Gruppe in einem eigenen Menü dargestellt werden. Wenn der Texteingabemodus aktiv ist, kann auf jedes dieser Menüs direkt durch eine haptische Taste zugegriffen werden und das gewünschte Zeichen wird auf dieselbe Weise wie ein Menüelement wie oben beschrieben ausgewählt.
  • In einem ersten Beispiel sind die Zeichen, die die Buchstaben des Alphabets darstellen, in drei Gruppen unterteilt, wobei die erste Gruppe z. B. von A bis H geht, die zweite Gruppe von I bis P und die dritte Gruppe von Q bis Z. Die Ziffern und Sonderzeichen sind in einer vierten Gruppe zusammengefasst. Zur Eingabe eines bestimmten Zeichens in einen Texteditor in einer grafischen Benutzeroberfläche muss ein Benutzer die entsprechende haptische Taste drücken, die dem Menü mit der Gruppe des gewünschten Zeichens zugewiesen ist. Wenn in dem Beispiel in 5 ein Benutzer einen Buchstaben aus dem ersten Drittel des Alphabets eingeben möchte, würde er oder sie die oberste Taste drücken. Wird leichter Druck auf die oberste haptische Taste ausgeübt, führt dies dazu, dass die grafische Benutzeroberfläche anzeigt, dass der Buchstabe 'A' ausgewählt werden kann, und durch Erhöhen des Drucks bewegt sich der grafische Indikator nacheinander durch die Zeichenliste, bis das letzte Zeichen oder Buchstabe der Gruppe ereicht ist. Sobald der korrekte Buchstabe hervorgehoben ist, kann er ausgewählt werden, z. B. durch die Verwendung der Daumentaste. Da der Benutzer in der Regel nicht weiß, wo genau eine Gruppe endet und die nächste beginnt, ist eine Überlappung zwischen den Gruppen vorgesehen, so dass Buchstaben und Zeichen am Ende einer ersten Gruppe auch am Beginn der Folgegruppe angezeigt werden. Hierdurch kann auf ein Zeichen, das sich am Übergang von einer Gruppe zu einer anderen Gruppe befindet, alternativ entweder durch die haptische Taste für die vorhergehende oder die nachfolgende Gruppe zugegriffen werden.
  • Ein alternatives Zugriffsschema für die Texteingabe ist in 6 dargestellt. Auf der ersten Ebene der Kategorie werden Buchstaben, Ziffern oder andere Symbole ausgewählt. Die gewünschte Kategorie wird mit Hilfe der haptischen Taste, die der obersten Ebene a zugewiesen ist, ausgewählt. Auf der zweiten Ebene b wird die Gruppierung der Zeichen, die für die ausgewählte Kategorie verfügbar sind, angezeigt. Auf der nächsten Ebene c wird eine Teilgruppierung der Zeichen für die in der übergeordneten Ebene ausgewählte Gruppe dargestellt, und schließlich werden auf der vierten Ebene d die Zeichen, die zur auf der dritten Ebene c ausgewählten Teilgruppe gehören, angezeigt und können ausgewählt werden. Natürlich kann die beschriebene Struktur auch mit nur drei Ebenen implementiert werden, wobei entweder Ebene b oder c weggelassen werden. Die Anzahl der beteiligten Menüebenen kann sich auch mit der Kategorie verändern, im Besonderen wenn für Interpunktionszeichen eine eigene Kategorie verwendet wird.
  • Das beschriebene Texteingabesystem kann durch so genannte "Prognose-Algorithmen" ergänzt werden, die eine Textvorhersage liefern, wie dies z. B. für die Texteingabe bei bestimmten Mobilgeräten mit einer beschränkten Tastenanzahl, wie Mobiltelefonen, genutzt wird. Gemäß der Prognose des entsprechenden Algorithmus wird die Reihenfolge, in der die Optionen in den nachfolgenden Tasten dargestellt werden, dann entsprechend der Verwendungswahrscheinlichkeit der dargestellten Zeichen neu angeordnet. Dies reduziert die zur Texteingabe erforderliche Zeit.
  • Abgesehen vom Zugriff auf Informationen, die in einer Menüstruktur mit mehreren Ebenen angeordnet sind, können die haptischen Tasten auch zur Navigation in unterschiedlich strukturierten grafischen Informationen verwendet werden. Wenn z. B. ein Bild auf der grafische Benutzeroberfläche dargestellt wird, können die haptischen Tasten 2 zum Zoomen, Schwenken und Durchblättern einer Gruppe von Bildern verwendet werden. Die erste haptische Taste 2a zum Beispiel dient zum Zoomen in und aus einem Bild, die zweite haptische Taste 2b zum Bewegen des Bildes nach links oder rechts und die dritte Taste 2c zum Bewegen des Bildes nach oben und unten. Die vierte Taste 2d kann dann für die Auswahl des nächsten oder vorhergehenden Bildes reserviert sein.
  • Die Tastenanordnung von 1 kann auch bei einem traditionellen Web-Browser auf einem Mobilgerät mit kleinem Bildschirm verwendet werden. In der Regel passen die Inhalte einer HTML-Seite nicht ganz auf den Bildschirm dieser Geräte. Eine mögliche Tastenzuordnung ist daher definiert durch:
    erste haptische Taste 2a : Blättern nach unten/oben
    zweite haptische Taste 2b : Blättern nach links/rechts
    dritte haptische Taste 2c : Hinein- und hinauszoomen
    vierte haptische Taste 2d : einer Sprung zum nächsten/vorhergehenden Link in aktuellen Webseite
    Daumentaste 4: Link auswählen
  • Beim Ansehen eines aufgezeichneten Videos auf einer Computing-Einrichtung weist die Tastenanordnung der Mensch-Computer-Schnittstelle 1 gemäß der vorliegenden Erfindung die folgenden Zuweisungen auf:
    erste haptische Taste 2a : Sprung zum nächsten/vorhergehenden Segment/Szene der obersten Ebene
    (vorausgesetzt, diese Metadaten sind verfügbar)
    zweite haptische Taste 2b : Sprung zum nächsten/vorhergehenden Segment/Szene der nächsten Ebene
    (vorausgesetzt, diese Metadaten sind verfügbar)
    dritte haptische Taste 2c : Verändern der Geschwindigkeit der Wiedergabe/schneller Vorlauf
  • 7 zeigt die Komponenten eines Computing-Geräts 7 mit einer Schnittstelle 1 für eine Mensch-Computer-Interaktion gemäß der vorliegenden Erfindung. Die Mensch-Computer-Schnittstelle 1 enthält einen Tastenbereich 2, der zumindest die haptischen Tasten 2a und 2b enthält, möglicherweise weitere Tasten wie 2c , 2d und, wenn vorgesehen, die Daumentaste 4. Die Eingabe des Tastenbereichs 2 wird an eine Steuereinheit 8 übergeben, wo der aktuelle Aktivierungsstatus einer jeden haptischen Taste registriert und interpretiert wird, gemäß den in der grafischen Benutzeroberfläche 5 angezeigten Informationen. Entsprechend dem Ergebnis der Interpretation werden dann Daten erstellt, die dem Computing-Bereich 9 als Eingabedaten bereitgestellt werden.
  • Bislang wurde die Funktion der fünften Taste als einfache Bedientaste zum Initiieren der Ausführung eines gewählten Befehls beschrieben. Diese fünfte Taste, oder Daumentaste, kann auch als haptische Taste, wie die anderen beschriebenen ausgebildet sein. Dies bedeutet, dass sie als multifunktionale Taste mit verschiedenen Aktivierungszuständen ausgeführt wird, wobei jeder Aktivierungszustand einem definierten Bereich einer Druckkraft entspricht, die auf die Taste ausgeübt wird. In einer anderen Ausführungsform ist die Taste durch einen Auswahl- und Einstellmechanismus ausgebildet, wobei der Aktivierungszustand geändert wird, indem die Taste gedreht wird, und ein weiterer Aktivierungszustand ausgebildet sein kann, indem ein Druck auf die Peripherie der Steuertaste in Richtung der Rotationsmitte ausgeübt wird.
  • Die Daumentaste kann dann zur Navigation durch die Menüstruktur mit mehr als vier Ebenen verwendet werden, und die haptischen Tasten, die abgewandt zur Daumentaste ausgebildet sind, werden für den direkten Zugriff auf die hierarchische Struktur verwendet, die auf der GUI 3 dargestellt wird. Wenn einmal die unterste in der GUI 3 angezeigte Ebene durch einen haptische Taste mit direktem Zugriff eingegeben wird, z. B. die Taste 2d , wird die Zuweisung der haptischen Tasten 2a bis 2d an die vorhergehende oder nächst höhere Hierarchieebene neu zugewiesen.
  • Die Steuereinheit 8 der Vorrichtung 1 pflegt ein Benutzerprofil, das alle Aktionen und/oder Selektionen eines Benutzers aufzeichnet. Wenn ein Benutzer z. B. die haptische Taste, die einer Ebene a in einer bestimmten Position x zugewiesen ist, drückt und dann gedrückt hält, dann ordnet die Vorrichtung 1, abhängig von der vorherigen bevorzugten Auswahl entsprechend der Position X, automatisch die den anderen Ebenen zugewiesenen haptische Tasten in der entsprechenden Position dieser bevorzugten vorherigen Auswahl an, und die Auswahl wird dann dementsprechend auf dem Bildschirm angezeigt.
  • Die bislang beschriebene und in 1 dargestellte Tastenanordnung ist die Tastenanordnung einer Schnittstelle 1 zur Mensch-Computer-Interaktion, die für die Bedienung kleiner in der Hand zu haltender Computing-Einrichtungen mit einer Hand bevorzugt ist. Aber die entsprechende Vorrichtung 1 zur Eingabe von Daten in eine Computing-Einrichtung kann auch für eine Bedienung mit zwei Händen für größere in der Hand zu haltende Geräte angepasst werden, wie z. B. ein Web-Pad oder Ähnliches. Das System kann damit mit bis zu zehn haptischen Tasten ausgestattet sein, wobei die Daumentasten vorzugsweise an der Vorderseite angeordnet sind und die Tasten für die anderen Finger sich an der Rückseite des Geräts befinden. Die beschrieben Mensch-Computer-Schnittstelle 1 kann weiterhin mit anderen Eingabemethoden kombiniert werden, wie z. B. anderen Arten von Tasten, Steuertasten, Stylus, Touch Screens oder Spracheingaben oder Ähnliches. Sie kann weiterhin in Verbindung mit einer Fernsteuerung verwendet werden.
  • Die vorliegende Erfindung verbessert die Navigation durch die in hierarchischen Menüebenen dargestellten Informationen, indem zu Punkten an Zwischenstufen der Navigationsfolgen gesprungen werden kann. Die bereitgestellte Schnittstelle 1 zur Mensch-Computer-Interaktion erlaubt weiterhin die einfachere Korrektur in Form von schneller Rückverfolgung wie in normalen Menünavigationssystemen. Zuletzt ermöglicht die vorliegende Vorrichtung 1 den einhändigen Betrieb eines in der Hand zu haltenden Computing-Geräts.

Claims (11)

  1. Vorrichtung zum Eingeben von Daten in eine datenverarbeitende (Computing-)Einrichtung, wobei die Vorrichtung umfasst – eine graphische Benutzeroberfläche (3) zum Darstellen hierarchisch strukturierter Informationen (5) in einer Menüstruktur von mindestens zwei Hierarchieebenen mit mindestens einer obersten Hierarchieebene und mindestens einer weitere Hierarchieebene für einen Benutzer einer datenverarbeitenden Einrichtung, und – mindestens zwei haptische Tasten (2a, 2b, 2C, 2d), wobei jede mehr als einen Aktivierungszustand aufweist, wobei jede Taste der mindestens zwei haptischen Tasten (2a, 2b, 2C, 2d) einer bestimmten Hierarchieebene der Menüstruktur zugewiesen ist; – ein Steuermittel (8) zum Steuern der Generierung von Eingabedaten in Abhängigkeit von der mindestens einen gewählten haptischen Taste, des aktuellen Aktivierungszustands von der mindestens einer haptischen Taste (2a, 2b, 2c, 2d) und eines Elements der hierarchisch strukturierten Information, die durch die mindestens eine haptische Taste ausgewählt ist, wobei ein Menü auf der obersten Hierarchieebene direkt durch Auswahl einer haptischen Taste (2a) zugreifbar ist, die der obersten Hierarchieebene zugewiesen ist, und wobei ein Menü auf einer hierarchischen Ebene über der aktuell auf der graphischen Benutzeroberfläche (3) dargestellten direkt durch eine haptische Taste (2a, 2b, 2c, 2d) zugreifbar ist, die dem jeweiligen Menü zugewiesen ist.
  2. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die haptischen Tasten (2a, 2b, 2c, 2d) in einer Reihe an einer ersten Seitenwand der Vorrichtung angeordnet sind.
  3. Vorrichtung gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Vorrichtung vier haptische Tasten (2a, 2b, 2C, 2d) umfasst.
  4. Vorrichtung gemäß Anspruch 3, dadurch gekennzeichnet, dass die Vorrichtung eine fünfte Taste (4) mit mindestens einem klar ersichtlichen Aktivierungszustand umfasst, die das Steuermittel (8) veranlasst, vordefinierte Eingabedaten unabhängig von der durch die graphischen Benutzeroberfläche (3) dargestellten Information zu generieren.
  5. Vorrichtung gemäß Anspruch 4, wenn abhängig von Anspruch 2, dadurch gekennzeichnet, dass die fünfte Taste (4) an einer zweiten Seitewand abgewandt zur ersten Seitenwand angeordnet ist.
  6. Vorrichtung gemäß Anspruch 4 oder 5, dadurch gekennzeichnet, dass die fünfte Taste (4) eine Auswahl- und Einstellfunktion (Jog Dial) bietet.
  7. Vorrichtung gemäß Anspruch 4, 5 oder 6, dadurch gekennzeichnet, dass die fünfte Taste (4) als haptische Taste ausgebildet ist.
  8. Vorrichtung gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in jedem Aktivierungszustand der haptischen Taste (2a, 2b, 2c, 2d) ein bestimmter Bereich einer Druckkraft, die auf die haptische Taste ausgeübt wird, zugewiesen ist.
  9. Vorrichtung gemäß Anspruch 8, dadurch gekennzeichnet, dass jeder Aktivierungszustand einer haptischen Taste (2a, 2b, 2c, 2d) in einer Folge von aufeinanderfolgenden Aktivierungszuständen angeordnet ist.
  10. Vorrichtung gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass ein Element in einer Reihenfolge von Elementen in einem Menü, das durch eine entsprechende haptische Taste ausgewählt wird, gemäß seiner Position in der Reihenfolge, die der Position des Aktivierungszustands entspricht, der in der Reihenfolge der aufeinanderfolgenden durch die haptische Taste gewählten Aktivierungszustände aktiviert wird, hervorgehoben ist.
  11. Vorrichtung gemäß einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass ein übergeordnetes Menü Elemente enthält, die einen Zugriff auf eine Zusammenstellung von Zeichen angeben, und eine untergeordnetes Menü, das einem der gewählten Elemente entspricht, jedes Zeichen, das bezüglich einer Texteingabe gewählt wird, darstellt.
DE602004013116T 2004-01-20 2004-01-20 Haptische tastengesteuerte Dateneingabe Expired - Lifetime DE602004013116T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP04001101A EP1557744B1 (de) 2004-01-20 2004-01-20 Haptische tastengesteuerte Dateneingabe

Publications (2)

Publication Number Publication Date
DE602004013116D1 DE602004013116D1 (de) 2008-05-29
DE602004013116T2 true DE602004013116T2 (de) 2009-07-02

Family

ID=34626465

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004013116T Expired - Lifetime DE602004013116T2 (de) 2004-01-20 2004-01-20 Haptische tastengesteuerte Dateneingabe

Country Status (4)

Country Link
US (1) US7890862B2 (de)
EP (1) EP1557744B1 (de)
JP (1) JP2005235188A (de)
DE (1) DE602004013116T2 (de)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US20080072177A1 (en) * 2006-03-10 2008-03-20 International Business Machines Corporation Cascade menu lock
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
US8761846B2 (en) * 2007-04-04 2014-06-24 Motorola Mobility Llc Method and apparatus for controlling a skin texture surface on a device
US7876199B2 (en) * 2007-04-04 2011-01-25 Motorola, Inc. Method and apparatus for controlling a skin texture surface on a device using a shape memory alloy
US20080248836A1 (en) * 2007-04-04 2008-10-09 Motorola, Inc. Method and apparatus for controlling a skin texture surface on a device using hydraulic control
US7741979B2 (en) * 2007-07-06 2010-06-22 Pacinian Corporation Haptic keyboard systems and methods
US8199033B2 (en) 2007-07-06 2012-06-12 Pacinian Corporation Haptic keyboard systems and methods
US20090015560A1 (en) * 2007-07-13 2009-01-15 Motorola, Inc. Method and apparatus for controlling a display of a device
US20090132093A1 (en) * 2007-08-21 2009-05-21 Motorola, Inc. Tactile Conforming Apparatus and Method for a Device
KR100938260B1 (ko) * 2007-09-20 2010-01-22 한국전자통신연구원 터치 스크린을 이용한 체감 전달 장치 및 시스템
US8839123B2 (en) * 2007-11-19 2014-09-16 Red Hat, Inc. Generating a visual user interface
US8866641B2 (en) * 2007-11-20 2014-10-21 Motorola Mobility Llc Method and apparatus for controlling a keypad of a device
US20090135142A1 (en) * 2007-11-27 2009-05-28 Motorola, Inc. Data entry device and method
WO2009095072A1 (en) * 2008-01-29 2009-08-06 Siemens Aktiengesellschaft System and method for displaying a menu
US20090319893A1 (en) * 2008-06-24 2009-12-24 Nokia Corporation Method and Apparatus for Assigning a Tactile Cue
US8659555B2 (en) * 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
EP2141574B1 (de) * 2008-07-01 2017-09-27 LG Electronics Inc. Mobiles Endgerät mit Näherungssensor und Verfahren zur Steuerung des mobilen Endgerätes
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
KR20100039194A (ko) * 2008-10-06 2010-04-15 삼성전자주식회사 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치
JP5610504B2 (ja) * 2009-04-22 2014-10-22 株式会社プロテックデザイン 回転式入力装置及び電子機器
KR101154306B1 (ko) * 2010-11-22 2012-06-13 기아자동차주식회사 로터리 스위치의 선택 메뉴별 햅틱 필링 차별화 방법
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR102301592B1 (ko) * 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
TWI603255B (zh) * 2014-05-05 2017-10-21 志勇無限創意有限公司 手持裝置及其輸入方法
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
CN105487805B (zh) * 2015-12-01 2020-06-02 小米科技有限责任公司 对象操作方法及装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2184419A1 (en) 1995-10-16 1997-04-17 Kevin P. Byrne Ergonomic keyboard with sensory alerting to prevent human injury
US6750877B2 (en) * 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
DE19646226A1 (de) * 1996-03-19 1998-05-14 Bayerische Motoren Werke Ag Bedienvorrichtung für menügesteuerte Funktionen eines Fahrzeugs
US6278453B1 (en) 1997-06-13 2001-08-21 Starfish Software, Inc. Graphical password methodology for a microprocessor device accepting non-alphanumeric user input
US5953724A (en) * 1997-11-24 1999-09-14 Lowry Software, Incorporated Global database library data structure for hierarchical graphical listing computer software
TW509845B (en) * 1997-12-13 2002-11-11 Samsung Electronics Co Ltd Computer system with jog dial function and the user interface scheme thereof
US6707443B2 (en) * 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
US6717573B1 (en) * 1998-06-23 2004-04-06 Immersion Corporation Low-cost haptic mouse implementations
JP3123990B2 (ja) * 1998-10-05 2001-01-15 埼玉日本電気株式会社 携帯無線端末
SE521472C2 (sv) * 1999-03-16 2003-11-04 Ericsson Telefon Ab L M Portabel kommunikationsapparat med dynamisk meny
US6693626B1 (en) * 1999-12-07 2004-02-17 Immersion Corporation Haptic feedback using a keyboard device
US6714220B2 (en) * 2000-01-19 2004-03-30 Siemens Aktiengesellschaft Interactive input with limit-value monitoring and on-line help for a palmtop device
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
EP1160160A3 (de) * 2000-05-31 2002-01-30 EADS Airbus GmbH Vorrichtung zur Steuerung und Überwachung von Flugzeug-Kabinensystemen
JP2002016065A (ja) 2000-06-29 2002-01-18 Toshiba Corp 半導体装置
EP1182536A1 (de) 2000-08-16 2002-02-27 Sony International (Europe) GmbH Navigation in grossen Datensätzen
EP1182539B1 (de) 2000-08-16 2009-03-25 Sony Deutschland GmbH Steuerung einer Vorrichtung mit taktiler Rückkopplung
EP1182535A1 (de) 2000-08-16 2002-02-27 Sony International (Europe) GmbH Datenendgerät mit taktiler Rückkopplung
EP1184982B1 (de) 2000-08-24 2009-05-06 Sony Deutschland GmbH Fernbedienungsgeber
US6864877B2 (en) * 2000-09-28 2005-03-08 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
KR100354780B1 (ko) * 2000-10-06 2002-10-05 엘지전자주식회사 이동통신 단말기의 메뉴 구현 방법
JP4631150B2 (ja) * 2000-10-31 2011-02-16 ソニー株式会社 情報処理装置及び方法、並びに記録媒体
US6911901B2 (en) 2000-12-20 2005-06-28 New Transducers Limited Multi-functional vibro-acoustic device
US7127679B2 (en) * 2001-06-29 2006-10-24 Softrek, Inc. Method for generating and navigating a plurality of menus using a database and a menu template
CN1582465B (zh) * 2001-11-01 2013-07-24 伊梅森公司 输入设备以及包含该输入设备的移动电话
US20030090456A1 (en) * 2001-11-04 2003-05-15 Kaiwen Lin Method of mapping linguistic symbols to a sequence of keystrokes and assist memorization with musical notes
KR100413691B1 (ko) * 2001-12-15 2004-01-03 삼성전자주식회사 전자기기에서의 문자 입력 장치 및 방법
US20030184574A1 (en) * 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US20040119755A1 (en) * 2002-12-18 2004-06-24 Nicolas Guibourge One hand quick dialer for communications devices
US7231229B1 (en) * 2003-03-16 2007-06-12 Palm, Inc. Communication device interface
US7280095B2 (en) * 2003-04-30 2007-10-09 Immersion Corporation Hierarchical methods for generating force feedback effects

Also Published As

Publication number Publication date
EP1557744B1 (de) 2008-04-16
US20050184959A1 (en) 2005-08-25
DE602004013116D1 (de) 2008-05-29
EP1557744A1 (de) 2005-07-27
US7890862B2 (en) 2011-02-15
JP2005235188A (ja) 2005-09-02

Similar Documents

Publication Publication Date Title
DE602004013116T2 (de) Haptische tastengesteuerte Dateneingabe
DE60024655T2 (de) Verfahren zur benutzung von mit einem anzeigegerät verbundenen tasten für den zugriff und die ausführung von damit verbundenen funktionen
DE102006017486B4 (de) Elektronische Vorrichtung und Verfahren zum Vereinfachen einer Texteingabe unter Verwendung einer Soft-Tastatur
DE102008007243A1 (de) Endgerät und Verfahren zur Anzeige eines Menüs
DE102010036906A1 (de) Konfigurierbares Pie-Menü
DE212009000073U1 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE202006021126U1 (de) Vorrichtung zum Verarbeiten von Daten eines mobilen Endgeräts
US8253690B2 (en) Electronic device, character input module and method for selecting characters thereof
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112007002687B4 (de) Handgehaltene bzw. tragbare Disambiguierungsvorrichtung mit mehreren Achsen und mehreren Sprachen
WO2016087156A1 (de) Benutzerschnittstelle und verfahren zur bedienung eines systems
DE202013100128U1 (de) Anzeigevorrichtung und Funktion derselben zum Eingeben von Zeichen
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE202008000258U1 (de) Tragbare elektronische Vorrichtung
DE202007013923U1 (de) Mehrfachereignis-Eingabesystem
DE102008000001A1 (de) Integrierte Hardware- und Softwarebenutzerschnittstelle
WO2012080029A1 (de) System mit gestenerkennungseinheit
EP2795451B1 (de) Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
DE202011108536U1 (de) Touchscreen-Tastatur, die das berührungsgesteuerte Tippen mit minimalen Fingerbewegungen erleichtert
DE102006039767A1 (de) Eingabevorrichtung
EP2955614A1 (de) Anwenderschnittstelle und verfahren zum anpassen einer semantischen skalierung einer kachel
DE102013018240A1 (de) Verfahren, vorrichtung und computerprogrammprodukt zum umschalten von fernsehkanälen
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE112014005034T5 (de) Elektronische Vorrichtung und Verfahren zum Ausführen einer Anwendung darauf

Legal Events

Date Code Title Description
8364 No opposition during term of opposition