DE102008000001A1 - Integrierte Hardware- und Softwarebenutzerschnittstelle - Google Patents

Integrierte Hardware- und Softwarebenutzerschnittstelle Download PDF

Info

Publication number
DE102008000001A1
DE102008000001A1 DE200810000001 DE102008000001A DE102008000001A1 DE 102008000001 A1 DE102008000001 A1 DE 102008000001A1 DE 200810000001 DE200810000001 DE 200810000001 DE 102008000001 A DE102008000001 A DE 102008000001A DE 102008000001 A1 DE102008000001 A1 DE 102008000001A1
Authority
DE
Germany
Prior art keywords
tactile
user interface
user
tactile features
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200810000001
Other languages
English (en)
Other versions
DE102008000001B4 (de
Inventor
Michael J. Plymouth Andrews
Michael D. Ann Arbor Tschirhart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102008000001A1 publication Critical patent/DE102008000001A1/de
Application granted granted Critical
Publication of DE102008000001B4 publication Critical patent/DE102008000001B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine integrierte Benutzerschnittstelle hat eine sensorische Oberfläche, die fähig ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu senden. Die integrierte Benutzerschnittstelle weist mehrere taktile Merkmale auf, die fähig sind, eine taktile Rückmeldung für einen Benutzer/eine Benutzerin bereitzustellen, die dem Auswahlsignal entspricht, das von der sensorischen Oberfläche empfangen wird, wenn sie gleichzeitig von dem/der Benutzer/in ausgewählt werden. Ebenfalls offenbart ist ein Verfahren zur Integrierung der Hardware- und Softwarefunktion für eine Benutzerschnittstelle.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft allgemein Benutzerschnittstellen für sensorische Oberflächen. Insbesondere betrifft die Erfindung Benutzerschnittstellen für sensorische Oberflächen mit einer berührungsempfindlichen Funktion.
  • 2. Stand der Technik
  • Anzeigebildschirme von elektronischen Geräten weisen häufig Benutzerschnittstellen auf, über die der/die Benutzer/in eine Auswahl hinsichtlich verschiedener, auf dem Anzeigebildschirm angezeigter Bilder vornehmen kann. Bei einem Mobiltelefon zum Beispiel tippt der/die Benutzer/in mit Hilfe einer Tastatur eine Telefonnummer ein, was bewirkt, dass die Telefonnummer auf dem Bildschirm angezeigt wird. Wenn der/die Benutzer/in eine „Ruf"- oder „Gespräch"-Taste drückt, zeigt der Bildschirm, dass das Telefon die eingegebene Nummer wählt.
  • Derzeitige Anzeigeanwendungen können allgemein in zwei Hauptarten unterteilt werden: 1) Anzeigebildschirme mit off-screen (nicht auf dem Bildschirm befindlicher) Harttastensteuerung und 2) Anzeigebildschirme mit Touch-Screen-Funktion (Bildschirmberührungsfunktion). Einige Geräte ermöglichen die Verwendung beider Funktionsweisen. Zum Beispiel kann ein Persönlicher Digitaler Assistent (PDA) einem Benutzer ermöglichen, Bilder entweder mit Hilfe eines Touch-Screens oder mit Hilfe einer Hart-Taste auszuwählen. Andere Geräte stellen bisher durch Anordnen von Hart-Tasten neben einem Bildschirm eine gewisse Verbindung von Hart- und Soft-Tastenmerkmalen bereit, so dass eine Hart-Taste gedrückt werden kann um ein Bild auszuwählen, das angrenzend an die Hart-Taste auf dem Anzeigebildschirm angezeigt wird.
  • Touch-Screens können in größerem Umfang Funktionen ermöglichen als Hart-Tasten, da die von der Software bereitgestellten Anzeigen für verschiedene Navigationsbildschirme verändert werden können, was eine bessere Anpassung an Kundenwünsche und eine bessere Konfigurierbarkeit mit unterschiedlichen Funktionen auf unterschiedlichen Bildschirmen ermöglicht. Das Softwareprogramm kann jede Touch-Screen-Auswahltaste passend neu belegen, während der/die Benutzer/in durch verschiedene Touch-Screens navigiert, was dem/der Benutzer/in „Umschalt"-Funktionen/Vorgänge erspart und die Zahl der notwendigen Hart-Tasten auf einem Minimum hält.
  • Touch-Screens können jedoch für Benutzer/innen schwieriger zu bedienen sein, da es dem Benutzer möglicherweise schwer fällt genau zu erkennen, wo die Touch-Screen-Taste angeordnet ist oder wie weit eine Schiebetaste oder ein Schiebefeld über den Anzeigebildschirm zu bewegen ist, um die gewünschte Funktion zu erhalten. Mit anderen Worten kann es einem Benutzer/einer Benutzerin schwer fallen, die Lage der virtuellen Touch-Screen-Taste zu erkennen. Diese Schwierigkeit kann auftreten, weil der/die Benutzer/in von einem Touch-Screen nicht die gleiche Art sensorischer Rückmeldung erhält, wie sie der/die Benutzer/in von Hart-Tasten erhält (das Gefühl des Einrastens oder den Klang mehrerer umlaufender Klicks zum Beispiel) und durch den Umstand, dass, der/die Benutzer/in möglicherweise nicht direkt auf den Touch-Screen blickt, wenn der Touch-Screen in ein Fahrzeug integriert ist. Mit anderen Worten beanspruchen bestimmte Touch-Screen-Funktionen ein höheres Maß an Aufmerksamkeit und bringen mehr visuelle Belastung für den Benutzer als Hart-Tasten oder Drehknöpfe.
  • Ein Gerät, das ein höheres Maß an visueller Aufmerksamkeit oder kognitiver Belastung vom Benutzer erfordert, ist problematisch, da Benutzer/innen wünschen, mehrere Geräte gleichzeitig bedienen und/oder einer Hauptaufgabe Beachtung schenken zu können, ohne all ihre visuellen Sinne auf ein Gerät richten zu müssen. Zum Beispiel kann ein Benutzer/eine Benutzerin wünschen, während des Führens eines Fahrzeugs die Lautstärke einer Freisprechanlage zu erhöhen. Wenn die Lautstärkefunktion nur als eine virtuelle Schiebetaste auf einem Touch-Screen existiert, kann es dem/der Benutzer/in schwer fallen, die virtuelle Lautstärketaste zu lokalisieren und sicher auf das gewünschte Maß zu schieben, während er sich der Hauptaufgabe des Fahrens widmet.
  • Angesichts des Vorangegangenen ist offensichtlich, dass ein Bedarf an einer berührungsempfindlichen Benutzerschnittstelle besteht, die sich zu nicht-visuellem Gebrauch eignet.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Zur Deckung des oben genannten Bedarfes sowie zur Überwindung der aufgezählten Nachteile und anderen Beschränkungen des Standes der Technik stellt die vorliegende Erfindung eine integrierte Benutzerschnittstelle mit einer sensorischen Oberfläche (wie etwa einem Touch-Screen, einem kapazitiven Berührungssensor, einem Feldeffekt-Sensor oder anderen Oberflächen) bereit, die fähig ist, ein Bewegungs- oder ein Berührungssignal von einem Benutzer/einer Benutzerin zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden. Angrenzend an die sensorische Oberfläche ist ein Blendenmerkmal angeordnet. Das Blendenmerkmal weist mehrere taktile Merkmale auf, die fähig sind, für einen Benutzer eine taktile Rückmeldung bereitzustellen, die dem Bewegungs- oder Berührungssignal entsprechen, das von der sensorischen Oberfläche empfangen wurde.
  • In einem weiteren Aspekt wird ein Verfahren zur Integrierung der Hardware- und der Softwarefunktionen für eine Benutzerschnittstelle bereitgestellt. Das Verfahren umfasst das Anordnen einer Blendenstruktur angrenzend an eine sensorische Oberfläche. Die Blendenstruktur weist mehrere taktile Merkmale und die Sensoroberfläche eine Softwareschnittstelle auf. Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, Auswahlsignale eines Benutzers an mehreren Positionen zu empfangen. Das Verfahren umfasst das Konfigurieren der Lage mindestens eines Abschnittes der Positionen derart, dass die Positionen physisch den taktilen Merkmalen entsprechen. Die taktilen Merkmale stellen entsprechend den von der Benutzerschnittstelle empfangenen Auswahlsignalen eine taktile Rückmeldung an den Benutzer bereit.
  • Weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich dem Fachmann ohne weiteres aus dem Studium der folgenden Beschreibung anhand der Zeichnungen und Ansprüche, die der vorliegenden Patentschrift beigefügt sind und deren Bestandteile sie bilden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Vorderansicht einer ersten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt.
  • 2 ist eine Vorderansicht einer zweiten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt.
  • DETAILLIERTE BESCHREIBUNG
  • In 1 ist eine integrierte Benutzerschnittstelle dargestellt und mit 10 bezeichnet, die die Prinzipien der vorliegenden Erfindung umsetzt. Als ihre Hauptkomponenten umfasst die integrierte Benutzerschnittstelle 10 eine sensorische Oberfläche und eine daran angrenzend angeordnete Hardwarekomponente.
  • In der dargestellten Ausführungsform der 1 ist die sensorische Oberfläche ein Anzeigebildschirm 12. Die sensorische Oberfläche muss kein Anzeigebildschirm sein; stattdessen kann die sensorische Oberfläche jede beliebige Oberfläche mit sensorischen Funktionen sein. Zum Beispiel kann die sensorische Oberfläche eine kapazitive Oberfläche sein, bei der die Bewegungs- oder Berührungssignale vom Benutzer an die Oberfläche übermittelt werden können, selbst wenn die Oberfläche keine Anzeige aufweist. Alternativ kann die sensorische Oberfläche eine auf einer Kamera basierende Oberfläche sein, ein Feldeffekt-Schalter oder sie kann auf irgendeiner anderen Technologie mit ähnlicher Funktion basieren.
  • Auf dem Anzeigebildschirm 12 sind verschiedene Symbole 16 oder andere visuelle Anzeigen 26 angeordnet, wobei einige davon berührungsempfindlich sind. Mit anderen Worten können die Symbole 16 eine Softtastenfunktion aufweisen, die auch „Touch-Screen"-Funktionsweise genannt wird, wie dem Durchschnittsfachmann bekannt ist. Die „Touch-Screen"-Symbole 16 sind fähig, ein taktiles oder Berührungssignal von einem Benutzer zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden, um die gewünschte Funktion des Systems zu aktivieren. In der Ausführungsform der 1 sind die Symbole 16 fähig, die Funktionen eines Audioausgangssignals „Play" (Abspielen), „Stop" (Stopp), „Fast Forward" (Vorlauf) und „Rewind” (Rücklauf) zu aktivieren. Eine visuelle Anzeige 26 stellt eine visuelle Darstellung des Audioausgangssignals bereit.
  • Der Anzeigebildschirm 12 kann auch eine Lautstärkesteuerleiste 28 bereitstellen, die ebenfalls solch eine „Touch-Screen"-Funktion aufweist. Wenn ein Benutzer/eine Benutzerin den Anzeigebildschirm 12 über einem Lautstärkesteuerkästchen 30 berührt, das auf dem Anzeigebildschirm 12 abgebildet ist, kann der/die Benutzer/in das Lautstärkesteuerkästchen 30 auf dem Anzeigebildschirm 12 aufwärts oder abwärts „ziehen" und somit die Lautstärke eines Audiosignals verringern oder erhöhen, das von Lautsprechern (nicht dargestellt) wiedergegeben wird, welche an das Gerät angeschlossen sind, das mit der integrierten Benutzerschnittstelle 10 verbunden ist.
  • Wie oben erwähnt weist die integrierte Benutzerschnittstelle eine Hardwarekomponente auf. In der in 1 dargestellten Ausführungsform ist die Hardwarekomponente ein Rahmen oder eine Blende 14, die angrenzend an mindestens einen Abschnitt des Anzeigebildschirmes 12 angeordnet ist. Der Rahmen 14 weist taktile Merkmale 32 auf, die von verschiedener Größe und Form sein können und über die Oberfläche des Anzeigebildschirmes 12 hinausragen können. So ist eine Anordnung der fühlbaren Merkmale 32 die von konvexen oder erhöhten Erhebungen auf der Oberfläche des Rahmens 14. Das taktile Merkmal ist angrenzend an den Anzeigebildschirm 12 an der Kante des Rahmens 14, entlang der Kante 15 des Rahmens 14, die den Anzeigebildschirm begrenzt, angeordnet, so dass der Finger eines Benutzers gleichzeitig sowohl das taktile Merkmal 32 als auch den Anzeigebildschirm 12 berühren kann. Die Softwareprogrammschnittstelle, die zusammen mit dem Anzeigebildschirm 12 verwendet wird, ist derart gestaltet, dass mindestens einige der virtuellen Tasten auf dem Anzeigebildschirm 12, der Lautstärkesteuerleiste 28 und dem Lautstärkesteuerkästchen 30 in 1 den taktilen Merkmalen 32 entsprechen, die auf dem Rahmen 14 angeordnet sind. Somit sind die Hardware- und die Softwarebenutzerschnittstellen funktional miteinander integriert.
  • Wenn ein/e Benutzer/in das Steuerkästchen 30 aufwärts schiebt, berührt der Finger des Benutzers/der Benutzerin das taktile Merkmal 32. Somit stellt das taktile Merkmal 32 eine Rückmeldung für den/die Benutzer/in bereit, wie weit der/die Benutzer/in das Lautstärkesteuerkästchen 30 bewegt hat, da der/die Benutzer/in die Anzahl der taktilen Merkmale 32 fühlen kann, an denen er/sie das Steuerkästchen 30 vorbeigezogen hat. Da der/die Benutzer/in von den taktilen Merkmalen 32 eine taktile Rückmeldung empfängt, kennt der/die Benutzer/in ohne viel visuelle Anstrengung mit Gewissheit das Lautstärkemaß, das der/die Benutzer/in entlang der Lautstärkeleiste 28 auf dem Anzeigebildschirm 12 einstellt.
  • Eine zweite Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt, ist allgemein als 110 dargestellt. Wie in der ersten Ausführungsform weist die integrierte Benutzerschnittstelle 110 einen Anzeigebildschirm 112 auf, der von einem Rahmen 114 umgeben ist. Die Symbole 116, 118, 120, 122, 124 weisen eine „Touch-Screen"-Funktion auf und weitere visuelle Anzeigen 126 sind auf dem Anzeigebildschirm 112 sichtbar.
  • Entlang mindestens eines Abschnittes des Rahmens 114 ist ein Blendenmerkmal 115 bereitgestellt, das angrenzend an den Anzeigebildschirm 112 angeordnet ist und sich teilweise über den Anzeigebildschirm 112 erstreckt. Das Blendenmerkmal 115 weist die taktilen Merkmale 132, 134, 136, 138, 140 auf. Die mit dem Anzeigebildschirm 112 verwendete Softwareprogrammschnittstelle ist derart gestaltet, dass die Lage der Symbole 116, 118, 120, 122, 124 der Lage der taktilen Merkmale 132, 134, 136, 138, 140 entsprechen. Somit sind die Hardware- und die Softwarebenutzerschnittstelle miteinander integriert.
  • Die taktilen Merkmale 132, 134, 136, 138, 140 der in 2 gezeigten Ausführungsform sind allgemein konkav und weisen die Oberflächeneigenschaften 142, 144, 146, 148 auf, die entlang der konkaven Oberflächen der taktilen Merkmale 132, 134, 136, 138, 140 angeordnet sind. Die Oberflächeneigenschaften 142, 144, 146, 148 der verschiedenen taktilen Merkmale 132, 134, 136, 138, 140 unterscheiden sich voneinander. Dies soll für den/die Benutzer/in eine taktile Rückmeldung darüber bereitstellen, welches Symbol der/die Benutzer/in unter Verwendung der Touch-Screen-Funktion ausgewählt hat, ohne große visueller Anstrengung von Seiten des Benutzers/der Benutzerin zu erfordern.
  • Wenn in 2 zum Beispiel der/die Benutzer/in auf das „Play"-Symbol drücken und dadurch ein entsprechendes Gerät aktivieren möchte, um eine Audio- oder Videoausgabe zu erzeugen, legt er/sie seine/ihren Finger in das konkave taktile Merkmal 132 mit der glatten Oberflächeneigenschaft 142, das seinen/ihren Finger in Berührung mit dem „Play"-Symbol 118 auf den Anzeigebildschirm 112 bringt. In gleicher Weise legt der/die Benutzer/in, wenn er/sie die Audio- oder Videoausgabe „Fast Forward" wünscht, seinen/ihren Finger in das vertiefte taktile Merkmal 140 mit einer spitz gezahnten Oberflächeneigenschaft 148, das seinen/ihren Finger in Berührung mit dem „Fast-Forward"- oder Skip-Forward-Symbol (Vorwärts-Springen-Symbol) 124 auf dem Anzeigebildschirm 112 bringt, wodurch die „Fast-Forward"-Auswahl aktiviert wird. In ähnlicher Weise sind das „Rewind"- oder Skip-Back-Symbol (Rückwärts-Springen-Symbol) 122 und das „Stop"-Symbol 120 mit unterschiedlichen Oberflächeneigenschaften 146, 144 versehen, wie etwa mit einer rund gezahnten Oberfläche beziehungsweise einer segmentierten Oberfläche.
  • Eines der konkaven taktilen Merkmale 132 kann mit einer Grundstruktur versehen sein, die sich von den anderen taktilen Merkmalen 134, 136, 138, 140 unterscheidet. Zum Beispiel kann das taktile Merkmal 132 mit dem ihm zugeordneten „Sound"-Symbol (Klang-Symbol) 116 mit einer rechteckigen konkaven Struktur versehen sein, während die anderen taktilen Merkmale 134, 136, 138, 140 mit einer kreisförmigen oder gerundeten Struktur versehen sind. Ebenso können andere taktile Oberflächen anderen Funktionen entsprechen.
  • Da der/die Benutzer/in entweder die unterschiedlichen Strukturen der taktilen Merkmale 132, 134, 136, 138, 140 oder deren unterschiedliche Oberflächeneigenschaften 142, 144, 146, 148 fühlen kann, stellen die taktilen Merkmale 132, 134, 136, 138, 140 eine taktile Rückmeldung für den/die Benutzer/in darüber bereit, welches Symbol 116, 118, 120, 122, 124 der/die Benutzer/in mit dem „Touch-Screen"-Merkmal des Anzeigebildschirms 112 auswählt. Deshalb ist mit der integrierten Benutzerschnittstelle 110 beabsichtigt, dem/der Benutzer/in ohne viel visuelle Anstrengung die „Touch-Screen"-Auswahl zu ermöglichen, da der/die Benutzer/in, basierend auf seinem/ihrem Berührungssinn, in der Lage ist zu erkennen, welche Symbole 116, 118, 120, 122, 124 er/sie auswählt. Nachdem der/die Benutzer/in mit den Anzeigemerkmalen und -funktionen eines konkreten Softwareprogramms auf dem Anzeigebildschirm 112 vertraut geworden ist, kann er/sie sich, basierend auf dem Berührungsgefühl, leicht erinnern, welche taktilen Merkmale 132, 134, 136, 138, 140 welchen Funktionen entsprechen.
  • Die vorliegende Erfindung zieht außerdem ein Verfahren zur Integrierung von Hardware- und Softwarefunktionalität in eine Benutzerschnittstelle in Betracht. Das Verfahren umfasst das Anordnen einer Blendenstruktur angrenzend an eine sensorische Oberfläche, wie einem Anzeigebildschirm 12 mit einer Softwareschnittstelle. Die Blendenstruktur weist mehrere taktile Merkmale 32 auf, die im Wesentlichen denen ähneln, die im Vorangegangenen in Bezug zu entweder 1 oder zu 2 beschrieben sind, die durch Bezugnahme hierein aufgenommen sind.
  • Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, an verschiedenen Positionen des Anzeigebildschirms 12 taktile Signale von einem Benutzer/einer Benutzerin zu empfangen. Mit anderen Worten ist der Anzeigebildschirm mit „Touch-Screen"-Funktionen konfiguriert. Die sensorische Oberfläche kann alternativ eine kapazitive Oberfläche sein, die fähig ist, auf Berührung zu reagieren, oder jede beliebige andere sensorische Oberfläche, die dafür konfiguriert sein kann, auf Berührung oder Bewegung in einem Nahfeld zu reagieren.
  • Des Weiteren schließt das durch die vorliegende Erfindung in Betracht gezogene Verfahren das Konfigurieren der Lage mindestens eines Abschnittes der Positionen, die zum Empfangen des taktilen Signals in der Lage sind, derart auf dem Bildschirm ein, dass die Lage und die Positionen physisch den taktilen Merkmalen 32 entsprechen, was ermöglicht, dass die taktilen Merkmale 32 und die Positionen auf dem Anzeigebildschirm 12 von dem/der Benutzer/in der Schnittstelle 10 gleichzeitig berührt werden. Das System kann so konfiguriert werden, dass einige der Positionen den taktilen Merkmalen 32 entsprechen, wie das Lautstärkesteuerkästchen 30, andere, wie ein Symbol mit fester Position 16, jedoch nicht. Im Ergebnis der vorliegenden Erfindung stellen die taktilen Merkmale 32 eine taktile Rückmeldung an den/die Benutzer/in bereit, die den taktilen Signalen entsprechen, welche von der Softwareschnittstelle empfangen werden, wenn die sensorische Oberfläche von dem/der Benutzer/in berührt wird.
  • Wie ein Fachmann ohne weiteres erkennen wird, ist die vorangegangene Beschreibung als eine Veranschaulichung der Umsetzung der Prinzipien dieser Erfindung gedacht. Diese Beschreibung soll den Schutzumfang oder den Anwendungsbereich dieser Erfindung insofern nicht begrenzen, als die Erfindung modifiziert, variiert und verändert werden kann, ohne von dem in den folgenden Ansprüchen definierten Geist dieser Erfindung abzuweichen.
  • 10
    Benutzerschnittstelle
    12
    Anzeigebildschirm
    14
    Rahmen oder Blende
    15
    Kante
    16
    Symbole
    26
    visuelle Anzeige
    28
    Lautstärkesteuerleiste
    30
    Lautstärkesteuerkästchen
    32
    taktile Merkmale
    110
    Benutzerschnittstelle
    112
    Anzeigebildschirm
    114
    Rahmen
    115
    Blendenmerkmal
    116
    Symbol
    118
    Symbol
    120
    Symbol
    122
    Symbol
    124
    Symbol
    126
    visuelle Anzeigen
    132
    taktiles Merkmal
    134
    taktiles Merkmal
    136
    taktiles Merkmal
    138
    taktiles Merkmal
    140
    taktiles Merkmal
    142
    Oberflächeneigenschaft
    144
    Oberflächeneigenschaft
    146
    Oberflächeneigenschaft
    148
    Oberflächeneigenschaft

Claims (19)

  1. Integrierte Benutzerschnittstelle (10, 110), Folgendes umfassend: eine sensorische Oberfläche, die dafür konfiguriert ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen, woraus ein entsprechendes Befehlssignal innerhalb eines Softwaresystems entsteht, mindestens einen Abschnitt eines Rahmens (14, 114), der angrenzend an die sensorische Oberfläche angeordnet ist, wobei der Abschnitt des Rahmens (14, 114) mehrere taktile Merkmale (32, 132, 134, 136, 138, 140) umfasst, die derart angeordnet sind, dass das Auswahlsignal von der sensorischen Oberfläche gleichzeitig mit der Berührung eines taktilen Merkmals (32, 132, 134, 136, 138, 140) der mehreren taktile Merkmale (32, 132, 134, 136, 138, 140) durch den Finger eines Benutzers/einer Benutzerin empfangen werden kann, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die dem von der sensorischen Oberfläche empfangenen Auswahlsignal entsprechen.
  2. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 1, wobei mindestens einige der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) eine konvexe Struktur aufweisen.
  3. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 1, wobei mindestens einige der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) eine konkave Struktur aufweisen.
  4. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 3, wobei jedes taktile Merkmal (32, 132, 134, 136, 138, 140) eine Oberflächeneigenschaft (142, 144, 146, 148) aufweist und die Oberflächeneigenschaft (142, 144, 146, 148) eine taktile Rückmeldung für den/die Benutzer/in bereitstellt.
  5. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 4, wobei sich die Oberflächeneigenschaft (142, 144, 146, 148) mindestens zweier taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheidet.
  6. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 4 oder 5, wobei sich die Oberflächeneigenschaften (142, 144, 146, 148) aneinander angrenzender taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheiden.
  7. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 6, wobei sich ein erstes taktiles Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) in der Struktur von einem zweiten taktilen Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) unterscheidet.
  8. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 7, wobei sich ein erstes taktiles Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) in der Größe von einem zweiten taktilen Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) unterscheidet.
  9. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 8, wobei die sensorische Oberfläche ein Anzeigebildschirm (12, 112) ist.
  10. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 9, wobei das sensorische Signal fähig ist, das Auswahlsignal durch Berührung zu empfangen.
  11. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 10, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) über die sensorische Oberfläche hinausragen.
  12. Verfahren zur Integrierung von Hardware- und Softwarefunktionen für eine Benutzerschnittstelle (10, 110), Folgendes umfassend: Anordnen eines Abschnittes eines Rahmens (14, 114) angrenzend an eine sensorische Oberfläche, die eine Softwareschnittstelle umfasst, wobei der Abschnitt des Rahmens (14, 114) mehrere taktile Merkmale (32, 132, 134, 136, 138, 140) aufweist, Konfigurieren der Softwareschnittstelle derart, dass die Softwareschnittstelle fähig ist, an mehreren Positionen Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und Konfigurieren der Lage mindestens einiger der mehreren Positionen derart, dass die Positionen an die taktilen Merkmale (32, 132, 134, 136, 138, 140) angrenzen und ihnen entsprechen, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die den von der Softwareschnittstelle empfangenen Auswahlsignalen entspricht.
  13. Verfahren nach Anspruch 12, ferner umfassend den Schritt des Bereitstellens mindestens einiger der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) mit einer konvexen Form.
  14. Verfahren nach Anspruch 12, ferner umfassend den Schritt des Bereitstellens mindestens einiger der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) mit einer konkaven Form.
  15. Verfahren nach einem der Ansprüche 12 bis 14, ferner umfassend den Schritt des Bildens der taktilen Merkmale (32, 132, 134, 136, 138, 140) mit einer Oberflächeneigenschaft (142, 144, 146, 148), wobei sich die Oberflächeneigenschaften (142, 144, 146, 148) aneinander angrenzender taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheiden.
  16. Verfahren nach einem der Ansprüche 12 bis 15, wobei die sensorische Oberfläche als ein Anzeigebildschirm (12, 112) bereitgestellt wird.
  17. Verfahren nach einem der Ansprüche 12 bis 16, ferner umfassend den Schritt des Konfigurierens der sensorischen Oberfläche zum Empfangen der Auswahlsignale durch Berührung.
  18. Verfahren nach Anspruch 17, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (32, 132, 134, 136, 138, 140), um gleichzeitig von einem normalen Finger eines Benutzers/einer Benutzerin berührt zu werden.
  19. Verfahren nach einem der Ansprüche 12 bis 18, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (32, 132, 134, 136, 138, 140) derart, dass die Positionen fähig sind, die Auswahlsignale gleichzeitig zu empfangen, wenn die jeweils entsprechenden taktilen Merkmale (32, 132, 134, 136, 138, 140) von einem Finger eines Benutzers/einer Benutzer/in berührt werden.
DE200810000001 2007-01-05 2008-01-02 Integrierte Hardware- und Softwarebenutzerschnittstelle Expired - Fee Related DE102008000001B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/620,638 US8963842B2 (en) 2007-01-05 2007-01-05 Integrated hardware and software user interface
US11/620,638 2007-01-05

Publications (2)

Publication Number Publication Date
DE102008000001A1 true DE102008000001A1 (de) 2008-07-10
DE102008000001B4 DE102008000001B4 (de) 2012-02-09

Family

ID=38858272

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200810000001 Expired - Fee Related DE102008000001B4 (de) 2007-01-05 2008-01-02 Integrierte Hardware- und Softwarebenutzerschnittstelle

Country Status (3)

Country Link
US (1) US8963842B2 (de)
DE (1) DE102008000001B4 (de)
GB (1) GB2445445B (de)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6914551B2 (en) * 2002-04-12 2005-07-05 Apple Computer, Inc. Apparatus and method to facilitate universal remote control
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US20090156251A1 (en) * 2007-12-12 2009-06-18 Alan Cannistraro Remote control protocol for media systems controlled by portable devices
US20090319893A1 (en) * 2008-06-24 2009-12-24 Nokia Corporation Method and Apparatus for Assigning a Tactile Cue
US8659555B2 (en) 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
US9716774B2 (en) 2008-07-10 2017-07-25 Apple Inc. System and method for syncing a user interface on a server device to a user interface on a client device
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
KR20110067755A (ko) * 2009-12-15 2011-06-22 삼성전자주식회사 휴대용 단말기에서 오디오 신호 출력 방법 및 장치
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
DE102010063189A1 (de) * 2010-12-16 2012-06-21 BSH Bosch und Siemens Hausgeräte GmbH Bedienvorrichtung für ein Hausgerät sowie Hausgerät, insbesondere Backofen, mit einer Bedienvorrichtung
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
FR2993069B1 (fr) * 2012-07-09 2015-02-27 Ece Cadre ergonomique pour interface de commande tactile et interface de commande correspondante
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102094886B1 (ko) * 2013-02-28 2020-03-30 엘지전자 주식회사 택타일 피드백 및 비주얼 피드백을 선택적으로 출력하는 디스플레이 디바이스 및 그 제어 방법
US9395816B2 (en) 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US20140300555A1 (en) * 2013-04-05 2014-10-09 Honeywell International Inc. Avionic touchscreen control systems and program products having "no look" control selection feature
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US10429930B2 (en) * 2015-01-30 2019-10-01 Ncr Corporation Accessible tactile features for blind and partially sighted PIN entry and touchscreen usage
US20160334901A1 (en) * 2015-05-15 2016-11-17 Immersion Corporation Systems and methods for distributing haptic effects to users interacting with user interfaces
US10340593B2 (en) 2016-02-25 2019-07-02 Raytheon Company Systems and methods for phased array beam control
DE102016214692B4 (de) * 2016-08-08 2018-02-15 Audi Ag Verfahren und Benutzerschnittstelle, betreffend eine haptische Rückmeldung für einen Bildschirm
JP6747941B2 (ja) * 2016-11-04 2020-08-26 アルパイン株式会社 タッチ式入力装置および操作検出方法
JP2019087054A (ja) * 2017-11-07 2019-06-06 富士通コンポーネント株式会社 入力装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3123596A1 (de) 1981-06-13 1983-01-05 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Handapparat fuer ein mobilfunkgeraet, insbesondere autotelefon
US4940346A (en) * 1987-04-01 1990-07-10 Liljenquist Don C Keyboard assembly and typing method
JPH03105462A (ja) * 1989-09-20 1991-05-02 Hitachi Ltd 現金自動取引装置のデータ入力方法
FR2697935B1 (fr) * 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
JPH08194856A (ja) * 1995-01-17 1996-07-30 Hitachi Ltd 入力装置
JP3195724B2 (ja) * 1995-04-26 2001-08-06 シャープ株式会社 情報処理装置
US6049328A (en) 1995-10-20 2000-04-11 Wisconsin Alumni Research Foundation Flexible access system for touch screen devices
US5748185A (en) * 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions
US6639577B2 (en) * 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
JP2002111813A (ja) * 2000-08-24 2002-04-12 Sony Internatl Europ Gmbh 無線通信システムの携帯型通信装置
US20020070915A1 (en) * 2000-12-08 2002-06-13 Mazza Thomas A. Trading system controller
US6972749B2 (en) * 2001-08-29 2005-12-06 Microsoft Corporation Touch-sensitive device for scrolling a document on a display
US7091964B2 (en) * 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
JP3784355B2 (ja) 2002-09-20 2006-06-07 クラリオン株式会社 電子機器
US7187394B2 (en) * 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
US7453442B1 (en) * 2002-12-03 2008-11-18 Ncr Corporation Reconfigurable user interface systems
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
FR2874714A1 (fr) 2004-09-02 2006-03-03 France Telecom Dispositif de selection tactile
US7355595B2 (en) * 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US20070257889A1 (en) * 2006-05-05 2007-11-08 Clemens Croy Display lit soft keys that have multiple states of activation potentially associated with each soft key
US8100594B2 (en) * 2006-10-27 2012-01-24 Symbol Technologies, Inc. Data input arrangement with a shaped interface
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels

Also Published As

Publication number Publication date
DE102008000001B4 (de) 2012-02-09
GB2445445A8 (en) 2008-07-10
US20080164982A1 (en) 2008-07-10
GB2445445A (en) 2008-07-09
GB0721821D0 (en) 2007-12-19
US8963842B2 (en) 2015-02-24
GB2445445B (en) 2011-03-23

Similar Documents

Publication Publication Date Title
DE102008000001B4 (de) Integrierte Hardware- und Softwarebenutzerschnittstelle
DE602004011676T2 (de) Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
DE102009012638A1 (de) Verfahren zur Anzeige und Anwendung einer Bedienschnittstelle und ein elektronisches Gerät
DE10110943B4 (de) Positionieren von auf einer Benutzeroberfläche angezeigten Bereichen
EP2924551B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP3282352B1 (de) Verfahren und bedienvorrichtung zum bedienen einer einrichtung
DE102009013922A1 (de) Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü
WO2006066742A1 (de) Bediensystem für ein fahrzeug
EP3418861B1 (de) Verfahren zum betreiben einer anzeigevorrichtung sowie ein kraftfahrzeug
EP2425321B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE102018100197A1 (de) Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
EP2867762A1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
EP3535154A1 (de) Anordnung einer grafischen benutzerschnittstelle in einem fahrzeug und verfahren zum bereitstellen einer grafischen benutzerschnittstelle in einem fahrzeug
DE102016010920A1 (de) Smart touch
DE102012205865A1 (de) Steuereinheit, Eingabevorrichtung und Verfahren für ein Informations- und Kommunikationssystem
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
DE102014200609A1 (de) Berührungssensitive Bedienvorrichtung mit Mulde
EP2310935B1 (de) Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung
DE102018222124A1 (de) Verfahren und System zum Einstellen eines Wertes eines Parameters
DE102017109254A1 (de) Digitalkamera
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
EP3523714A1 (de) Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle
EP3749540B1 (de) Bedienvorrichtung sowie verfahren und computerlesbares speichermedium mit instruktionen zum einrichten einer bedienvorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120510

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee