DE102008000001A1 - Integrierte Hardware- und Softwarebenutzerschnittstelle - Google Patents
Integrierte Hardware- und Softwarebenutzerschnittstelle Download PDFInfo
- Publication number
- DE102008000001A1 DE102008000001A1 DE200810000001 DE102008000001A DE102008000001A1 DE 102008000001 A1 DE102008000001 A1 DE 102008000001A1 DE 200810000001 DE200810000001 DE 200810000001 DE 102008000001 A DE102008000001 A DE 102008000001A DE 102008000001 A1 DE102008000001 A1 DE 102008000001A1
- Authority
- DE
- Germany
- Prior art keywords
- tactile
- user interface
- user
- tactile features
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Eine integrierte Benutzerschnittstelle hat eine sensorische Oberfläche, die fähig ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu senden. Die integrierte Benutzerschnittstelle weist mehrere taktile Merkmale auf, die fähig sind, eine taktile Rückmeldung für einen Benutzer/eine Benutzerin bereitzustellen, die dem Auswahlsignal entspricht, das von der sensorischen Oberfläche empfangen wird, wenn sie gleichzeitig von dem/der Benutzer/in ausgewählt werden. Ebenfalls offenbart ist ein Verfahren zur Integrierung der Hardware- und Softwarefunktion für eine Benutzerschnittstelle.
Description
- ALLGEMEINER STAND DER TECHNIK
- 1. Gebiet der Erfindung
- Die vorliegende Erfindung betrifft allgemein Benutzerschnittstellen für sensorische Oberflächen. Insbesondere betrifft die Erfindung Benutzerschnittstellen für sensorische Oberflächen mit einer berührungsempfindlichen Funktion.
- 2. Stand der Technik
- Anzeigebildschirme von elektronischen Geräten weisen häufig Benutzerschnittstellen auf, über die der/die Benutzer/in eine Auswahl hinsichtlich verschiedener, auf dem Anzeigebildschirm angezeigter Bilder vornehmen kann. Bei einem Mobiltelefon zum Beispiel tippt der/die Benutzer/in mit Hilfe einer Tastatur eine Telefonnummer ein, was bewirkt, dass die Telefonnummer auf dem Bildschirm angezeigt wird. Wenn der/die Benutzer/in eine „Ruf"- oder „Gespräch"-Taste drückt, zeigt der Bildschirm, dass das Telefon die eingegebene Nummer wählt.
- Derzeitige Anzeigeanwendungen können allgemein in zwei Hauptarten unterteilt werden: 1) Anzeigebildschirme mit off-screen (nicht auf dem Bildschirm befindlicher) Harttastensteuerung und 2) Anzeigebildschirme mit Touch-Screen-Funktion (Bildschirmberührungsfunktion). Einige Geräte ermöglichen die Verwendung beider Funktionsweisen. Zum Beispiel kann ein Persönlicher Digitaler Assistent (PDA) einem Benutzer ermöglichen, Bilder entweder mit Hilfe eines Touch-Screens oder mit Hilfe einer Hart-Taste auszuwählen. Andere Geräte stellen bisher durch Anordnen von Hart-Tasten neben einem Bildschirm eine gewisse Verbindung von Hart- und Soft-Tastenmerkmalen bereit, so dass eine Hart-Taste gedrückt werden kann um ein Bild auszuwählen, das angrenzend an die Hart-Taste auf dem Anzeigebildschirm angezeigt wird.
- Touch-Screens können in größerem Umfang Funktionen ermöglichen als Hart-Tasten, da die von der Software bereitgestellten Anzeigen für verschiedene Navigationsbildschirme verändert werden können, was eine bessere Anpassung an Kundenwünsche und eine bessere Konfigurierbarkeit mit unterschiedlichen Funktionen auf unterschiedlichen Bildschirmen ermöglicht. Das Softwareprogramm kann jede Touch-Screen-Auswahltaste passend neu belegen, während der/die Benutzer/in durch verschiedene Touch-Screens navigiert, was dem/der Benutzer/in „Umschalt"-Funktionen/Vorgänge erspart und die Zahl der notwendigen Hart-Tasten auf einem Minimum hält.
- Touch-Screens können jedoch für Benutzer/innen schwieriger zu bedienen sein, da es dem Benutzer möglicherweise schwer fällt genau zu erkennen, wo die Touch-Screen-Taste angeordnet ist oder wie weit eine Schiebetaste oder ein Schiebefeld über den Anzeigebildschirm zu bewegen ist, um die gewünschte Funktion zu erhalten. Mit anderen Worten kann es einem Benutzer/einer Benutzerin schwer fallen, die Lage der virtuellen Touch-Screen-Taste zu erkennen. Diese Schwierigkeit kann auftreten, weil der/die Benutzer/in von einem Touch-Screen nicht die gleiche Art sensorischer Rückmeldung erhält, wie sie der/die Benutzer/in von Hart-Tasten erhält (das Gefühl des Einrastens oder den Klang mehrerer umlaufender Klicks zum Beispiel) und durch den Umstand, dass, der/die Benutzer/in möglicherweise nicht direkt auf den Touch-Screen blickt, wenn der Touch-Screen in ein Fahrzeug integriert ist. Mit anderen Worten beanspruchen bestimmte Touch-Screen-Funktionen ein höheres Maß an Aufmerksamkeit und bringen mehr visuelle Belastung für den Benutzer als Hart-Tasten oder Drehknöpfe.
- Ein Gerät, das ein höheres Maß an visueller Aufmerksamkeit oder kognitiver Belastung vom Benutzer erfordert, ist problematisch, da Benutzer/innen wünschen, mehrere Geräte gleichzeitig bedienen und/oder einer Hauptaufgabe Beachtung schenken zu können, ohne all ihre visuellen Sinne auf ein Gerät richten zu müssen. Zum Beispiel kann ein Benutzer/eine Benutzerin wünschen, während des Führens eines Fahrzeugs die Lautstärke einer Freisprechanlage zu erhöhen. Wenn die Lautstärkefunktion nur als eine virtuelle Schiebetaste auf einem Touch-Screen existiert, kann es dem/der Benutzer/in schwer fallen, die virtuelle Lautstärketaste zu lokalisieren und sicher auf das gewünschte Maß zu schieben, während er sich der Hauptaufgabe des Fahrens widmet.
- Angesichts des Vorangegangenen ist offensichtlich, dass ein Bedarf an einer berührungsempfindlichen Benutzerschnittstelle besteht, die sich zu nicht-visuellem Gebrauch eignet.
- KURZDARSTELLUNG DER ERFINDUNG
- Zur Deckung des oben genannten Bedarfes sowie zur Überwindung der aufgezählten Nachteile und anderen Beschränkungen des Standes der Technik stellt die vorliegende Erfindung eine integrierte Benutzerschnittstelle mit einer sensorischen Oberfläche (wie etwa einem Touch-Screen, einem kapazitiven Berührungssensor, einem Feldeffekt-Sensor oder anderen Oberflächen) bereit, die fähig ist, ein Bewegungs- oder ein Berührungssignal von einem Benutzer/einer Benutzerin zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden. Angrenzend an die sensorische Oberfläche ist ein Blendenmerkmal angeordnet. Das Blendenmerkmal weist mehrere taktile Merkmale auf, die fähig sind, für einen Benutzer eine taktile Rückmeldung bereitzustellen, die dem Bewegungs- oder Berührungssignal entsprechen, das von der sensorischen Oberfläche empfangen wurde.
- In einem weiteren Aspekt wird ein Verfahren zur Integrierung der Hardware- und der Softwarefunktionen für eine Benutzerschnittstelle bereitgestellt. Das Verfahren umfasst das Anordnen einer Blendenstruktur angrenzend an eine sensorische Oberfläche. Die Blendenstruktur weist mehrere taktile Merkmale und die Sensoroberfläche eine Softwareschnittstelle auf. Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, Auswahlsignale eines Benutzers an mehreren Positionen zu empfangen. Das Verfahren umfasst das Konfigurieren der Lage mindestens eines Abschnittes der Positionen derart, dass die Positionen physisch den taktilen Merkmalen entsprechen. Die taktilen Merkmale stellen entsprechend den von der Benutzerschnittstelle empfangenen Auswahlsignalen eine taktile Rückmeldung an den Benutzer bereit.
- Weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich dem Fachmann ohne weiteres aus dem Studium der folgenden Beschreibung anhand der Zeichnungen und Ansprüche, die der vorliegenden Patentschrift beigefügt sind und deren Bestandteile sie bilden.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
-
1 ist eine Vorderansicht einer ersten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt. -
2 ist eine Vorderansicht einer zweiten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt. - DETAILLIERTE BESCHREIBUNG
- In
1 ist eine integrierte Benutzerschnittstelle dargestellt und mit10 bezeichnet, die die Prinzipien der vorliegenden Erfindung umsetzt. Als ihre Hauptkomponenten umfasst die integrierte Benutzerschnittstelle10 eine sensorische Oberfläche und eine daran angrenzend angeordnete Hardwarekomponente. - In der dargestellten Ausführungsform der
1 ist die sensorische Oberfläche ein Anzeigebildschirm12 . Die sensorische Oberfläche muss kein Anzeigebildschirm sein; stattdessen kann die sensorische Oberfläche jede beliebige Oberfläche mit sensorischen Funktionen sein. Zum Beispiel kann die sensorische Oberfläche eine kapazitive Oberfläche sein, bei der die Bewegungs- oder Berührungssignale vom Benutzer an die Oberfläche übermittelt werden können, selbst wenn die Oberfläche keine Anzeige aufweist. Alternativ kann die sensorische Oberfläche eine auf einer Kamera basierende Oberfläche sein, ein Feldeffekt-Schalter oder sie kann auf irgendeiner anderen Technologie mit ähnlicher Funktion basieren. - Auf dem Anzeigebildschirm
12 sind verschiedene Symbole16 oder andere visuelle Anzeigen26 angeordnet, wobei einige davon berührungsempfindlich sind. Mit anderen Worten können die Symbole16 eine Softtastenfunktion aufweisen, die auch „Touch-Screen"-Funktionsweise genannt wird, wie dem Durchschnittsfachmann bekannt ist. Die „Touch-Screen"-Symbole16 sind fähig, ein taktiles oder Berührungssignal von einem Benutzer zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden, um die gewünschte Funktion des Systems zu aktivieren. In der Ausführungsform der1 sind die Symbole16 fähig, die Funktionen eines Audioausgangssignals „Play" (Abspielen), „Stop" (Stopp), „Fast Forward" (Vorlauf) und „Rewind” (Rücklauf) zu aktivieren. Eine visuelle Anzeige26 stellt eine visuelle Darstellung des Audioausgangssignals bereit. - Der Anzeigebildschirm
12 kann auch eine Lautstärkesteuerleiste28 bereitstellen, die ebenfalls solch eine „Touch-Screen"-Funktion aufweist. Wenn ein Benutzer/eine Benutzerin den Anzeigebildschirm12 über einem Lautstärkesteuerkästchen30 berührt, das auf dem Anzeigebildschirm12 abgebildet ist, kann der/die Benutzer/in das Lautstärkesteuerkästchen30 auf dem Anzeigebildschirm12 aufwärts oder abwärts „ziehen" und somit die Lautstärke eines Audiosignals verringern oder erhöhen, das von Lautsprechern (nicht dargestellt) wiedergegeben wird, welche an das Gerät angeschlossen sind, das mit der integrierten Benutzerschnittstelle10 verbunden ist. - Wie oben erwähnt weist die integrierte Benutzerschnittstelle eine Hardwarekomponente auf. In der in
1 dargestellten Ausführungsform ist die Hardwarekomponente ein Rahmen oder eine Blende14 , die angrenzend an mindestens einen Abschnitt des Anzeigebildschirmes12 angeordnet ist. Der Rahmen14 weist taktile Merkmale32 auf, die von verschiedener Größe und Form sein können und über die Oberfläche des Anzeigebildschirmes12 hinausragen können. So ist eine Anordnung der fühlbaren Merkmale32 die von konvexen oder erhöhten Erhebungen auf der Oberfläche des Rahmens14 . Das taktile Merkmal ist angrenzend an den Anzeigebildschirm12 an der Kante des Rahmens14 , entlang der Kante15 des Rahmens14 , die den Anzeigebildschirm begrenzt, angeordnet, so dass der Finger eines Benutzers gleichzeitig sowohl das taktile Merkmal32 als auch den Anzeigebildschirm12 berühren kann. Die Softwareprogrammschnittstelle, die zusammen mit dem Anzeigebildschirm12 verwendet wird, ist derart gestaltet, dass mindestens einige der virtuellen Tasten auf dem Anzeigebildschirm12 , der Lautstärkesteuerleiste28 und dem Lautstärkesteuerkästchen30 in1 den taktilen Merkmalen32 entsprechen, die auf dem Rahmen14 angeordnet sind. Somit sind die Hardware- und die Softwarebenutzerschnittstellen funktional miteinander integriert. - Wenn ein/e Benutzer/in das Steuerkästchen
30 aufwärts schiebt, berührt der Finger des Benutzers/der Benutzerin das taktile Merkmal32 . Somit stellt das taktile Merkmal32 eine Rückmeldung für den/die Benutzer/in bereit, wie weit der/die Benutzer/in das Lautstärkesteuerkästchen30 bewegt hat, da der/die Benutzer/in die Anzahl der taktilen Merkmale32 fühlen kann, an denen er/sie das Steuerkästchen30 vorbeigezogen hat. Da der/die Benutzer/in von den taktilen Merkmalen32 eine taktile Rückmeldung empfängt, kennt der/die Benutzer/in ohne viel visuelle Anstrengung mit Gewissheit das Lautstärkemaß, das der/die Benutzer/in entlang der Lautstärkeleiste28 auf dem Anzeigebildschirm12 einstellt. - Eine zweite Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt, ist allgemein als
110 dargestellt. Wie in der ersten Ausführungsform weist die integrierte Benutzerschnittstelle110 einen Anzeigebildschirm112 auf, der von einem Rahmen114 umgeben ist. Die Symbole116 ,118 ,120 ,122 ,124 weisen eine „Touch-Screen"-Funktion auf und weitere visuelle Anzeigen126 sind auf dem Anzeigebildschirm112 sichtbar. - Entlang mindestens eines Abschnittes des Rahmens
114 ist ein Blendenmerkmal115 bereitgestellt, das angrenzend an den Anzeigebildschirm112 angeordnet ist und sich teilweise über den Anzeigebildschirm112 erstreckt. Das Blendenmerkmal115 weist die taktilen Merkmale132 ,134 ,136 ,138 ,140 auf. Die mit dem Anzeigebildschirm112 verwendete Softwareprogrammschnittstelle ist derart gestaltet, dass die Lage der Symbole116 ,118 ,120 ,122 ,124 der Lage der taktilen Merkmale132 ,134 ,136 ,138 ,140 entsprechen. Somit sind die Hardware- und die Softwarebenutzerschnittstelle miteinander integriert. - Die taktilen Merkmale
132 ,134 ,136 ,138 ,140 der in2 gezeigten Ausführungsform sind allgemein konkav und weisen die Oberflächeneigenschaften142 ,144 ,146 ,148 auf, die entlang der konkaven Oberflächen der taktilen Merkmale132 ,134 ,136 ,138 ,140 angeordnet sind. Die Oberflächeneigenschaften142 ,144 ,146 ,148 der verschiedenen taktilen Merkmale132 ,134 ,136 ,138 ,140 unterscheiden sich voneinander. Dies soll für den/die Benutzer/in eine taktile Rückmeldung darüber bereitstellen, welches Symbol der/die Benutzer/in unter Verwendung der Touch-Screen-Funktion ausgewählt hat, ohne große visueller Anstrengung von Seiten des Benutzers/der Benutzerin zu erfordern. - Wenn in
2 zum Beispiel der/die Benutzer/in auf das „Play"-Symbol drücken und dadurch ein entsprechendes Gerät aktivieren möchte, um eine Audio- oder Videoausgabe zu erzeugen, legt er/sie seine/ihren Finger in das konkave taktile Merkmal132 mit der glatten Oberflächeneigenschaft142 , das seinen/ihren Finger in Berührung mit dem „Play"-Symbol118 auf den Anzeigebildschirm112 bringt. In gleicher Weise legt der/die Benutzer/in, wenn er/sie die Audio- oder Videoausgabe „Fast Forward" wünscht, seinen/ihren Finger in das vertiefte taktile Merkmal140 mit einer spitz gezahnten Oberflächeneigenschaft148 , das seinen/ihren Finger in Berührung mit dem „Fast-Forward"- oder Skip-Forward-Symbol (Vorwärts-Springen-Symbol)124 auf dem Anzeigebildschirm112 bringt, wodurch die „Fast-Forward"-Auswahl aktiviert wird. In ähnlicher Weise sind das „Rewind"- oder Skip-Back-Symbol (Rückwärts-Springen-Symbol)122 und das „Stop"-Symbol120 mit unterschiedlichen Oberflächeneigenschaften146 ,144 versehen, wie etwa mit einer rund gezahnten Oberfläche beziehungsweise einer segmentierten Oberfläche. - Eines der konkaven taktilen Merkmale
132 kann mit einer Grundstruktur versehen sein, die sich von den anderen taktilen Merkmalen134 ,136 ,138 ,140 unterscheidet. Zum Beispiel kann das taktile Merkmal132 mit dem ihm zugeordneten „Sound"-Symbol (Klang-Symbol)116 mit einer rechteckigen konkaven Struktur versehen sein, während die anderen taktilen Merkmale134 ,136 ,138 ,140 mit einer kreisförmigen oder gerundeten Struktur versehen sind. Ebenso können andere taktile Oberflächen anderen Funktionen entsprechen. - Da der/die Benutzer/in entweder die unterschiedlichen Strukturen der taktilen Merkmale
132 ,134 ,136 ,138 ,140 oder deren unterschiedliche Oberflächeneigenschaften142 ,144 ,146 ,148 fühlen kann, stellen die taktilen Merkmale132 ,134 ,136 ,138 ,140 eine taktile Rückmeldung für den/die Benutzer/in darüber bereit, welches Symbol116 ,118 ,120 ,122 ,124 der/die Benutzer/in mit dem „Touch-Screen"-Merkmal des Anzeigebildschirms112 auswählt. Deshalb ist mit der integrierten Benutzerschnittstelle110 beabsichtigt, dem/der Benutzer/in ohne viel visuelle Anstrengung die „Touch-Screen"-Auswahl zu ermöglichen, da der/die Benutzer/in, basierend auf seinem/ihrem Berührungssinn, in der Lage ist zu erkennen, welche Symbole116 ,118 ,120 ,122 ,124 er/sie auswählt. Nachdem der/die Benutzer/in mit den Anzeigemerkmalen und -funktionen eines konkreten Softwareprogramms auf dem Anzeigebildschirm112 vertraut geworden ist, kann er/sie sich, basierend auf dem Berührungsgefühl, leicht erinnern, welche taktilen Merkmale132 ,134 ,136 ,138 ,140 welchen Funktionen entsprechen. - Die vorliegende Erfindung zieht außerdem ein Verfahren zur Integrierung von Hardware- und Softwarefunktionalität in eine Benutzerschnittstelle in Betracht. Das Verfahren umfasst das Anordnen einer Blendenstruktur angrenzend an eine sensorische Oberfläche, wie einem Anzeigebildschirm
12 mit einer Softwareschnittstelle. Die Blendenstruktur weist mehrere taktile Merkmale32 auf, die im Wesentlichen denen ähneln, die im Vorangegangenen in Bezug zu entweder1 oder zu2 beschrieben sind, die durch Bezugnahme hierein aufgenommen sind. - Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, an verschiedenen Positionen des Anzeigebildschirms
12 taktile Signale von einem Benutzer/einer Benutzerin zu empfangen. Mit anderen Worten ist der Anzeigebildschirm mit „Touch-Screen"-Funktionen konfiguriert. Die sensorische Oberfläche kann alternativ eine kapazitive Oberfläche sein, die fähig ist, auf Berührung zu reagieren, oder jede beliebige andere sensorische Oberfläche, die dafür konfiguriert sein kann, auf Berührung oder Bewegung in einem Nahfeld zu reagieren. - Des Weiteren schließt das durch die vorliegende Erfindung in Betracht gezogene Verfahren das Konfigurieren der Lage mindestens eines Abschnittes der Positionen, die zum Empfangen des taktilen Signals in der Lage sind, derart auf dem Bildschirm ein, dass die Lage und die Positionen physisch den taktilen Merkmalen
32 entsprechen, was ermöglicht, dass die taktilen Merkmale32 und die Positionen auf dem Anzeigebildschirm12 von dem/der Benutzer/in der Schnittstelle10 gleichzeitig berührt werden. Das System kann so konfiguriert werden, dass einige der Positionen den taktilen Merkmalen32 entsprechen, wie das Lautstärkesteuerkästchen30 , andere, wie ein Symbol mit fester Position16 , jedoch nicht. Im Ergebnis der vorliegenden Erfindung stellen die taktilen Merkmale32 eine taktile Rückmeldung an den/die Benutzer/in bereit, die den taktilen Signalen entsprechen, welche von der Softwareschnittstelle empfangen werden, wenn die sensorische Oberfläche von dem/der Benutzer/in berührt wird. - Wie ein Fachmann ohne weiteres erkennen wird, ist die vorangegangene Beschreibung als eine Veranschaulichung der Umsetzung der Prinzipien dieser Erfindung gedacht. Diese Beschreibung soll den Schutzumfang oder den Anwendungsbereich dieser Erfindung insofern nicht begrenzen, als die Erfindung modifiziert, variiert und verändert werden kann, ohne von dem in den folgenden Ansprüchen definierten Geist dieser Erfindung abzuweichen.
-
- 10
- Benutzerschnittstelle
- 12
- Anzeigebildschirm
- 14
- Rahmen oder Blende
- 15
- Kante
- 16
- Symbole
- 26
- visuelle Anzeige
- 28
- Lautstärkesteuerleiste
- 30
- Lautstärkesteuerkästchen
- 32
- taktile Merkmale
- 110
- Benutzerschnittstelle
- 112
- Anzeigebildschirm
- 114
- Rahmen
- 115
- Blendenmerkmal
- 116
- Symbol
- 118
- Symbol
- 120
- Symbol
- 122
- Symbol
- 124
- Symbol
- 126
- visuelle Anzeigen
- 132
- taktiles Merkmal
- 134
- taktiles Merkmal
- 136
- taktiles Merkmal
- 138
- taktiles Merkmal
- 140
- taktiles Merkmal
- 142
- Oberflächeneigenschaft
- 144
- Oberflächeneigenschaft
- 146
- Oberflächeneigenschaft
- 148
- Oberflächeneigenschaft
Claims (19)
- Integrierte Benutzerschnittstelle (
10 ,110 ), Folgendes umfassend: eine sensorische Oberfläche, die dafür konfiguriert ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen, woraus ein entsprechendes Befehlssignal innerhalb eines Softwaresystems entsteht, mindestens einen Abschnitt eines Rahmens (14 ,114 ), der angrenzend an die sensorische Oberfläche angeordnet ist, wobei der Abschnitt des Rahmens (14 ,114 ) mehrere taktile Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) umfasst, die derart angeordnet sind, dass das Auswahlsignal von der sensorischen Oberfläche gleichzeitig mit der Berührung eines taktilen Merkmals (32 ,132 ,134 ,136 ,138 ,140 ) der mehreren taktile Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) durch den Finger eines Benutzers/einer Benutzerin empfangen werden kann, wobei die taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die dem von der sensorischen Oberfläche empfangenen Auswahlsignal entsprechen. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach Anspruch 1, wobei mindestens einige der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) eine konvexe Struktur aufweisen. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach Anspruch 1, wobei mindestens einige der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) eine konkave Struktur aufweisen. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 3, wobei jedes taktile Merkmal (32 ,132 ,134 ,136 ,138 ,140 ) eine Oberflächeneigenschaft (142 ,144 ,146 ,148 ) aufweist und die Oberflächeneigenschaft (142 ,144 ,146 ,148 ) eine taktile Rückmeldung für den/die Benutzer/in bereitstellt. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach Anspruch 4, wobei sich die Oberflächeneigenschaft (142 ,144 ,146 ,148 ) mindestens zweier taktiler Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) voneinander unterscheidet. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach Anspruch 4 oder 5, wobei sich die Oberflächeneigenschaften (142 ,144 ,146 ,148 ) aneinander angrenzender taktiler Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) voneinander unterscheiden. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 6, wobei sich ein erstes taktiles Merkmal (32 ,132 ,134 ,136 ,138 ,140 ) der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) in der Struktur von einem zweiten taktilen Merkmal (32 ,132 ,134 ,136 ,138 ,140 ) der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) unterscheidet. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 7, wobei sich ein erstes taktiles Merkmal (32 ,132 ,134 ,136 ,138 ,140 ) der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) in der Größe von einem zweiten taktilen Merkmal (32 ,132 ,134 ,136 ,138 ,140 ) der mehreren taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) unterscheidet. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 8, wobei die sensorische Oberfläche ein Anzeigebildschirm (12 ,112 ) ist. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 9, wobei das sensorische Signal fähig ist, das Auswahlsignal durch Berührung zu empfangen. - Integrierte Benutzerschnittstelle (
10 ,110 ) nach einem der Ansprüche 1 bis 10, wobei die taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) über die sensorische Oberfläche hinausragen. - Verfahren zur Integrierung von Hardware- und Softwarefunktionen für eine Benutzerschnittstelle (
10 ,110 ), Folgendes umfassend: Anordnen eines Abschnittes eines Rahmens (14 ,114 ) angrenzend an eine sensorische Oberfläche, die eine Softwareschnittstelle umfasst, wobei der Abschnitt des Rahmens (14 ,114 ) mehrere taktile Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) aufweist, Konfigurieren der Softwareschnittstelle derart, dass die Softwareschnittstelle fähig ist, an mehreren Positionen Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und Konfigurieren der Lage mindestens einiger der mehreren Positionen derart, dass die Positionen an die taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) angrenzen und ihnen entsprechen, wobei die taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die den von der Softwareschnittstelle empfangenen Auswahlsignalen entspricht. - Verfahren nach Anspruch 12, ferner umfassend den Schritt des Bereitstellens mindestens einiger der mehreren taktilen Merkmale (
32 ,132 ,134 ,136 ,138 ,140 ) mit einer konvexen Form. - Verfahren nach Anspruch 12, ferner umfassend den Schritt des Bereitstellens mindestens einiger der mehreren taktilen Merkmale (
32 ,132 ,134 ,136 ,138 ,140 ) mit einer konkaven Form. - Verfahren nach einem der Ansprüche 12 bis 14, ferner umfassend den Schritt des Bildens der taktilen Merkmale (
32 ,132 ,134 ,136 ,138 ,140 ) mit einer Oberflächeneigenschaft (142 ,144 ,146 ,148 ), wobei sich die Oberflächeneigenschaften (142 ,144 ,146 ,148 ) aneinander angrenzender taktiler Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) voneinander unterscheiden. - Verfahren nach einem der Ansprüche 12 bis 15, wobei die sensorische Oberfläche als ein Anzeigebildschirm (
12 ,112 ) bereitgestellt wird. - Verfahren nach einem der Ansprüche 12 bis 16, ferner umfassend den Schritt des Konfigurierens der sensorischen Oberfläche zum Empfangen der Auswahlsignale durch Berührung.
- Verfahren nach Anspruch 17, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (
32 ,132 ,134 ,136 ,138 ,140 ), um gleichzeitig von einem normalen Finger eines Benutzers/einer Benutzerin berührt zu werden. - Verfahren nach einem der Ansprüche 12 bis 18, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (
32 ,132 ,134 ,136 ,138 ,140 ) derart, dass die Positionen fähig sind, die Auswahlsignale gleichzeitig zu empfangen, wenn die jeweils entsprechenden taktilen Merkmale (32 ,132 ,134 ,136 ,138 ,140 ) von einem Finger eines Benutzers/einer Benutzer/in berührt werden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/620,638 US8963842B2 (en) | 2007-01-05 | 2007-01-05 | Integrated hardware and software user interface |
US11/620,638 | 2007-01-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102008000001A1 true DE102008000001A1 (de) | 2008-07-10 |
DE102008000001B4 DE102008000001B4 (de) | 2012-02-09 |
Family
ID=38858272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE200810000001 Expired - Fee Related DE102008000001B4 (de) | 2007-01-05 | 2008-01-02 | Integrierte Hardware- und Softwarebenutzerschnittstelle |
Country Status (3)
Country | Link |
---|---|
US (1) | US8963842B2 (de) |
DE (1) | DE102008000001B4 (de) |
GB (1) | GB2445445B (de) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6914551B2 (en) * | 2002-04-12 | 2005-07-05 | Apple Computer, Inc. | Apparatus and method to facilitate universal remote control |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US20090156251A1 (en) * | 2007-12-12 | 2009-06-18 | Alan Cannistraro | Remote control protocol for media systems controlled by portable devices |
US20090319893A1 (en) * | 2008-06-24 | 2009-12-24 | Nokia Corporation | Method and Apparatus for Assigning a Tactile Cue |
US8659555B2 (en) | 2008-06-24 | 2014-02-25 | Nokia Corporation | Method and apparatus for executing a feature using a tactile cue |
US9716774B2 (en) | 2008-07-10 | 2017-07-25 | Apple Inc. | System and method for syncing a user interface on a server device to a user interface on a client device |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
KR20110067755A (ko) * | 2009-12-15 | 2011-06-22 | 삼성전자주식회사 | 휴대용 단말기에서 오디오 신호 출력 방법 및 장치 |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US9519356B2 (en) | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US20110191719A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Cut, Punch-Out, and Rip Gestures |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US9274682B2 (en) * | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US8799827B2 (en) | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US20110209098A1 (en) * | 2010-02-19 | 2011-08-25 | Hinckley Kenneth P | On and Off-Screen Gesture Combinations |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US8539384B2 (en) | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8473870B2 (en) | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US8751970B2 (en) | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US9075522B2 (en) | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US8707174B2 (en) | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
DE102010063189A1 (de) * | 2010-12-16 | 2012-06-21 | BSH Bosch und Siemens Hausgeräte GmbH | Bedienvorrichtung für ein Hausgerät sowie Hausgerät, insbesondere Backofen, mit einer Bedienvorrichtung |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
FR2993069B1 (fr) * | 2012-07-09 | 2015-02-27 | Ece | Cadre ergonomique pour interface de commande tactile et interface de commande correspondante |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
KR102094886B1 (ko) * | 2013-02-28 | 2020-03-30 | 엘지전자 주식회사 | 택타일 피드백 및 비주얼 피드백을 선택적으로 출력하는 디스플레이 디바이스 및 그 제어 방법 |
US9395816B2 (en) | 2013-02-28 | 2016-07-19 | Lg Electronics Inc. | Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same |
US20140300555A1 (en) * | 2013-04-05 | 2014-10-09 | Honeywell International Inc. | Avionic touchscreen control systems and program products having "no look" control selection feature |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
US10429930B2 (en) * | 2015-01-30 | 2019-10-01 | Ncr Corporation | Accessible tactile features for blind and partially sighted PIN entry and touchscreen usage |
US20160334901A1 (en) * | 2015-05-15 | 2016-11-17 | Immersion Corporation | Systems and methods for distributing haptic effects to users interacting with user interfaces |
US10340593B2 (en) | 2016-02-25 | 2019-07-02 | Raytheon Company | Systems and methods for phased array beam control |
DE102016214692B4 (de) * | 2016-08-08 | 2018-02-15 | Audi Ag | Verfahren und Benutzerschnittstelle, betreffend eine haptische Rückmeldung für einen Bildschirm |
JP6747941B2 (ja) * | 2016-11-04 | 2020-08-26 | アルパイン株式会社 | タッチ式入力装置および操作検出方法 |
JP2019087054A (ja) * | 2017-11-07 | 2019-06-06 | 富士通コンポーネント株式会社 | 入力装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3123596A1 (de) | 1981-06-13 | 1983-01-05 | Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt | Handapparat fuer ein mobilfunkgeraet, insbesondere autotelefon |
US4940346A (en) * | 1987-04-01 | 1990-07-10 | Liljenquist Don C | Keyboard assembly and typing method |
JPH03105462A (ja) * | 1989-09-20 | 1991-05-02 | Hitachi Ltd | 現金自動取引装置のデータ入力方法 |
FR2697935B1 (fr) * | 1992-11-12 | 1995-01-13 | Sextant Avionique | Terminal de communication compact et ergonomique muni de surfaces de détection de proximité. |
JPH08194856A (ja) * | 1995-01-17 | 1996-07-30 | Hitachi Ltd | 入力装置 |
JP3195724B2 (ja) * | 1995-04-26 | 2001-08-06 | シャープ株式会社 | 情報処理装置 |
US6049328A (en) | 1995-10-20 | 2000-04-11 | Wisconsin Alumni Research Foundation | Flexible access system for touch screen devices |
US5748185A (en) * | 1996-07-03 | 1998-05-05 | Stratos Product Development Group | Touchpad with scroll and pan regions |
US6639577B2 (en) * | 1998-03-04 | 2003-10-28 | Gemstar-Tv Guide International, Inc. | Portable information display device with ergonomic bezel |
US6757002B1 (en) | 1999-11-04 | 2004-06-29 | Hewlett-Packard Development Company, L.P. | Track pad pointing device with areas of specialized function |
JP2002111813A (ja) * | 2000-08-24 | 2002-04-12 | Sony Internatl Europ Gmbh | 無線通信システムの携帯型通信装置 |
US20020070915A1 (en) * | 2000-12-08 | 2002-06-13 | Mazza Thomas A. | Trading system controller |
US6972749B2 (en) * | 2001-08-29 | 2005-12-06 | Microsoft Corporation | Touch-sensitive device for scrolling a document on a display |
US7091964B2 (en) * | 2001-11-30 | 2006-08-15 | Palm, Inc. | Electronic device with bezel feature for receiving input |
JP3784355B2 (ja) | 2002-09-20 | 2006-06-07 | クラリオン株式会社 | 電子機器 |
US7187394B2 (en) * | 2002-10-04 | 2007-03-06 | International Business Machines Corporation | User friendly selection apparatus based on touch screens for visually impaired people |
US7453442B1 (en) * | 2002-12-03 | 2008-11-18 | Ncr Corporation | Reconfigurable user interface systems |
US8373660B2 (en) * | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
FR2874714A1 (fr) | 2004-09-02 | 2006-03-03 | France Telecom | Dispositif de selection tactile |
US7355595B2 (en) * | 2005-04-15 | 2008-04-08 | Microsoft Corporation | Tactile device for scrolling |
US20070257889A1 (en) * | 2006-05-05 | 2007-11-08 | Clemens Croy | Display lit soft keys that have multiple states of activation potentially associated with each soft key |
US8100594B2 (en) * | 2006-10-27 | 2012-01-24 | Symbol Technologies, Inc. | Data input arrangement with a shaped interface |
US8004501B2 (en) * | 2008-01-21 | 2011-08-23 | Sony Computer Entertainment America Llc | Hand-held device with touchscreen and digital tactile pixels |
-
2007
- 2007-01-05 US US11/620,638 patent/US8963842B2/en not_active Expired - Fee Related
- 2007-11-07 GB GB0721821A patent/GB2445445B/en not_active Expired - Fee Related
-
2008
- 2008-01-02 DE DE200810000001 patent/DE102008000001B4/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
DE102008000001B4 (de) | 2012-02-09 |
GB2445445A8 (en) | 2008-07-10 |
US20080164982A1 (en) | 2008-07-10 |
GB2445445A (en) | 2008-07-09 |
GB0721821D0 (en) | 2007-12-19 |
US8963842B2 (en) | 2015-02-24 |
GB2445445B (en) | 2011-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102008000001B4 (de) | Integrierte Hardware- und Softwarebenutzerschnittstelle | |
DE602004011676T2 (de) | Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung | |
DE102010048745A1 (de) | Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle | |
DE102009012638A1 (de) | Verfahren zur Anzeige und Anwendung einer Bedienschnittstelle und ein elektronisches Gerät | |
DE10110943B4 (de) | Positionieren von auf einer Benutzeroberfläche angezeigten Bereichen | |
EP2924551B1 (de) | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug | |
EP3282352B1 (de) | Verfahren und bedienvorrichtung zum bedienen einer einrichtung | |
DE102009013922A1 (de) | Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü | |
WO2006066742A1 (de) | Bediensystem für ein fahrzeug | |
EP3418861B1 (de) | Verfahren zum betreiben einer anzeigevorrichtung sowie ein kraftfahrzeug | |
EP2425321B1 (de) | Verfahren und vorrichtung zum anzeigen von in listen geordneter information | |
DE102018100197A1 (de) | Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle | |
EP2867762A1 (de) | Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld | |
DE102012220062A1 (de) | Einstellung mehrerer benutzereingabeparameter | |
EP3535154A1 (de) | Anordnung einer grafischen benutzerschnittstelle in einem fahrzeug und verfahren zum bereitstellen einer grafischen benutzerschnittstelle in einem fahrzeug | |
DE102016010920A1 (de) | Smart touch | |
DE102012205865A1 (de) | Steuereinheit, Eingabevorrichtung und Verfahren für ein Informations- und Kommunikationssystem | |
DE102009059869A1 (de) | Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung | |
DE102014200609A1 (de) | Berührungssensitive Bedienvorrichtung mit Mulde | |
EP2310935B1 (de) | Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung | |
DE102018222124A1 (de) | Verfahren und System zum Einstellen eines Wertes eines Parameters | |
DE102017109254A1 (de) | Digitalkamera | |
WO2014040807A1 (de) | Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche | |
EP3523714A1 (de) | Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle | |
EP3749540B1 (de) | Bedienvorrichtung sowie verfahren und computerlesbares speichermedium mit instruktionen zum einrichten einer bedienvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20120510 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |