DE102011075067A1 - Berührungsbildschirmeinheit und Verfahren zu deren Betrieb - Google Patents

Berührungsbildschirmeinheit und Verfahren zu deren Betrieb Download PDF

Info

Publication number
DE102011075067A1
DE102011075067A1 DE102011075067A DE102011075067A DE102011075067A1 DE 102011075067 A1 DE102011075067 A1 DE 102011075067A1 DE 102011075067 A DE102011075067 A DE 102011075067A DE 102011075067 A DE102011075067 A DE 102011075067A DE 102011075067 A1 DE102011075067 A1 DE 102011075067A1
Authority
DE
Germany
Prior art keywords
touch screen
screen unit
unit
selection area
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011075067A
Other languages
English (en)
Other versions
DE102011075067B4 (de
Inventor
Thomas Braunstorfinger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohde and Schwarz GmbH and Co KG
Original Assignee
Rohde and Schwarz GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohde and Schwarz GmbH and Co KG filed Critical Rohde and Schwarz GmbH and Co KG
Priority to DE102011075067.3A priority Critical patent/DE102011075067B4/de
Publication of DE102011075067A1 publication Critical patent/DE102011075067A1/de
Application granted granted Critical
Publication of DE102011075067B4 publication Critical patent/DE102011075067B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Berührungsbildschirmeinheit (1) mit Erfassungssensoren und einer Annäherungsdetekoreinheit (6), wobei die Erfassungssensoren mit der Annäherungsdetekoreinheit (6) verbunden sind. Die Annäherungsdetekoreinheit (6) erkennt, wenn sich zumindest ein Objekt auf und/oder in der Nähe einer Oberfläche der Berührungsbildschirmeinheit (1) befindet. Die Annäherungsdetekoreinheit (6) erfasst zumindest einen Auswahlbereich auf der Oberfläche der Berührungsbildschirmeinheit (1), der unter dem zumindest einen Objekt liegt. Die Berührungsbildschirmeinheit ist z. B. derart ausgebildet, dass dieser zumindest eine Auswahlbereich auf der Berührungsbildschirmeinheit (1) als Zielhilfe visualisierbar ist.

Description

  • Die Erfindung betrifft eine Berührungsbildschirmeinheit mit einer Annäherungsdetektoreinheit, sowie ein Verfahren zum Betreiben dieser Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit.
  • Berührungsbildschirmeinheiten werden in zunehmenden Maße in tragbaren elektronischen Geräten eingesetzt, um den Bedienkomfort zu erhöhen, und um gleichzeitig die Ansprüche bezüglich der ästhetischen Formgestaltung zu erfüllen. Allerdings ist dieser Einsatz nicht nur auf tragbare elektronische Geräte, wie z. B. Mobiltelefone beschränkt, sondern es werden solche Berührungsbildschirmeinheiten auch häufiger in Messgeräten eingesetzt, um dadurch die Anzahl an Eingabeelementen, wie z. B. Eingabeknöpfen, reduzieren zu können, was gleichzeitig den Einsatz größerer Berührungsbildschirmeinheiten erlaubt.
  • Aus der US 2006/0161871 A1 ist eine Berührungsbildschirmeinheit mit einer Annäherungsdetektoreinheit für tragbare elektronische Geräte bekannt. Die Annäherungsdetektoreinheit erkennt dabei z. B. einen Finger noch bevor dieser die Oberfläche der Berührungsbildschirmeinheit berührt und vergrößert beispielsweise das unter dem Finger liegende Bedienelement. Nachteilig an der US 2006/0161871 A1 ist, dass die Auswahl von Bedienelementen auf einer Benutzeroberfläche schwierig ist, sobald eine Vielzahl von Bedienelementen in unmittelbarer Nachbarschaft zueinander auf dieser angeordnet sind.
  • Es ist daher die Aufgabe der erfindungsgemäßen Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit und des erfindungsgemäßen Verfahrens zum Betreiben der Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit eine Lösung zu schaffen, um den Bedienkomfort zu erhöhen und die fehlerhafte Auswahl von Bedienelementen auf einer Benutzeroberfläche zu reduzieren.
  • Die Aufgabe wird bezüglich der Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit durch die Merkmale des Anspruchs 1 und bezüglich des Verfahrens zum Betreiben der Berührungsbildschirmeinheit mit der Detektoreinheit durch die Merkmale des Anspruchs 10 gelöst. Der Anspruch 19 beinhaltet ein Computerprogramm mit Programmcode-Mitteln, um sämtliche Verfahrensschritte ausführen zu können, wenn das Programm auf einem Computer oder einem digitalen Signalprozessor ausgeführt wird. Der Anspruch 20 enthält ein Computerprogramm-Produkt mit insbesondere auf einen maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um alle Verfahrensschritte durchführen zu können, wenn das Programm auf einem Computer oder einem digitalen Signalprozessor ausgeführt wird. In den jeweiligen Unteransprüchen sind vorteilhafte Weiterbildungen der erfindungsgemäßen Bildschirmeinheit mit der Annäherungsdetektoreinheit sowie des erfindungsgemäßen Verfahrens zum Betreiben der Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit angegeben.
  • Die erfindungsgemäße Berührungsbildschirmeinheit weist Erfassungssensoren sowie eine Annäherungsdetektoreinheit auf, wobei die Erfassungssensoren mit der Annäherungsdetektoreinheit verbunden sind. Dadurch ist für Annäherungsdetektoreinheit erkennbar, wenn sich zumindest ein Objekt auf und/oder in der Nähe einer Oberfläche der Berührungsbildschirmeinheit befindet. Die Annäherungsdetektoreinheit erfasst zumindest einen Auswahlbereich auf der Oberfläche der Berührungsbildschirmeinheit, der unter dem zumindest einen Objekt liegt.
  • Bevorzugt kann die Berührungsbildschirmeinheit derart ausgebildet sein, dass der zumindest eine Auswahlbereich auf der Berührungsbildschirmeinheit als Sehhilfe visualisierbar ist. Die Berührungsbildschirmeinheit kann außerdem ergänzend dazu oder alternativ dazu derart ausgebildet sein, dass an ein Bedienelement, welches am nahesten im Zentrum des Auswahlbereichs liegt, ein Fokus übertragbar ist. Auch kann die Berührungsbildschirmeinheit ergänzend dazu oder alternativ dazu derart ausgebildet sein, dass die Annäherungsdetektoreinheit einen Abstand zwischen dem zumindest einen Objekt und der Oberfläche der Berührungsbildschirmeinheit erfasst und dass Bedienelemente, die innerhalb des zumindest einen Auswahlbereichs liegen, mit abnehmendem Abstand in ihrer Größe vergrößerbar sind und/oder dass Bedienelemente, die innerhalb des zumindest einen Auswahlbereichs liegen, mit zunehmendem Abstand in ihrer Größe verkleinerbar sind.
  • Besonders vorteilhaft ist es, dass die Annäherungsdetektoreinheit zumindest einen Auswahlbereich auf der Oberfläche der Berührungsbildschirmeinheit erfasst, der unter dem zumindest einen Objekt liegt. Dies erlaubt, dass der Auswahlbereich auf der Berührungsbildschirmeinheit als Zielhilfe visualisierbar ist, sodass der Benutzer erkennt, welche Bedienelemente er bei einer senkrechten Bewegung in Richtung der Oberfläche der Berührungsbildschirmeinheit auswählen würde. Weiterhin ist es besonders vorteilhaft, dass an ein Bedienelement, welches am nahesten im Zentrum des Auswahlbereichs liegt ein Fokus übertragbar ist. Dies erlaubt, dass auch ältere Softwareprogramme problemlos mit der erfindungsgemäßen Berührungsbildschirmeinheit bedient werden können.
  • Außerdem ist es besonders vorteilhaft, wenn die Annäherungsdetektoreinheit einen Abstand zwischen dem zumindest einen Objekt und der Oberfläche der Berührungsbildschirmeinheit erfasst und wenn Bedienelemente, die innerhalb des zumindest einen Auswahlbereichs liegen, z. B. linear mit abnehmendem Abstand in ihrer Größe vergrößerbar sind und/oder wenn Bedienelemente, die innerhalb des zumindest einen Auswahlbereichs liegen, z. B. linear mit zunehmendem Abstand in ihrer Größe verkleinerbar sind. Dies erlaubt es dem Benutzer das gewünschte Bedienelement sicher auszuwählen, wobei weiterhin gewährleistet ist, dass das Bedienelement nur so schnell vergrößert, bzw. verkleinert wird, dass der Benutzer noch die Möglichkeit hat, das direkt benachbarte Bedienelement ebenfalls auszuwählen, weil dieses nicht sofort verdeckt wird.
  • Das erfindungsgemäße Verfahren zum Betreiben der Berührungsbildschirmeinheit Erfassungssensoren und einer Annäherungsdetektoreinheit, wobei die Erfassungssensoren mit der Annäherungsdetektoreinheit verbunden sind, umfasst die nachfolgenden Verfahrensschritte. In einem ersten Verfahrensschritt wird zumindest ein Objekt, das sich auf und/oder in der Nähe einer Oberfläche der Berührungsbildschirmeinheit befindet durch die Annäherungsdetektoreinheit erkannt. In einem zweiten Verfahrensschritt wird zumindest ein Auswahlbereich auf der Oberfläche der Berührungsbildschirmeinheit durch die Annäherungsdetektoreinheit erfasst, der unter dem zumindest einem Objekt liegt.
  • Im Weiteren kann bevorzugt die Berührungsbildschirmeinheit derart betrieben werden, dass in einem dritten Verfahrensschritt der zumindest eine Auswahlbereich auf der Berührungsbildschirmeinheit als Zielhilfe visualisiert wird. Ergänzend dazu oder alternativ dazu kann die Berührungsbildschirmeinheit auch derart betrieben werden, dass der vierte Verfahrensschritt ausgeführt wird und ein Fokus an ein Bedienelement übertragen wird, welches am nahesten am Zentrum des Auswahlbereichs liegt. Ferner kann die Berührungsbildschirmeinheit ergänzend dazu oder alternativ dazu derart betrieben werden, dass ein fünfter Verfahrensschritt ausgeführt wird, indem die Annäherungsdetektoreinheit einen Abstand zwischen dem zumindest einen Objekt und der Oberfläche der Berührungsbildschirmeinheit erfasst. Innerhalb dieses Verfahrensschritts werden diejenigen Bedienelemente mit abnehmendem Abstand vergrößert, die innerhalb des zumindest einen Auswahlbereichs liegen. Es ist auch möglich, dass innerhalb dieses Verfahrensschritts diejenigen Bedienelemente mit zunehmenden Abstand verkleinert werden, die innerhalb des zumindest einen Auswahlbereichs liegen.
  • Besonders vorteilhaft ist es, dass innerhalb des zweiten Verfahrensschritts zumindest ein Auswahlbereich durch die Annäherungsdetektoreinheit auf der Oberfläche der Berührungsbildschirmeinheit erfasst wird, der unter den zumindest einen Objekt liegt. Dies erlaubt, dass in einem weiteren Verfahrensschritt der Auswahlbereich auf der Berührungsbildschirmeinheit als Zielhilfe visualisiert werden kann, was dem Benutzer das sichere Auswählen von Bedienelementen ermöglicht. Im Weiteren ist es besonders vorteilhaft, dass ein Fokus an ein Bedienelement übertragen werden kann. Dies erlaubt, dass auch ältere Softwareprogramme möglichst effizient bedient werden können. Ferner ist es vorteilhaft, wenn die Annäherungsdetektoreinheit einen Abstand zwischen dem zumindest einen Objekt und der Oberfläche der Berührungsbildschirmeinheit erfasst und die Bedienelemente, die innerhalb des zumindest einen Auswahlbereichs liegen z. B. linear mit abnehmendem Abstand vergrößert, bzw. mit z. B. linear zunehmendem Abstand verkleinert. Diese lineare Vergrößerung, bzw. die lineare Verkleinerung erlaubt, dass möglichst wenige Bedienelemente auf einer dicht bepackten Bedienoberfläche verdeckt werden, sodass der Benutzer möglichst einfach ein anderes Bedienelement auswählen kann.
  • Ein weiterer Vorteil der erfindungsgemäßen Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit besteht, wenn der Auswahlbereich mit einer von der Hintergrundfarbe und/oder mit einer von der Hintergrundschraffur abweichenden Farbe und/oder Schraffur darstellbar ist und/oder wenn der Auswahlbereich transparent darstellbar ist. Dies erlaubt, dass der Auswahlbereich sicher von einem Benutzer erkannt werden kann, wobei gleichzeitig sichergestellt ist, dass dem Benutzer die Sicht auf die eigentlichen Bedienelemente nicht verwehrt ist.
  • Ferner besteht ein Vorteil der erfindungsgemäßen Berührungsbildschirmeinheit mit der Detektoreinheit, wenn der zumindest eine Auswahlbereich z. B. linear mit abnehmendem Abstand des zumindest einen Objekts bezüglich der Oberfläche der Berührungseinheit in seiner Größe verkleinerbar ist und/oder wenn der zumindest eine Auswahlbereich z. B. linear mit zunehmendem Abstand des zumindest einen Objekts bezüglich der Oberfläche der Berührungsbildschirmeinheit in seiner Größe vergrößerbar ist. Dadurch wird dem Sachverhalt Rechnung getragen, dass die Genauigkeit, mit welcher die Annäherungsdetektoreinheit ein Objekt in der Nähe der Berührungsbildschirmeinheit erkennen kann mit zunehmenden Abstand des Objekts von der Oberfläche der Berührungsbildschirmeinheit kleiner wird, sodass die Bewegung des Benutzers auf das gewünschte Bedienelement hingeleitet wird.
  • Auch besteht ein Vorteil bei der erfindungsgemäßen Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit, wenn es sich bei dem zumindest einen Auswahlbereich um einen Kreis handelt, wobei mittels einer statistischen Auswertung der Position des zumindest einen Objekts ein Mittelwert und eine Standardabweichung berechenbar ist, wobei ein Mittelpunkt des Kreises diesem Mittelwert und ein Radius des Kreises dieser Standardabweichung entspricht. Über diese Beziehungen werden etwaige Messungenauigkeiten der Annäherungsdetektoreinheit herausgemittelt, sodass bei Erhöhung der Genauigkeit mit der die Annäherungsdetektoreinheit das zumindest eine Objekt erkennt, der Radius des Auswahlbereichs kleiner ist.
  • Weiterhin besteht bei dem erfindungsgemäßen Verfahren zum Betreiben einer Berührungsbildschirmeinheit mit einer Annäherungsdetektoreinheit ein Vorteil, wenn in einem weiteren Verfahrensschritt zumindest ein Schwellwert für einen Abstand zwischen dem zumindest einem Objekt und der Oberfläche der Berührungsbildschirmeinheit einstellbar ist, sodass bei Über- oder Unterschreiten dieses zumindest einen Abstands frei definierbare Ereignisse ausgelöst werden. Dies erlaubt beispielsweise das Darstellen von verschiedenen Animationen, wie der Anzeige eines Tooltext (dt. Hilfstext).
  • Ferner besteht bei dem Verfahren zum Betreiben der Berührungsbildschirmeinheit mit der Annäherungsdetektoreinheit ein Vorteil, wenn in einem weiteren Verfahrensschritt ein Nahauslösebereich für den erfassten Abstand innerhalb der Annäherungsdetektoreinheit eingestellt wird, sodass ein Klick-Ereignis an das Bedienelement übergeben wird, welches am nahesten am Zentrum des Auswahlbereichs liegt, sobald er durch die Annäherungsdetektoreinheit erfasste Abstand den Nahauslösebereich unterschreitet. Dies erlaubt ein sehr effizientes Bedienen von Softwareprogrammen, weil das Klick-Ereignis beispielsweise schon ab einem Abstand von z. B. einigen Millimetern übertragen werden kann.
  • Auch besteht bei dem erfindungsgemäßen Verfahren zum Betreiben einer Berührungsbildschirmeinheit mit einer Annäherungsdetektoreinheit ein Vorteil, wenn in einem weiteren Verfahrensschritt kontinuierlich die Position von zumindest einem Objekt über einen Zeitraum durch die Annäherungsdetektoreinheit erfasst und/oder gemittelt wird und wenn die erfassten und/oder gemittelten Positionen in zumindest einer Speichereinheit gespeichert werden. Auf diese Art und Weise kann ein räumliches Bild von allen Objekten erstellt werden, die von der Annäherungsdetektoreinheit erfasst werden, was es erlaubt, auch Gesten zu erkennen und auszuwerten, um dadurch die Bediengeschwindigkeit der Softwareprogramme zu erhöhen.
  • Verschiedene Ausführungsbeispiele der Erfindung werden nachfolgend unter Bezugnahme auf die Zeichnung beispielhaft beschrieben. Gleiche Gegenstände weisen dieselben Bezugszeichen auf. Die entsprechenden Figuren der Zeichnung zeigen im Einzelnen:
  • 1 ein Ausführungsbeispiel eines Blockschaltbilds, das den Aufbau der erfindungsgemäßen Berührungsbildschirmeinheit zeigt;
  • 2 den allgemeinen Aufbau einer kapazitiven Berührungsbildschirmeinheit;
  • 3A ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem hervorgehobenen Bedienelement;
  • 3B ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem hervorgehobenen Bedienelement;
  • 4A ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich der als Zielhilfe dient;
  • 4B ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich der als Zielhilfe dient;
  • 4C ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich, der als Zielhilfe dient;
  • 5A ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich, der als Zielhilfe dient und hervorgehobenen Bedienelementen;
  • 5B ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich, der als Zielhilfe dient und hervorgehobenen Bedienelementen;
  • 5C ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit mit einem visualisierten Auswahlbereich, der als Zielhilfe dient und hervorgehobenen Bedienelementen;
  • 6 ein erfindungsgemäßes Ablaufdiagramm der Berührungsbildschirmeinheit, welches das unterschiedliche Darstellen von Bedienelementen auf einer Benutzeroberfläche in Abhängigkeit von verschiedenen Abständen eines Objekts in Bezug zur Oberfläche der Berührungsbildschirmeinheit verdeutlicht;
  • 7A ein Ausführungsbeispiel, das die Anwendung eines Zeichenwerkzeugs mit einem herkömmlichen Bildschirm beschreibt;
  • 7B die Anwendung eines Zeichenwerkzeugs zusammen mit der erfindungsgemäßen Berührungsbildschirmeinheit;
  • 8 ein Ausführungsbeispiel eines Flussdiagramms zum Betreiben der erfindungsgemäßen Berührungsbildschirmeinheit;
  • 9 ein weiteres Ausführungsbeispiel eines Flussdiagramms zum Betreiben der erfindungsgemäßen Berührungsbildschirmeinheit; und
  • 10 ein Ausführungsbeispiel eines Flussdiagramms zum Betreiben der erfindungsgemäßen Berührungsbildschirmeinheit.
  • 1 zeigt ein Ausführungsbeispiel eines Blockschaltbildes, das den Aufbau der erfindungsgemäßen Berührungsbildschirmeinheit 1 zeigt. Die erfindungsgemäße Berührungsbildschirmeinheit 1 besteht aus einem Berührungsbildschirm 2 und einer Kontrollereinheit 3. Der Berührungsbildschirm 2 kann einen kapazitiven Aufbau haben. Ein solcher Berührungsbildschirm 2 weist verschiedene kapazitive Sensoren 4 1, 4 2, 4 3 bis 4 n auf, die mit der Kontrollereinheit 3 verbunden sind. Das von zumindest einem kapazitiven Sensor 4 1 bis 4 n ausgesendete elektromagnetische Feld wird durch ein Objekt 5, welches sich in der Nähe des Berührungsbildschirms 2 befindet gestört, wobei die anderen kapazitiven Sensoren 4 1 bis 4 n, welche das elektromagnetische Feld nicht aussenden eine Störung dieses Feldes erfassen, welche von der Kontrollereinheit 3 ausgewertet wird.
  • Innerhalb der Kontrollereinheit 3 ist zu diesem Zwecke eine Annäherungsdetektionseinheit 6 ausgebildet. Je nach Position des Objekts 5 ist das elektromagnetische Feld an den kapazitiven Sensoren 4 1 bis 4 n unterschiedlich stark gestört. Die Annäherungsdetektionseinheit 6 kann aus diesen Informationen ungefähr die räumliche Position des Objekts 5 bestimmen. Diese Positionsbestimmung ist umso genauer, je näher sich das Objekt 5 an der Oberfläche 13 der Berührungsbildschirmeinheit 1 befindet. Allerdings kann auch bis zu einem Abstand von z. B. ca. 10 cm festgestellt werden, ob sich überhaupt ein Objekt 5 oberhalb der Oberfläche 13 der Berührungsbildschirmeinheit 1 befindet. Die Kontrollereinheit 3 mit der Annäherungsdetektionseinheit 6 wird meist rückseitig auf dem Berührungsbildschirm 2 befestigt und diese bilden gemeinsam die Berührungsbildschirmeinheit 1, wie dies in 1 gestrichelt angedeutet ist.
  • Die Kontrollereinheit 3, bzw. die Berührungsbildschirmeinheit 1 im Allgemeinen überträgt fortlaufend die Daten, die die Position von zumindest einem Objekt 5 enthalten, an ein übergeordnetes Rechensystem, in diesem Fall an die zentrale Datenverarbeitungseinheit 7. Eine solche Verbindung kann beispielsweise über USB (engl. universal serial bus; dt. Universeller serieller Bus) erfolgen. Die zentrale Datenverarbeitungseinheit 7 kann aus einem Prozessor, einem FPGA(engl. Field Programmable Gate Array; dt. im (Anwendungs-)Feld programmierbare (Logik-)Gatter-Anordnung) oder einen digitalen Signalprozessor bestehen. Die zentrale Datenverarbeitungseinheit 7 ist mit einer Bildverarbeitungseinheit 8 verbunden, wobei die Bildverarbeitungseinheit 8 mit dem Berührungsbildschirm 2, bzw. der Berührungsbildschirmeinheit 1 verbunden ist. Die Bildverarbeitungseinheit 8 erzeugt das Bildsignal, welches auf dem Berührungsbildschirm 2 dargestellt wird. Die Bildverarbeitungseinheit 8 kann in der zentralen Datenverarbeitungseinheit 7 integriert sein.
  • Mit der zentralen Datenverarbeitungseinheit 7 sind weitere Peripheriegeräte verbunden. Dazu gehören weitere Bedienelemente 9, eine Netzwerkverbindung 10 und zumindest eine Speichereinheit 11. Bei den weiteren Bedienelementen 9 kann es sich beispielsweise um eine Computermaus und/oder um eine Computertastatur handeln. Die Bedienelemente 9 umfassen ebenfalls Taster und Drehknöpfe mit denen der Benutzer eine Auswahl treffen kann.
  • Für den Fall, dass es sich bei dem in 1 gezeigten Blockschaltbild um ein Messsystem handelt, kann mit der zentralen Datenverarbeitungseinheit 7 noch eine Messeinheit 12 verbunden sein. Das in 1 dargestellte Blockschaltbild kann allerdings auch ein tragbares elektronisches Gerät, wie beispielsweise ein Mobiltelefon oder einen tragbaren Computer beschreiben.
  • 2 zeigt ein Beispiel für einen allgemeinen Aufbau einer kapazitiven Berührungsbildschirmeinheit 1. Zu erkennen ist ein Objekt 5, bei welchem es sich beispielsweise um einen menschlichen Finger 5 oder um einen Eingabestift handeln kann. Bevorzugt ist das Objekt 5 elektrisch leitfähig. Das Objekt 5 ist in verschiedenen Abständen AF, A1, A2 und AN zur Berührungsbildschirmeinheit 1 angeordnet. Die Berührungsbildschirmeinheit 1 besteht aus einem Berührungsbildschirm 2 und einer Kontrollereinheit 3, in die die Annäherungsdetektionseinheit 6 integriert ist. Der Berührungsbildschirm 2 verfügt über eine Vielzahl an kapazitiven Erfassungssensoren 4 1, 4 2, 4 3 und 4 n. Diese kapazitiven Erfassungssensoren 4 1 bis 4 n können je nach Aufbau des Berührungsbildschirms 2 auf der Oberfläche 13 verteilt sein oder am Rand der Oberfläche 13 angeordnet sein. Die kapazitiven Erfassungssensoren 4 1 bis 4 n sind über eine elektrisch leitende Verbindung 14 mit der Kontrollereinheit 3 verbunden.
  • Der Abstand AF kennzeichnet die Fernauslösegrenze, also den Abstand, bis zu welchem die kapazitiven Erfassungssensoren 4 1 bis 4 n ein Objekt 5 noch erkennen können. Der Abstand AN kennzeichnet den Nahauslösebereich, welcher im Folgenden noch genauer erläutert wird.
  • 3A zeigt ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit Blick auf die Oberfläche 13 der Berührungsbildschirmeinheit 1 und einem hervorgehobenen Bedienelement 20. Zu erkennen sind eine Vielzahl von Bedienelementen 20, 22, 23, die relativ nah zueinander angeordnet sind. Zu erkennen ist ebenfalls ein Mauszeiger 21. Aufgrund der Tatsache, dass eine Berührungsbildschirmeinheit 1 verwendet wird, wird der Mauszeiger 21 durch Bewegungen gesteuert, die von einem erkannten Objekt 5 stammen und von der Berührungsbildschirmeinheit 1 erkannt werden. Je kleiner die Bedienelemente 20, 22, 23 sind und je näher eine Vielzahl von Bedienelementen 20, 22, 23 zueinander angeordnet sind, desto schwieriger ist es, ein einzelnes Bedienelement 20, 22, 23 sicher zu selektieren. Aus diesem Grund berechnet die Annäherungsdetektoreinheit 6 innerhalb der Kontrollereinheit 3 einen Auswahlbereich 40 auf der Oberfläche 13 der Berührungsbildschirmeinheit 1, der möglichst senkrecht unter dem zumindest einen Objekt 5 liegt. Bei einer senkrechten Bewegung des Objekts 5 in Richtung der Oberfläche 13 würde das Bedienelement 20 ausgewählt werden, welches am nahesten im Zentrum des Auswahlbereichs 40 liegt.
  • Gut zu erkennen ist, dass das Bedienelement 20 vergrößert dargestellt ist, welches im Zentrum des nichtdargestellten Auswahlbereichs 40 liegt. Eine derartige Vergrößerung des Bedienelements 20, sowohl in seiner Größe als auch in seiner Beschriftung, erlaubt dem Benutzer das sichere Erkennen und das sichere Auswählen des gewünschten Bedienelements 20.
  • 3B zeigt ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem hervorgehobenen Bedienelement 22. Im Gegensatz zu 3A ist der Mauszeiger 21 von dem Bedienelement 20 auf das Bedienelement 22 bewegt worden. Das Bedienelement 20 ist daraufhin wieder in seiner normalen Größe dargestellt, wohingegen das Bedienelement 22 sowohl in seiner Beschriftung als auch in seiner Größe stark vergrößert dargestellt ist. Alle weiteren Bedienelemente 23, auf die in den 3A und 3B nicht explizit Bezug genommen worden ist, können mit dem Bezugszeichen 23 bezeichnet werden.
  • 4A zeigt ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40, der als Zielhilfe dient. Die Annäherungsdetektoreinheit 6 erfasst dabei zumindest einen Auswahlbereich 40 auf der Oberfläche 13 der Berührungsbildschirmeinheit 1, der unter dem zumindest einen Objekt 5 liegt. Dieser zumindest eine Auswahlbereich 40 ist auf der Berührungsbildschirmeinheit 1 als Zielhilfe visualisiert. Diese Visualisierung kann durch die Bilddatenverarbeitungseinheit 8 erfolgen, die von der zentralen Datenverarbeitungseinheit 7 gesteuert wird.
  • Der Auswahlbereich 40 ist dabei bevorzugt als Kreis dargestellt, wobei mittels einer statistischen Auswertung der Positionen des zumindest einen Objekts 5 ein Mittelwert M und eine Standardabweichung σ berechnet wird. Der Mittelpunkt des Kreises entspricht dem Mittelwert M und der Radius des Kreises entspricht z. B. σ oder auch 2·σ. Es ist auch ein anderes Vielfaches von σ denkbar.
  • Für den Fall, dass mehrere Objekte 5, beispielsweise mehrere Finger des menschlichen Körpers, sich der Oberfläche 13 der Berührungsbildschirmeinheit 1 nähern, können mehrere Auswahlbereiche 40 dargestellt werden. In 4A ist zu sehen, dass der Mittelpunkt des Auswahlbereichs 40 mit der Position des Mauszeigers 21 übereinstimmt, wobei der Mauszeiger 21 nicht zwingend visualisiert werden muss. Dass Objekt 5 weist einen Abstand A1 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 auf. Der Abstand A1 ist, wie später noch erläutert wird, relativ groß, beispielsweise 6 cm, sodass die Annäherungsdetektionseinheit 6 nur relativ ungenau die Position des Objekts 5 bestimmen kann. Dies resultiert in einer größeren Standardabweichung σ und damit in einem größeren Radius des als Kreis dargestellten Auswahlbereichs 40.
  • Gut zu erkennen ist, dass der Auswahlbereich mit einer von der Hintergrundfarbe und/oder mit einer von der Hintergrundschraffur abweichenden Farbe und/oder Schraffur darstellbar ist. Der Auswahlbereich 40 kann auch transparent dargestellt werden. In 4A sind alle Bedienelemente 20, 22 und 23 sichtbar und nicht von dem Auswahlbereich 40 bedeckt. Dies erlaubt, dass der Benutzer das auszuwählende Bedienelement nicht aus den Augen verliert.
  • 4B zeigt ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40 der als Zielhilfe dient. Im Gegensatz zu 4A hat sich das Objekt 5 in Richtung der Oberfläche 13 der Berührungsbildschirmeinheit 1 bewegt und den Abstand A1 auf den Abstand A2 verkürzt. Die Annäherungsdetektionseinheit 6 innerhalb der Kontrollereinheit 3 kann die Position des Objekts 5 nun mit höherer Genauigkeit bestimmen, sodass die Standardabweichung σ kleiner wird, wodurch sich gemäß obiger Beziehung der Radius des als Kreis dargestellten Auswahlbereichs 40 ebenfalls verkleinert. Der Benutzer bekommt dadurch sehr gut vermittelt, welches Bedienelement 20, 22, 23 ausgewählt werden würde, würde er seine Bewegung mit dem Objekt 5 unverändert fortsetzen.
  • 4C zeigt ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40 der als Zielhilfe dient. Im Gegensatz zu den 4A und 4B hat sich der Abstand des Objekts 5 gegenüber der Oberfläche 13 der Berührungsbildschirmeinheit 1 von A2 auf A3 verkürzt. Die Annäherungsdetektionseinheit 6 kann wiederum mit erhöhter Genauigkeit den Auswahlbereich 40 unterhalb des Objekts 5 ermitteln, sodass des Radius des als Kreis dargestellten Auswahlbereichs 40 kleiner wird. Der Benutzer kann jetzt sehr genau erkennen, welches Bedienelement 20, 22, 23 in Kürze ausgewählt wird, falls die Bewegung des Objekts 5 in gleicher Art und Weise fortgesetzt wird.
  • Zu erkennen ist in den 4A, 4B und 4C ebenfalls, dass neben dem Radius des als Kreis dargestellten Auswahlbereichs 40 sich auch die Größe des Mauszeigers ändert. Je näher sich das Objekt 5 auf die Oberfläche 13 der Berührungsbildschirmeinheit 1 zubewegt und je kleiner der Abstand zwischen dem Objekt 5 und der Oberfläche 13 der Berührungsbildschirmeinheit 1 wird, desto kleiner wird der Mauszeiger 21 darstellt. Dadurch ist sichergestellt, dass dem Benutzer, mit Ausnahme des Objekts 5, möglichst wenig Sicht auf das auszuwählende Bedienelement 20, 22, 23 genommen wird.
  • 5A zeigt ein erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40 der als Zielhilfe dient und einem hervorgehobenen Bedienelement 20. Wie bereits erläutert ist der Radius des als Kreis dargestellten Auswahlbereichs 40 aufgrund des relativ großen Abstands A1 des Objekts 5 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 relativ groß. Alle Bedienelemente 20, 22 und 23 haben dabei dieselbe Größe.
  • 5B zeigt ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40 der als Zielhilfe dient und einem hervorgehobenen Bedienelement 20. Sobald sich der Abstand des Objekts 5 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 von beispielsweise A1 = 6 cm auf A2 = 3 cm verringert, wird das bevorzugt im Zentrum des Auswahlbereichs 40 liegende Bedienelement 20 vergrößert. Es können allerdings auch alle Bedienelemente 20, 22 und 23 vergrößert werden, die ganz oder teilweise innerhalb des Auswahlbereichs 40 liegen. Zu erkennen ist ebenfalls, dass der Mauszeiger 21 in 5B gegenüber dem Mauszeiger 21 aus 5A verkleinert dargestellt ist.
  • 5C zeigt ein weiteres erfindungsgemäßes Ausführungsbeispiel der Berührungsbildschirmeinheit 1 mit einem visualisierten Auswahlbereich 40, der als Zielhilfe dient, und einem hervorgehobenen Bedienelement 20. Innerhalb von 5C hat sich das Objekt 5 in Richtung der Oberfläche 13 der Berührungsbildschirmeinheit 1 bewegt. Der Abstand A2 wurde auf den Abstand A3 verkürzt. Der Abstand A3 kann beispielsweise 1 cm umfassen. Das Bedienelement 20 aus 5C ist gegenüber dem Bedienelement 20 aus 5B stark vergrößert dargestellt. Der Radius des als Kreis dargestellten Auswahlbereichs 40 ist ebenfalls in 5C deutlich kleiner, als der Radius des als Kreis dargestellten Auswahlbereichs 40 aus 5B oder 5A. Neben der Größe des Bedienelements 20 ist auch die Beschriftung stark vergrößert dargestellt.
  • Die in den 5A, 5B und 5C dargestellte Funktionsweise beruht darauf, dass Bedienelemente 20, 22 und 23, die innerhalb des zumindest einen Auswahlbereichs 40, insbesondere im Zentrum des Auswahlbereichs 40 liegen, z. B. linear mit abnehmenden Abstand in ihrer Größe vergrößerbar sind und/oder z. B. linear mit zunehmenden Abstand in ihrer Größe verkleinerbar sind. Würde sich das Objekt 5 wiederum von der Oberfläche 13 der Berührungsbildschirmeinheit 1 entfernen, so würde sich das in 5C stark vergrößert dargestellte Bedienelement 20 wieder verkleinern. Dieser Vergrößerungs-, bzw. Verkleinerungseffekt, der sowohl die Größe des Bedienelements 20 als auch dessen Beschriftung betrifft, erfolgt bevorzugt linear, d. h. es handelt sich um einen fließenden, stetigen Effekt.
  • Es ist auch möglich, dass die Bedienelemente 20, 22, 23 abhängig vom Abstand des Objekts 5 und abhängig von dem Anteil der Fläche des Bedienelements 20, 22, 23, die innerhalb des Auswahlbereichs 40 liegt, vergrößert oder verkleinert werden. Liegt großer prozentualer Anteil der Fläche eines Bedienelements 20, 22, 23 innerhalb des Auswahlbereichs 40, so wird dieses bei einer Annäherung des Objekts 5 an die Oberfläche 13 der Berührungsbildschirmeinheit 1 stärker vergrößert, als wenn nur ein kleinerer prozentualer Anteil der Fläche des Bedienelements 20, 22, 23 innerhalb des Auswahlbereichs 40 liegt.
  • Diese lineare Vergrößerung, bzw. Verkleinerungs- und Bedienelemente 20, 22 und 24 wirkt der Tatsache entgegen, dass bei einem sich der Oberfläche 13 annähernden Objekt 5 die Sicht des Benutzers auf das unterhalb des Objekt 5 liegenden Bedienelements 20, 22, 23 beschränkt ist, sodass durch das erfindungsgemäße lineare Vergrößern, bzw. Verkleinern der Bedienelemente 20, 22 und 23 stets gewährleistet ist, dass der Benutzer das auszuwählende Bedienelement 20, 22 und 23 möglichst vollständig erkennt.
  • In den 5B und 5C ist ebenfalls zu erkennen, dass dem ausgewählten Bedienelement 20 aufgrund seiner dicken Umrandung ein Fokus zugewiesen ist.
  • 6 zeigt ein erfindungsgemäßes Ablaufdiagramm der Berührungsbildschirmeinheit 1, welches die unterschiedliche Darstellung der Bedienelemente 20, 22, 23 auf einer Benutzeroberfläche in Abhängigkeit von verschiedenen Abständen eines Objekts 5 in Bezug zur Oberfläche 13 der Berührungsbildschirmeinheit 1 illustriert. Innerhalb von 6 werden auf die in 2 definierten Abstände AF, A1, A2 und AN Bezug genommen.
  • Zu Beginn ist der Abstand zwischen dem Objekt 5 und der Oberfläche 13 größer als der Abstand AF, ab welchem die Annäherungsdetektionseinheit 6 ein Objekt 5 erkennen kann. Bei Einsatz der erfindungsgemäßen Berührungsbildschirmeinheit 1 innerhalb eines mobilen Endgeräts wäre innerhalb dieses Zustands die Hintergrundbeleuchtung ausgeschaltet, um die Akkulaufzeit zu erhöhen. Dieser Sachverhalt ist in Fenstern 60 und 61 dargestellt. Verkleinert sich im Folgenden der Abstand des Objekts 5 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 und unterschreitet dieser Abstand die Fernauslösegrenze AF, so wird die Hintergrundbeleuchtung eingeschaltet und die im rechten Teil von 6 dargestellte beispielhafte Menüstruktur dargestellt. Dies ist in den Fenstern 62 und 63 gezeigt. In dem Fenster 63 sind verschiedene Eingabeelemente 64 und 65 gezeigt, über die der Benutzer Einstellungen vornehmen kann. Bei dem beispielhaften Menü aus dem Fenster 63 handelt es sich um die Möglichkeit, verschiedene Dateien zu öffnen.
  • Nähert sich das Objekt 5 im Folgenden weiterhin der Oberfläche 13 der Berührungsbildschirmeinheit 1 an und wird beispielsweise der Abstand A2 unterschritten, so können frei definierbare Ereignisse ausgelöst werden. Dieser Sachverhalt ist in dem Fenster 68 dargestellt. In dem Fenster 67 werden zwei dieser frei definierbaren Ereignisse ausgeführt. Zu erkennen ist, dass das Bedienelement 65 eine schwarze Umrandung hat. Dies kommt dadurch zustande, dass die Annäherungsdetektoreinheit 6 einen Auswahlbereich 40 auf der Oberfläche 13 der Berührungsbildschirmeinheit 1 erfasst hat, der unter dem zumindest einen Objekt 5 liegt. Das Bedienelement 65 liegt in diesem Beispiel am nahesten im Zentrum dieses Auswahlbereichs 40. Dem Bedienelement 65 wurde deshalb der Fokus übertragen. Den Fokus erkennt man daran, dass beispielsweise um das Bedienelement 65 eine dunkle Umrandung gezeichnet ist. Ein solches Bedienelement 65 kann durch Betätigen der Eingabetaste unverzüglich gestartet werden. Auf diese Art und Weise können auch ältere Softwareprogramme besonders effizient mit der erfindungsgemäßen Berührungsbildschirmeinheit 1 bedient werden. Die Kompatibilität ist dabei sichergestellt. Das zweite Ereignis ist ein sogenannter Hilfstext 66, der dann dargestellt wird, wenn ein Mauszeiger eine bestimmte Zeit lang über einem Bedienelement 20, 22, 23, 64 und 65 verweilt. Der Mauszeiger ist in dem Fenster 67 nicht dargestellt. Allerdings kann der Mauszeiger dem Zentrum des Auswahlbereichs 40 zugeordnet werden. Der Hilfstext 66, der zu jedem Bedienelement 20, 22, 23, 64 und 65 hinterlegt sein kann, wird dann dargestellt, wenn eines dieser Bedienelemente 20, 22, 23, 64 und 65 über eine längere Zeit in etwa im Zentrum des Auswahlbereichs 40 liegt, wobei bevorzugt der Abstand des Objekts 5 zur Oberfläche 13 der Berührungsbildschirmeinheit 1 einen gewissen Schwellwert, der einstellbar ist, unterschreiten muss. In dem Fenster 68 wird deutlich, dass diese Bedingung erfüllt ist, sobald der gemessene Abstand kleiner ist als der voreingestellte Abstand A2.
  • Nähert sich das Objekt 5 weiter der Oberfläche 13 der Berührungsbildschirmeinheit 1 an, dann wird für den Fall, dass der Abstand des Objekts 5 zur Oberfläche 13 kleiner ist, wie eine voreingestellte Nahauslösegrenze, automatisch ein Klick-Ereignis an das Bedienelement 20, 22, 23, 64 und 65 übergeben, welches am nahesten im Zentrum des Auswahlbereichs 40 liegt. In dem Beispiel aus 6 wird dem Bedienelement 65 das Klick-Ereignis übergeben. Bei dem Klick-Ereignis handelt es sich um das Ereignis, welches den Bedienelementen 20, 22, 23, 64 und 65 übergeben worden wäre, wenn eine Maus angeschlossen wäre. In dem Fenster 70 öffnet sich daraufhin vereinfacht dargestellt ein Dateidialog 71, in dem der Benutzer verschiedene Dateien auswählen kann. Dieser Dateidialog 71 kann wiederum über andere Bedienelemente 64 bestätigt oder abgebrochen werden. Dieser Sachverhalt ist in den Fenstern 69 und 70 zu entnehmen.
  • Die dargestellten Schwellwerte, bei deren Erreichen verschiedene Ereignisse ausgeführt werden, können von einem Benutzer beliebig innerhalb der Annäherungsdetektionseinheit eingestellt werden. Dadurch ist sichergestellt, dass die erfindungsgemäße Berührungsbildschirmeinheit 1 auch bei Einsatz eines anderen Berührungsbildschirms 2 stets wie gewünscht arbeitet.
  • Für den Fall, dass sich das Objekt 5 wieder von der Oberfläche 13 der Berührungsbildschirmeinheit 1 entfernt und der daraus resultierende Abstand größer ist, als die vorgegebenen Schwellwerte, werden der Hilfstext und der Fokus wieder entfernt bis am Ende die Hintergrundbeleuchtung ausgeschaltet wird.
  • 7A zeigt ein Ausführungsbeispiel, welches erläutert, wie herkömmliche Anwendungen, bzw. Softwareprogramme von der erfindungsgemäßen Berührungsbildschirmeinheit 1 profitieren können. 7A zeigt einen Blick auf die Oberfläche einer herkömmlichen Bildschirmeinheit 72. Zu erkennen ist, dass mit einem Zeichenwerkzeug eine unterschiedlich dicke Linie gezeichnet worden ist. Die Linie selbst unterteilt sich in vier Abschnitte 73 1, 73 2, 73 3 und 73 4. Zu Beginn eines jeden Abschnitts 73 1, 73 2, 73 3 und 73 4 wird die Dicke der Linie, die das Zeichenwerkzeug zeigt, verändert, sodass sich insgesamt verschiedene dicke Abschnitte 73 1, 73 2, 73 3 und 73 4 ergeben.
  • 7B zeigt ein Ausführungsbeispiel für die Anwendung eines Zeichenwerkzeugs zusammen mit der erfindungsgemäßen Berührungsbildschirmeinheit 1. Dargestellt ist die erfindungsgemäße Berührungsbildschirmeinheit 1, wobei auf der linken Seite ein Objekt 5 in einem Abstand AS zur Oberfläche 13 ausgerichtet ist. Das Objekt 5 wird im Folgenden von der linken Seite auf die rechte Seite bewegt, wobei es seinen Abstand linear von dem Abstand AS auf den Abstand AE verringert. Dadurch, dass die Annäherungsdetektionseinheit 6 diesen Abstand kontinuierlich, zum Beispiel mit 200 Hz pro Sekunde misst, kann über den gemessenen Abstand des Objekts 5 zur Oberfläche 13 der Berührungsbildschirmeinheit 1 automatisch die Dicke des Zeichenwerkzeugs eingestellt werden, mit welcher die Linie 73 gezeichnet werden soll. Zu erkennen ist, dass sich die Dicke der Linie 73 nicht mehr in einzelnen Abschnitten 73 1, 73 2, 73 3 und 73 4 verändert, sondern, dass sich die Dicke linear mit der Bewegung des Objekts 5 verringert. Dies erlaubt, dass viele Softwareprogramme deutlich effizienter verwendet werden können, als dies bisher üblich war.
  • In einem nicht dargestellten Ausführungsbeispiel kann die Annäherungsdetektoreinheit 6 die Position von zumindest einem Objekt 5 über einen Zeitraum T kontinuierlich erfassen und/oder mitteln, wobei die Annäherungsdetektoreinheit 6 die erfasste und/oder gemittelte Position in zumindest einer Speichereinheit 11 speichert. Auf diese Art und Weise können dreidimensionale Gesten erkannt werden, denen verschiedene Ereignisse zugewiesen werden können. Mittels dieser dreidimensionalen Gesten können bestimmte Kurzbefehle direkt an die gestarteten Softwareprogramme übergeben werden, wodurch diese noch effizienter bedient werden können.
  • 8 zeigt ein Ausführungsbeispiel eines Flussdiagramms zum Betreiben der erfindungsgemäßen Berührungsbildschirmeinheit 1. Innerhalb eines ersten Verfahrensschritts S1 wird zumindest ein Objekt 5 auf und/oder in der Nähe einer Oberfläche 13 der Berührungsbildschirmeinheit 1 erkannt. Bei der Oberfläche 13 der Berührungsbildschirmeinheit 1 handelt es sich um den Teil der Berührungsbildschirmeinheit 1, der zur Anzeige von verschiedenen Informationen genutzt werden kann.
  • Anschließend wird ein zweiter Verfahrensschritt S2 ausgeführt. Innerhalb des zweiten Verfahrensschritts S2 erfasst die Annäherungsdetektoreinheit 6 zumindest einen Auswahlbereich 40 auf der Oberfläche 13 der Berührungsbildschirmeinheit 1, der unter dem zumindest einen Objekt 5 liegt. Für den Fall, dass das Objekt 5 die Koordinaten F (x, y, z) = 2, 2, 5 aufweist, also einen Abstand von 5 zur Oberfläche 13 der Berührungsbildschirmeinheit 1 besitzt, so weist das Zentrum des Auswahlbereichs 40 die Koordinaten F (x, y, z) = 2, 2, 0 auf.
  • Im Anschluss daran kann der Verfahrensschritt S3 ausgeführt werden. Innerhalb des Verfahrensschritts S3 wird der zumindest eine Auswahlbereich 40 auf der Berührungsbildschirmeinheit 1 als Zielhilfe visualisiert. Dieser kann auch zur Kalibrierung der erfindungsgemäßen Berührungsbildschirmeinheit 1 verwendet werden. So kann der Benutzer aufgefordert werden, auf ein bestimmtes Bedienelement 20, 22, 23, 64 und 65 oder einen Punkt zu zeigen, worauf die Abweichung zwischen der gemessenen Position des Objekts 5 und der Position des Bedienelements 20, 22, 23, 64 und 65 oder Punkts zur Kalibrierung verwendet werden kann.
  • Anstatt des Verfahrensschritts S3, oder zusätzlich zum Verfahrensschritt S3 kann der Verfahrensschritt S4 ausgeführt werden. Innerhalb des Verfahrensschritts S4 wird ein Fokus an das Bedienelement 20, 22, 23, 64 und 65 übergeben, welches am nahesten im Zentrum des Auswahlbereichs 40 liegt. Dadurch können besonders auch ältere Softwareprogramme effizient mittels der erfindungsgemäßen Berührungsbildschirmeinheit 1 bedient werden.
  • Im Anschluss an den Verfahrensschritt S4 oder im Anschluss an den Verfahrensschritt S3 bzw. anstatt den Verfahrensschritten S3 und S4 kann der Verfahrensschritt S5 ausgeführt werden. Innerhalb des Verfahrensschritts S5 erfasst die Annäherungsdetektionseinheit 6 einen Abstand zwischen dem zumindest einen Objekt 5 und der Oberfläche 13 der Berührungsbildschirmeinheit 1. Im Anschluss daran werden die Bedienelemente 20, 22, 23, 64 und 65, die innerhalb des zumindest einen Auswahlbereichs 40 liegen, z. B. linear mit abnehmendem Abstand vergrößert und/oder z. B. linear mit zunehmendem Abstand verkleinert. Besonders vorteilhaft ist es, wenn einzig die Bedienelemente 20, 22, 23, 64 und 65 linear mit zunehmendem Abstand bzw. linear mit abnehmendem Abstand verkleinert bzw. vergrößert werden, die am nahesten im Zentrum des Auswahlbereichs 40 liegen. Die erlaubt, dass auch Softwareprogramme mit sehr vielen Bedienelementen 20, 22, 23, 64 und 65 sehr effizient bedient werden können, ohne dass Fehler in der Auswahl der Bedienelemente 20, 22, 23, 64 und 65 gemacht werden.
  • Innerhalb des Verfahrensschritts S3 kann auch der Verfahrensschritt S6 ausgeführt werden. Innerhalb des Verfahrensschritts S6 wird der Auswahlbereich 40 mit einer von der Hintergrundfarbe und/oder mit einer von der Hintergrundschraffur abweichenden Farbe und/oder Schraffur dargestellt. Es ist auch möglich, dass der Auswahlbereich 40 in transparenter Form dargestellt wird. Dabei soll der Auswahlbereich 40 nicht die Bedienelemente 20, 22, 23, 64, und 65 derart überlagern, dass der Benutzer die Bedienelemente 20, 22, 23, 64 und 65 nicht mehr erkennen kann. Es wird daher einzig die Fläche zwischen den Bedienelementen 20, 22, 23, 64 und 65 verfärbt, bzw. der Auswahlbereich 40 soll in transparenter Form erscheinen, sodass die Bedienelemente 20, 22, 23, 64, und 65 noch erkannt werden können.
  • Nach dem Verfahrensschritt S6 oder anstatt des Verfahrensschritts S6 kann auch der Verfahrensschritt S7 ausgeführt werden. Innerhalb des Verfahrensschritts S7 wird der zumindest eine Auswahlbereich 40 z. B. linear mit abnehmendem Abstand des zumindest einen Objekts 5 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 verkleinert und/oder es wird der zumindest eine Auswahlbereich 40 z. B. linear mit zunehmendem Abstand 40 des zumindest einen Objekts 5 bezüglich der Oberfläche 13 der Berührungsbildschirmeinheit 1 vergrößert.
  • Nach dem Verfahrensschritt S7 oder anstatt den Verfahrensschritten S6 oder S7 kann auch der Verfahrensschritt S8 ausgeführt werden. Innerhalb des Verfahrensschritts S8 wird der zumindest eine Auswahlbereich 40 als Kreis dargestellt. Die Annäherungsdetektionseinheit 6 berechnet mittels einer statistischen Auswertung der Positionen des zumindest einen Objekts 5 einen Mittelwert M und eine Standardabweichung σ, wobei der Mittelpunkt des Kreises dem Mittelwert M und der Radius des Kreises z. B. σ oder 2·σ entspricht. Auf diese Art und Weise können sehr gut Messfehler gemittelt werden, sodass bei einem Objekt 5, welches sich der Oberfläche 13 der Berührungsbildschirmeinheit 1 annähert, automatisch der als Kreis dargestellte Auswahlbereich 40 mit abnehmender Entfernung kleiner wird, weil die Messgenauigkeit zunimmt.
  • Im Weiteren kann innerhalb des Verfahrensschritts S5 auch der Verfahrensschritt S9 ausgeführt werden. Innerhalb des Verfahrensschritts S9 wird zumindest ein Schwellwert für einen Abstand zwischen dem zumindest einen Objekt 5 und der Oberfläche 13 der Berührungsbildschirmeinheit 1 innerhalb der Annäherungsdetektoreinheit 6 derart eingestellt, dass ein Über- und/oder Unterschreiten dieses Schwellwerts frei definierbare Ereignisse auslöst. Beispielsweise kann ein Ereignis darin gesehen werden, dass ab Unterschreiten eines bestimmten Schwellwerts ein Fokus an ein Bedienelement 20, 22, 23, 64 und 65 übergeben werden kann, und/oder dass zu einem bestimmten Bedienelement 20, 22, 23, 64 und 65 ein Hilfstext 66 angezeigt wird.
  • Nach dem Verfahrensschritt S9 oder alternativ zu dem Verfahrensschritt S9 kann der Verfahrensschritt S10 ausgeführt werden. Innerhalb des Verfahrensschritts S10 kann ein Nahauslösebereich für den erfassten Abstand innerhalb der Annäherungsdetektionseinheit 6 eingestellt werden, sodass bei dessen Unterschreitung beispielsweise ein Klick-Ereignis an das Bedienelement 20, 22, 23, 64 und 65 übergeben werden kann. Dabei wird das Klick-Ereignis an das Bedienelement 20, 22, 23, 64 und 65 übergeben, welches am nahesten im Zentrum des Auswahlbereichs 40 liegt.
  • Im Allgemeinen kann nach jedem Verfahrensschritt, der auf den Verfahrensschritt S1 folgt, der Verfahrensschritt S11 ausgeführt werden. Innerhalb des Verfahrensschritts S11 wird kontinuierlich über einen Zeitraum T die Position von zumindest einem Objekt 5 erfasst und/oder gemittelt. Die gemittelte und/oder erfasste Position wird anschließend durch die Annäherungsdetektoreinheit 6 in zumindest einer Speichereinheit 11 gespeichert. Dadurch lässt sich ein dreidimensionales Abbild von dem zumindest einem Objekt 5 erstellen, welches an ein Softwareprogramm, bzw. eine Anwendung übergeben werden kann. Auf diese Art und Weise lassen sich beispielsweise Gesten verarbeiten, die mit dem Finger vor der Berührungsbildschirmeinheit 1 gemacht werden. Diese Gesten können dazu benutzt werden, um bestimmte Funktionen besonders schnell auszuführen.
  • Es ist überdies möglich, dass mit bestimmten Gesten die einzelnen Finger des Benutzers von der Berührungsbildschirmeinheit 1 identifiziert werden können, um das Messgerät, bzw. das tragbare elektronische Gerät freizuschalten, bzw. um bestimmte Profile zu laden.
  • Im Rahmen der Erfindung sind alle beschriebenen und/oder gezeichneten Merkmale beliebig miteinander kombinierbar. Insbesondere können die Unteransprüche, das Verfahren betreffend auch mit den Vorrichtungsansprüchen die Berührungsbildschirmeinheit 1 betreffend und umgekehrt kombiniert werden. Insbesondere können alle Merkmale miteinander ausgeführt werden. Anstatt einer linearen Änderung ist auch eine langsamere, z. B. logarithmische, oder eine schnellere, z. B. exponentielle, Änderung möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2006/0161871 A1 [0003, 0003]

Claims (20)

  1. Berührungsbildschirmeinheit (1) mit Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) und einer Annäherungsdetekoreinheit (6), wobei die Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) mit der Annäherungsdetekoreinheit (6) verbunden sind, wobei für die Annäherungsdetekoreinheit (6) erkennbar ist, wenn sich zumindest ein Objekt (5) auf und/oder in der Nähe einer Oberfläche (13) der Berührungsbildschirmeinheit (1) befindet, dadurch gekennzeichnet, dass die Annäherungsdetekoreinheit (6) zumindest einen Auswahlbereich (40) auf der Oberfläche (13) der Berührungsbildschirmeinheit (1) erfasst, der unter dem zumindest einen Objekt (5) liegt.
  2. Berührungsbildschirmeinheit nach Anspruch 1, dadurch gekennzeichnet, dass die Berührungsbildschirmeinheit (1) derart ausgebildet ist, dass dieser zumindest eine Auswahlbereich (40) auf der Berührungsbildschirmeinheit (1) als Zielhilfe visualisierbar ist, und/oder dass die Berührungsbildschirmeinheit (1) derart ausgebildet ist, dass an ein Bedienelement (20, 22, 23; 64, 65), welches am nahesten im Zentrum des Auswahlbereichs (40) liegt ein Fokus übertragbar ist, und/oder dass die Berührungsbildschirmeinheit (1) derart ausgebildet ist, dass die Annäherungsdetekoreinheit (6) einen Abstand (AF, A1, A2, A3; AS, AE) zwischen dem zumindest einen Objekt (5) und der Oberfläche (13) der Berührungsbildschirmeinheit (1) erfasst und dass Bedienelemente (20, 22, 23; 64, 65), die innerhalb des zumindest einen Auswahlbereichs (40) liegen, mit abnehmendem Abstand (AF, A1, A2, A3; AS, AE) in ihrer Größe vergrößerbar sind und/oder dass Bedienelemente (20, 22, 23; 64, 65), die innerhalb des zumindest einen Auswahlbereichs (40) liegen, mit zunehmendem Abstand (AF, A1, A2, A3; AS, AE) in ihrer Größe verkleinerbar sind.
  3. Berührungsbildschirmeinheit nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es sich bei der Berührungsbildschirmeinheit (1) mit den Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) um eine kapazitive Berührungsbildschirmeinheit (1) handelt und/oder dass es sich bei dem zumindest einen Objekt (5) um zumindest einen Finger (5) und/oder um zumindest einen Eingabestift handelt.
  4. Berührungsbildschirmeinheit nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Auswahlbereich (40) mit einer von der Hintergrundfarbe und/oder mit einer von der Hintergrundschraffur abweichenden Farbe und/oder Schraffur darstellbar ist und/oder dass der Auswahlbereich (40) transparent darstellbar ist.
  5. Berührungsbildschirmeinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der zumindest eine Auswahlbereich (40) linear mit abnehmendem Abstand (AF, A1, A2, A3; AS, AE) des zumindest einen Objekts (5) bezüglich der Oberfläche (13) der Berührungsbildschirmeinheit (1) in seiner Größe verkleinerbar ist und/oder dass der zumindest eine Auswahlbereich (40) linear mit zunehmendem Abstand (AF, A1, A2, A3; AS, AE) des zumindest einen Objekts (5) bezüglich der Oberfläche (13) der Berührungsbildschirmeinheit (1) in seiner Größe vergrößerbar ist.
  6. Berührungsbildschirmeinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass es sich bei dem zumindest einen Auswahlbereich (40) um einen Kreis handelt, wobei mittels einer statistischen Auswertung der Positionen des zumindest einen Objekts (5) ein Mittelwert (M) und eine Standardabweichung (σ) berechenbar ist, wobei ein Mittelpunkt des Kreises dem Mittelwert (M) und ein Radius des Kreises der Standardabweichung (σ) entspricht.
  7. Berührungsbildschirmeinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass innerhalb der Annäherungsdetekoreinheit (6) zumindest ein Schwellwert für einen Abstand (AF, A1, A2, A3; AS, AE) zwischen dem zumindest einen Objekt (5) und der Oberfläche (13) der Berührungsbildschirmeinheit (1) einstellbar ist, sodass bei Über- oder Unterschreiten dieses zumindest einen Schwellwerts frei definierbare Ereignisse auslösbar sind.
  8. Berührungsbildschirmeinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass innerhalb der Annäherungsdetekoreinheit (6) ein Nahauslösebereich (AN) für den erfassten Abstand (AF, A1, A2, A3; AS, AE) einstellbar ist, sodass ein Klick-Ereignis an das Bedienelement (20, 22, 23; 64,65) übergebbar ist, welches am nahesten im Zentrum des Auswahlbereichs (40) liegt, sobald der durch die Annäherungsdetekoreinheit (6) erfasste Abstand (AF, A1, A2, A3; AS, AE) den Nahauslösebereich (AN) unterschreitet.
  9. Berührungsbildschirmeinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Annäherungsdetekoreinheit (6) die Position von zumindest einem Objekt (5) über einen Zeitraum (T) kontinuierlich erfasst und/oder mittelt und die erfasste und/oder gemittelte Position in zumindest einer Speichereinheit (11) speichert.
  10. Verfahren zum Betrieb einer Berührungsbildschirmeinheit (1) mit Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) und einer Annäherungsdetekoreinheit (6), wobei die Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) mit der Annäherungsdetekoreinheit (6) verbunden sind, mit den nachfolgenden Verfahrensschritten: – Erkennen (S1) dass sich zumindest ein Objekt (5) auf und/oder in der Nähe einer Oberfläche (13) der Berührungsbildschirmeinheit (1) befindet durch die Annäherungsdetekoreinheit (6); gekennzeichnet durch, – Erfassen (S2) zumindest eines Auswahlbereichs (40) auf der Oberfläche (13) der Berührungsbildschirmeinheit (1) durch die Annäherungsdetekoreinheit (6), der unter dem zumindest einen Objekt (5) liegt.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Berührungsbildschirmeinheit (1) wie folgt betrieben wird: – Visualisieren (S3) des zumindest einen Auswahlbereichs (40) auf der Berührungsbildschirmeinheit (1) als Zielhilfe; und/oder dass die Berührungsbildschirmeinheit (1) wie folgt betrieben wird: – Übertragen (S4) eines Fokus an ein Bedienelement (20, 22, 23; 64, 65), welches am nahesten im Zentrum des Auswahlbereichs (40) liegt; und/oder dass die Berührungsbildschirmeinheit (1) wie folgt betrieben wird: – Erfassen (S5) eines Abstands (AF, A1, A2, A3; AS, AE) zwischen dem zumindest einen Objekt (5) und der Oberfläche (13) der Berührungsbildschirmeinheit (1) durch die Annäherungsdetekoreinheit (6); und – Vergrößern (S5) von Bedienelementen (20, 22, 23; 64, 65), die innerhalb des zumindest einen Auswahlbereichs (40) liegen, mit abnehmendem Abstand (AF, A1, A2, A3; AS, AE); und/oder – Verkleinern (S5) von Bedienelementen (20, 22, 23; 64, 65), die innerhalb des zumindest einen Auswahlbereichs (40) liegen, mit zunehmendem Abstand (AF, A1, A2, A3; AS, AE).
  12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass es sich bei der Berührungsbildschirmeinheit (1) mit den Erfassungssensoren (4 1, 4 2, 4 3 bis 4 n) um eine kapazitive Berührungsbildschirmeinheit (1) handelt und/oder dass es sich bei dem zumindest einen Objekt (5) um zumindest einen Finger (5) und/oder um zumindest einen Eingabestift handelt.
  13. Verfahren nach einem der Ansprüche 10 bis 12, gekennzeichnet durch, folgenden Verfahrensschritt: – Darstellen (S6) des Auswahlbereichs (40) mit einer von der Hintergrundfarbe und/oder mit einer von der Hintergrundschraffur abweichenden Farbe und/oder Schraffur und/der Darstellen des Auswahlbereichs (40) in transparenter Form.
  14. Verfahren nach einem der Ansprüche 10 bis 13, gekennzeichnet durch, folgende Verfahrensschritte: – Verkleinern (S7) des zumindest einen Auswahlbereichs (40) linear mit abnehmendem Abstand (AF, A1, A2, A3, AS, AE) des zumindest einen Objekts (5) bezüglich der Oberfläche (13) der Berührungsbildschirmeinheit (1) und/oder – Vergrößern (S7) des zumindest einen Auswahlbereichs (40) linear mit zunehmendem Abstand (AF, A1, A2, A3; AS, AE) des zumindest einen Objekts (5) bezüglich der Oberfläche (13) der Berührungsbildschirmeinheit (1).
  15. Verfahren nach einem der Ansprüche 10 bis 14, gekennzeichnet durch, folgenden Verfahrensschritt: – Darstellen (S8) des zumindest einen Auswahlbereichs (40) als Kreis und Berechnen mittels einer statistischen Auswertung der Positionen des zumindest einen Objekts (5) eines Mittelwerts (M) und einer Standardabweichung (σ), wobei ein Mittelpunkt des Kreises diesem Mittelwert (M) und ein Radius des Kreises dieser Standardabweichung (σ) entspricht.
  16. Verfahren nach einem der Ansprüche 10 bis 15, gekennzeichnet durch, folgenden Verfahrensschritt: – Einstellen (S9) zumindest eines Schwellwerts für einen Abstand (AF, A1, A2, A3; AS, AE) zwischen dem zumindest einen Objekt (5) und der Oberfläche (13) der Berührungsbildschirmeinheit (1) innerhalb der Annäherungsdetekoreinheit (6), sodass bei Über- oder Unterschreiten dieses zumindest einen Schwellwerts frei definierbare Ereignisse ausgelöst werden.
  17. Verfahren nach einem der Ansprüche 10 bis 16, gekennzeichnet durch, folgenden Verfahrensschritt: – Einstellen (S10) ein Nahauslösebereichs (AN) für den erfassten Abstand (AF, A1, A2, A3; AS, AE) innerhalb der Annäherungsdetekoreinheit (6), sodass ein Klick-Ereignis an das Bedienelement (20, 22, 23; 64, 65) übergeben wird, welches am nahesten im Zentrum des Auswahlbereichs (40) liegt, sobald der durch die Annäherungsdetekoreinheit (6) erfasste Abstand den Nahauslösebereich (AN) unterschreitet.
  18. Verfahren nach einem der Ansprüche 10 bis 17, gekennzeichnet durch, folgenden Verfahrensschritt: – Kontinuierliches Erfassen (S11) und/oder Mitteln der Position von zumindest einem Objekt (5) über einen Zeitraum (T) durch die Annäherungsdetekoreinheit (6) und Speichern der erfassten und/oder gemittelten Position in zumindest einer Speichereinheit (11).
  19. Computerprogramm mit Programmcode-Mitteln, um alle Schritte gemäß einem der Ansprüche 10 bis 18 durchführen zu können, wenn das Programm auf einem Computer oder einem digitalen Signalprozessor ausgeführt wird.
  20. Computerprogramm-Produkt mit insbesondere auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um alle Schritte gemäß einem der Ansprüche 10 bis 18 durchführen zu können, wenn das Programm auf einem Computer oder einem digitalen Signalprozessor ausgeführt wird.
DE102011075067.3A 2011-05-02 2011-05-02 Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb Active DE102011075067B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011075067.3A DE102011075067B4 (de) 2011-05-02 2011-05-02 Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011075067.3A DE102011075067B4 (de) 2011-05-02 2011-05-02 Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb

Publications (2)

Publication Number Publication Date
DE102011075067A1 true DE102011075067A1 (de) 2012-11-08
DE102011075067B4 DE102011075067B4 (de) 2022-08-18

Family

ID=47019332

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011075067.3A Active DE102011075067B4 (de) 2011-05-02 2011-05-02 Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb

Country Status (1)

Country Link
DE (1) DE102011075067B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012224394A1 (de) * 2012-12-27 2014-07-03 Siemens Aktiengesellschaft Entfernungsgestützte Steuerung vonAnzeige-Abstraktion und Interaktions-Modus
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten
US10379663B2 (en) 2015-03-03 2019-08-13 Nokia Technologies Oy Apparatus and method for sensing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060161871A1 (en) 2004-07-30 2006-07-20 Apple Computer, Inc. Proximity detector in handheld device
DE102009006082A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060161871A1 (en) 2004-07-30 2006-07-20 Apple Computer, Inc. Proximity detector in handheld device
DE102009006082A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012224394A1 (de) * 2012-12-27 2014-07-03 Siemens Aktiengesellschaft Entfernungsgestützte Steuerung vonAnzeige-Abstraktion und Interaktions-Modus
EP2749989A3 (de) * 2012-12-27 2015-04-08 Siemens Aktiengesellschaft Entfernungsgestützte Steuerung von Anzeige-Abstraktion und Interaktions-Modus
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten
US10379663B2 (en) 2015-03-03 2019-08-13 Nokia Technologies Oy Apparatus and method for sensing
EP3065298B1 (de) * 2015-03-03 2020-12-23 Nokia Technologies Oy Messvorrichtung und -verfahren

Also Published As

Publication number Publication date
DE102011075067B4 (de) 2022-08-18

Similar Documents

Publication Publication Date Title
DE69534404T2 (de) Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche
EP2183661B1 (de) Verfahren zur bestimmung der position eines betätigungselements, insbesondere eines fingers eines nutzers, in einem kraftfahrzeug und positionsbestimmungsvorrichtung
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
DE112016006646T5 (de) Koordinatenkorrekturvorrichtung, koordinatenkorrekturverfahren und koordinatenkorrekturprogramm
DE102006041993A1 (de) Touch Panel-Eingabevorrichtung
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
DE102014000214B4 (de) Steuern eines Steuerparameters durch Gestenerkennung
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
EP3898310B1 (de) Verfahren und system zum einstellen eines wertes eines parameters
DE102013009009B4 (de) System und Verfahren zur Datenauswahl mittels einer berührungsempfindlichen Oberfläche
DE112015006572T5 (de) Touch-Panel-Steuervorrichtung und Fahrzeuginformationsvorrichtung
DE102011075067B4 (de) Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb
EP3234736B1 (de) Verfahren zum betreiben einer eingabevorrichtung, eingabevorrichtung, kraftfahrzeug
DE202015100273U1 (de) Eingabevorrichtung
EP3224695A1 (de) Verfahren zur taktilen interaktion eines benutzers mit einem elektronischen gerät und elektronisches gerät hierzu
DE102018202657A1 (de) Vorrichtung und verfahren zum steuern von fahrzeugfunktionen sowie fahrzeug
WO2010015303A1 (de) Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102014224632A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2020052894A1 (de) Verfahren zum unterstützen eines benutzers beim durchführen eines scroll-vorgangs, vorrichtung und kraftfahrzeug
DE102018005248A1 (de) Kapazitives Sensorsystem zur Berührungserkennung
DE102010039545B4 (de) Verfahren zum Erfassen von Bewegungen eines Objekts sowie Sensorsystem und Handgerät hierfür
DE102013000219A1 (de) Verfahren und Vorrichtung zum Bedienen einer Einrichtung
DE102014206072A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MITSCHERLICH & PARTNER PATENT- UND RECHTSANWAE, DE

R081 Change of applicant/patentee

Owner name: ROHDE & SCHWARZ GMBH & CO. KG, DE

Free format text: FORMER OWNER: RHODE & SCHWARZ GMBH & CO. KG, 81671 MUENCHEN, DE

Effective date: 20121212

R082 Change of representative

Representative=s name: MITSCHERLICH & PARTNER PATENT- UND RECHTSANWAE, DE

Effective date: 20121212

Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE, PART, DE

Effective date: 20121212

Representative=s name: MITSCHERLICH, PATENT- UND RECHTSANWAELTE PARTM, DE

Effective date: 20121212

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003033000

Ipc: G06F0003048800

Effective date: 20130307

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final