DE10310794A1 - Bedieneinrichtung und Kommunikationsgerät - Google Patents

Bedieneinrichtung und Kommunikationsgerät Download PDF

Info

Publication number
DE10310794A1
DE10310794A1 DE2003110794 DE10310794A DE10310794A1 DE 10310794 A1 DE10310794 A1 DE 10310794A1 DE 2003110794 DE2003110794 DE 2003110794 DE 10310794 A DE10310794 A DE 10310794A DE 10310794 A1 DE10310794 A1 DE 10310794A1
Authority
DE
Germany
Prior art keywords
display
input element
display device
touch screen
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2003110794
Other languages
English (en)
Other versions
DE10310794B4 (de
Inventor
Markus Andert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE2003110794 priority Critical patent/DE10310794B4/de
Publication of DE10310794A1 publication Critical patent/DE10310794A1/de
Application granted granted Critical
Publication of DE10310794B4 publication Critical patent/DE10310794B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/22Illumination; Arrangements for improving the visibility of characters on dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Abstract

Die Erfindung basiert auf dem Gedanken, die Position eines Eingabeelementes relativ zu einer Anzeigeeinrichtung zu erfassen und ein Anzeigeelement in Abhängigkeit von der Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung vergrößert darzustellen.

Description

  • Die Erfindung betrifft eine Bedieneinrichtung und ein Kommunikationsgerät, insbesondere ein Mobiltelefon, ein Schnurlostelefon oder einen tragbaren Computer.
  • Die rasante technische Entwicklung auf dem Gebiet der Mobilkommunikation hat in den letzten Jahren zu einer fortschreitenden Miniaturisierung der dabei verwendeten Endgeräte geführt.
  • Diese fortschreitende Miniaturisierung der Endgeräte bringt – nicht nur auf dem Gebiet der Mobilkommunikation – erhebliche Probleme hinsichtlich des Bedienkomforts mit sich, weil es aufgrund der kleinen Gehäuseoberflächen der miniaturisierten Endgeräte nicht mehr möglich ist, diese mit einer dem Funktionsumfang der Geräte entsprechenden Anzahl von Tasten zu versehen.
  • Bekannte Lösungen dieses Problems sehen einen so genannten Touchscreen vor, bei dem eine Anzeigeeinrichtung derart mit einer Sensoreinrichtung gekoppelt ist, dass ein berührungssensitves Anzeigefeld entsteht, das eine ortsaufgelöste Detektion von Berührungen der Anzeigeeinrichtung ermöglicht. Dadurch können Anzeigeelemente flexibel auf der Anzeigeeinrichtung dargestellt werden und durch eine Berührung der Anzeigeeinrichtung am Ort der Darstellung der Anzeigeelemente mit einem Eingabeelement – wie beispielsweise einem Finger oder einem Stift (Pen) – ausgewählt werden.
  • Allerdings führt die zunehmende Miniaturisierung der Endgeräte und die zunehmende Auflösung der Anzeigeeinrichtungen zu dem Nachteil, dass die Anzeigeelemente häufig derart klein auf der Anzeigeeinrichtung dargestellt werden, dass sie nur mehr mit Mühe zu erkennen sind und, insbesondere durch breite Eingabeelemente – wie beispielsweise Finger –, nur noch mit Schwierigkeiten eindeutig auszuwählen sind.
  • Der Erfindung liegt nun die Aufgabe zugrunde, eine technische Lehre anzugeben, die eine leicht erkennbare Darstellung von Anzeigeelementen insbesondere bei der Verwendung von flächenmäßig kleinen Anzeigeeinrichtungen ermöglicht.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Vorteilhafte und zweckmäßige Weiterbildungen ergeben sich aus den abhängigen Ansprüchen. Im Rahmen der Erfindung liegen dabei auch Weiterbildungen des Kommunikationsgerätes, die den Weitebildungen der Bedieneinrichtung entsprechen.
  • Die Erfindung basiert demnach auf dem Gedanken, die Position eines Eingabeelementes relativ zu einer Anzeigeeinrichtung zu erfassen und ein Anzeigeelement in Abhängigkeit von der Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung vergrößert darzustellen.
  • Dies ermöglicht ein leichteres Erkennen von Anzeigeelementen und dadurch insbesondere eine komfortablere und zuverlässigere Auswahl von Anzeigeelementen.
  • Bei der mit einer Sensorreinrichtung gekoppelten Anzeigeeinrichtung kann es sich beispielsweise um einen Touchscreen handeln, der um Sensorelemente zur Detektion des Abstandes zwischen Eingabeelement und Touchscreenoberfäche ergänzt ist.
  • Bei dem Eingabeelement kann es sich auch um einen Finger, insbesondere eine Fingerspitze oder einen Stift (Pen), insbesondere eine Stiftspitze, handeln. Das Eingabeelement kann auch aktive oder passive Teile der Sensoreinrichtung umfassen.
  • Bei einem Anzeigeelement kann es sich auch um Symbole, Icons, Bilder, Ziffern oder Buchstaben handeln. Ein Anzeigeelement kann aber auch bestimmt sein durch eine bestimmte Fläche, die die Position des Eingabeelementes in Richtung der Ebene der Anzeigeeinrichtung umgibt; beispielsweise durch einen Kreis mit einem bestimmten Radius, dessen Mittelpunkt durch die Position des Eingabeelementes in Richtung der Ebene der Anzeigeeinrichtung bestimmt ist, oder durch eine entsprechende andere Form, wie beispielsweise ein Rechteck.
  • Weiterbildungen der Erfindung, welche durch aufwändige Untersuchungen an eigens für diesen Zweck geschaffenen Man-Machine-Interface-Simulatoren geschaffen wurden, ermöglichen eine besonders komfortable, insbesondere intuitive, Nutzung der Bedieneinrichtung, insbesondere im Rahmen von Telefonieanwendungen, indem sie eine zuverlässige und/oder komfortable Auswahl von dargestellten Anzeigeelementen auf einer Anzeigeeinrichtung ermöglichen.
  • Die Erfindung wird im Folgenden anhand bevorzugter Ausführungsbeispiele näher beschrieben, zu deren Erläuterung nachstehend aufgelistete Figur dient:
  • 1 Blockschaltbild einer Mobilstation mit Bedieneinrichtung;
  • 2 schematische Darstellung einer Ausführungsvariante der Erfindung (Abstand des Eingabeelementes von Anzeigeeinrichtung ist größer als zs);
  • 3 schematische Darstellung einer Ausführungsvariante der Erfindung (Abstand des Eingabeelementes von Anzeigeeinrichtung ist kleiner als zs);
  • 4 schematische Darstellung einer Ausführungsvariante der Erfindung, bei der die vergrößerte Darstellung eines An zeigeelementes die Darstellung anderer Anzeigeelemente überlagert;
  • 5 schematische Darstellung einer Ausführungsvariante der Erfindung, bei der die vergrößerte Darstellung gemäß einer virtuellen Lupe erfolgt.
  • 1 zeigt als Kommunikationsgerät eine Mobilstation MS, insbesondere ein Mobiltelefon, welche eine Bedieneinrichtung MMI, eine Hochfrequenzeinrichtung HF und eine Prozessoreinrichtung PE enthält. Die Bedieneinrichtung MMI umfasst einen Touchscreen, welcher durch eine mit einer Sensoreinrichtung SEN gekoppelten Anzeigeeinrichtung DPL, beispielsweise mit einem Grafikdisplay, realisiert ist.
  • Zur Steuerung der Mobilstation MS und insbesondere der Bedieneinrichtung MMI ist eine programmgesteuerte Prozessoreinrichtung PE, wie beispielsweise ein Mikrocontroller vorgesehen, der auch einen Prozessor CPU und eine Speichereinrichtung SPE umfassen kann. Auch die Kopplung der Sensoreinrichtung SEN mit der Anzeigeeinrichtung DPL kann durch die Prozessoreinrichtung realisiert sein.
  • Die Prozessoreinrichtung kann dabei beispielsweise auch durch einen Chipsatz, der mehrere Prozessoren aufweisen kann, realisiert sein, der eigens zur Steuerung einer Bedieneinrichtung oder einer Mobilstation hergestellt worden ist.
  • In der Speichereinrichtung SPE sind auch die Programmdaten, wie beispielsweise die Steuerbefehle oder Steuerprozeduren, die zur Steuerung der Mobilstation und insbesondere der Bedieneinrichtung MMI herangezogen werden, gespeichert.
  • Die unterschiedlichen Komponenten der Prozessoreinrichtung können über ein Bussystem BUS oder Ein-/Ausgabeschnittstellen und gegebenenfalls geeignete Controller untereinander oder mit weiteren Komponenten der Mobilstation Daten austauschen.
  • Es ist einem Fachmann hinreichend bekannt, zur Steuerung einer Mobilstation bzw. einer Bedieneinrichtung und zur Realisierung bestimmter Funktionen und Anwendungen der Mobilstation diese und weitere Komponenten einer Prozessoreinrichtung und damit die Prozessoreinrichtung programmtechnisch entsprechend einzurichten. Auch ein Touchscreen bzw. die Kopplung einer Anzeigeeinrichtung mit einer beispielsweise kapazitiven Sensoreinrichtung, derart, dass die Position eines Eingabeelementes relativ zur Anzeigeeinrichtung ermittelt wird, an sich ist bekannt, weshalb an dieser Stelle nicht näher darauf eingegangen wird.
  • 2 zeigt eine Anzeigeeinrichtung DPL, auf der als Anzeigeelement das Zeichen F dargestellt ist. Über dem Zeichen F befindet sich als Eingabeelement ein Stift EE. Durch die (nicht dargestellte) Sensoreinrichtung wird die Position der Spitze des Eingabeelementes in Richtung der Ebene (x,y) der Anzeigeeinrichtung DPL detektiert, indem die Koordinaten x0 und y0 ermittelt werden. Als nächstes zu diesen Koordinaten x0,y0 liegendes Anzeigeelement wird das Zeichen F ermittelt und ausgewählt. Außerdem wird die Position der Spitze des Eingabeelementes in einer Richtung (z) senkrecht zur Anzeigeeinrichtung und somit der Abstand zwischen Eingabeelement und Anzeigeeinrichtung detektiert, indem die Koordinate z0 ermittelt wird.
  • Alternativ oder ergänzend zu der Auswahl eines Zeichens F als Anzeigeelement erfolgt gemäß einer Ausführungsvariante der Erfindung in Abhängigkeit von der Position der Spitze des Eingabeelementes in Richtung der Ebene (x,y) der Anzeigeeinrichtung die Auswahl einer kreisförmigen Fläche ANZF, deren Mittelpunkt durch die Position der Spitze des Eingabeelementes in Richtung der Ebene (x,y) der Anzeigeeinrichtung bestimmt ist, als Anzeigeelement.
  • Unterschreitet nun – wie in 3 gezeigt – der Abstand zwischen Eingabeelement und Anzeigeeinrichtung z1 einen Schwellwertabstand zs, so wird das ausgewählte Anzeigeelement F (und/oder alles, was innerhalb der kreisförmigen Fläche ANZF dargestellt ist, wie beispielsweise das Rechteck) vergrößert dargestellt.
  • Ergänzend oder alternativ dazu sieht eine Ausgestaltung der Erfindung vor, dass die Größe der Darstellung, beispielsweise der Zoomfaktor, des Anzeigeelementes F (und/oder von allem, was innerhalb der kreisförmigen Fläche ANZF dargestellt ist) von dem Abstand zwischen Eingabeelement und Anzeigeeinrichtung abhängt, so dass die Größe der Darstellung zumindest innerhalb bestimmter Grenzen mit Verringerung des Abstandes zunimmt .
  • Berührt nun das Eingabeelement EE die Anzeigeeinrichtung an einer Stelle, die der vergrößerten Darstellung des Anzeigeelementes dient, so wird dadurch das entsprechende Anzeigeelement ausgewählt oder markiert.
  • Eine besondere Ausgestaltung der Erfindung sieht – wie in 4 dargestellt – für den Fall der vergrößerten Darstellung eines Anzeigeelementes F vor, dass benachbarte Anzeigeelemente S,D,G,H durch diese vergrößerte Darstellung überlagert werden.
  • Alternativ zu der überlagerten Darstellung des vergrößerten Anzeigeelementes sieht eine Ausführungsvariante der Erfindung vor, dass die vergrößerte Darstellung des ausgewählten Anzeigeelementes verzerrt entsprechend der vergrößerten Darstellung des Anzeigeelementes mittels einer optischen Linse, insbesondere einer Lupe, erfolgt. Dieses Prinzip ist vereinfacht in 5 dargestellt, die in den Abbildungen von (a) nach (d) ein sich dem Anzeigeelement R näherndes Eingabeelement EE (durch den kleiner werdenden Finger dargestellt) zeigt. Je kleiner der Abstand zwischen Anzeigeeinrichtung und Eingabe element wird, desto größer wird das Anzeigeelement R (und/oder die umgebende Fläche) dargestellt und desto verzerrter werden die das Anzeigeelement R umgebenden Anzeigeelemente dargestellt. Die verzerrte vergrößerte Darstellung eines Anzeigeelementes entspricht dabei in einer Ausführungsvariante der vergrößerten Darstellung durch eine Lupe, wobei die Position des Eingabeelementes in Richtung der Ebene der Anzeigeeinrichtung die Position des Mittelpunktes dieser virtuellen Lupe bestimmt und die Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung den Abstand der virtuellen Lupe von der Anzeigeeinrichtung bestimmt.
  • Neben den oben erläuterten Ausführungsvarianten der Erfindung liegt eine Vielzahl weiterer Ausführungsvarianten im Rahmen der Erfindung, welche hier nicht weiter beschrieben werden, aber anhand der erläuterten Ausführungsbeispiele einfach in die Praxis umgesetzt werden können.

Claims (5)

  1. Bedieneinrichtung mit einer Anzeigeeinrichtung zur Darstellung von Anzeigeelementen, die derart mit einer Sensoreinrichtung zur Detektion der Position eines Eingabeelementes gekoppelt ist, dass in Abhängigkeit von der Position des Eingabeelementes in Richtung der Ebene der Anzeigeeinrichtung ein Anzeigeelement ausgewählt wird, und dass in Abhängigkeit von der Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung das ausgewählte Anzeigeelement vergrößert dargestellt wird.
  2. Bedieneinrichtung nach Anspruch 1, bei der die vergrößerte Darstellung des ausgewählten Anzeigeelementes derart von der Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung abhängt, dass die vergrößerte Darstellung ausgelöst wird, wenn ein Schwellwertabstand zwischen der Anzeigeeinrichtung und dem Eingabeelement unterschritten wird.
  3. Bedieneinrichtung nach einem der Ansprüche 1 oder 2, bei der die vergrößerte Darstellung des ausgewählten Anzeigeelementes derart von der Position des Eingabeelementes in einer Richtung senkrecht zur Ebene der Anzeigeeinrichtung abhängt, dass das Anzeigeelement umso größer dargestellt wird, je kleiner der Abstand zwischen der Anzeigeeinrichtung und dem Eingabeelement ist.
  4. Bedieneinrichtung nach einem der vorhergehenden Ansprüche, bei dem die vergrößerte Darstellung des ausgewählten Anzeigeelementes verzerrt entsprechend der vergrößerten Darstellung des Anzeigeelementes mittels einer optischen Linse erfolgt.
  5. Kommunikationsgerät mit einer Bedieneinrichtung nach einem der vorhergehenden Ansprüche.
DE2003110794 2003-03-12 2003-03-12 Bedieneinrichtung und Kommunikationsgerät Expired - Fee Related DE10310794B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2003110794 DE10310794B4 (de) 2003-03-12 2003-03-12 Bedieneinrichtung und Kommunikationsgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003110794 DE10310794B4 (de) 2003-03-12 2003-03-12 Bedieneinrichtung und Kommunikationsgerät

Publications (2)

Publication Number Publication Date
DE10310794A1 true DE10310794A1 (de) 2004-09-23
DE10310794B4 DE10310794B4 (de) 2012-10-18

Family

ID=32892082

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003110794 Expired - Fee Related DE10310794B4 (de) 2003-03-12 2003-03-12 Bedieneinrichtung und Kommunikationsgerät

Country Status (1)

Country Link
DE (1) DE10310794B4 (de)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1868073A1 (de) 2006-06-13 2007-12-19 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Vergrössern eines Bildes und zum Kontrollieren des vergrösserten Bildes in einem Mobilkommunikationsgerät
EP1998245A3 (de) * 2007-05-14 2009-01-14 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Eingabe von Zeichen in ein mobiles Kommunikationsendgerät
EP2020632A1 (de) * 2007-07-30 2009-02-04 Siemens Aktiengesellschaft Eingabevorrichtung mit Anzeigemittel
EP2028585A1 (de) * 2007-08-21 2009-02-25 Wacom Co., Ltd. Informationsverarbeitungsvorrichtung, Operationseingabeverfahren und Computerprogramm
EP2085865A1 (de) 2008-01-30 2009-08-05 Research In Motion Limited Elektronische Vorrichtung und Steuerverfahren dafür
EP2105826A2 (de) * 2008-03-25 2009-09-30 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Anzeige von Informationen damit
WO2009125258A1 (en) * 2008-04-08 2009-10-15 Sony Ericsson Mobile Communications Ab Communication terminals with superimposed user interface
DE102008023405A1 (de) 2008-05-13 2009-11-19 Volkswagen Ag Kraftfahrzeug mit einem Bedienfeld
EP2144147A2 (de) 2008-07-01 2010-01-13 Honeywell International Inc. Systeme und Verfahren zur berührungslosen Interaktion
EP2133778A3 (de) * 2008-06-10 2010-01-27 Sony Service Centre (Europe) N.V. Berührungsbildschirm mit einer virtuellen Tastatur und mindestens einem Näherungssensor
WO2010052036A1 (en) * 2008-11-06 2010-05-14 Sony Ericsson Mobile Communications Ab Communication device with multilevel virtual keyboard
WO2010069271A1 (zh) * 2008-12-19 2010-06-24 华为终端有限公司 触摸屏输入方法、装置和通信终端
EP2202626A2 (de) 2008-12-26 2010-06-30 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
WO2010083820A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur ausführung einer eingabe mittels einer auf einem bildschirm dargestellten, virtuellen tastatur
US7903094B2 (en) 2006-06-23 2011-03-08 Wacom Co., Ltd Information processing apparatus, operation input method, and sensing device
WO2011054549A1 (en) * 2009-11-04 2011-05-12 Tomtom International B.V. Electronic device having a proximity based touch screen
US7969421B2 (en) 2003-10-29 2011-06-28 Samsung Electronics Co., Ltd Apparatus and method for inputting character using touch screen in portable terminal
EP2350789A1 (de) * 2008-10-27 2011-08-03 Verizon Patent and Licensing Inc. Proximitätsschnittstellenvorrichtungen, systeme und verfahren
EP1912114A3 (de) * 2006-10-09 2012-12-12 Robert Bosch Gmbh Bedieneinheit und Verfahren zur Darstellung eines Tastenfeldes
EP2541383A1 (de) * 2011-06-29 2013-01-02 Sony Ericsson Mobile Communications AB Kommunikationsvorrichtung und -verfahren
EP2565754A1 (de) * 2011-09-05 2013-03-06 Alcatel Lucent Verfahren zur Vergrößerung von mindestens einem Teil einer Berührungsbildschirmanzeige eines Endgeräts
WO2014152581A1 (en) * 2013-03-14 2014-09-25 Huawei Technologies Co., Ltd. Virtual magnifying lens touch graphic effect for mobile devices
CN104285202A (zh) * 2012-03-14 2015-01-14 诺基亚公司 触屏悬停输入处理
US9110635B2 (en) 2013-12-03 2015-08-18 Lenova (Singapore) Pte. Ltd. Initiating personal assistant application based on eye tracking and gestures
EP2930600A3 (de) * 2014-04-08 2015-10-28 Fujitsu Limited Elektronische vorrichtung und informationsanzeigeprogramm
US9213659B2 (en) 2013-12-03 2015-12-15 Lenovo (Singapore) Pte. Ltd. Devices and methods to receive input at a first device and present output in response on a second device different from the first device
US9709708B2 (en) 2013-12-09 2017-07-18 Lenovo (Singapore) Pte. Ltd. Adjustable display optics
US9778829B2 (en) 2012-02-17 2017-10-03 Lenovo (Singapore) Pte. Ltd. Magnification based on eye input
US9811095B2 (en) 2014-08-06 2017-11-07 Lenovo (Singapore) Pte. Ltd. Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses
US10013540B2 (en) 2015-03-10 2018-07-03 Lenovo (Singapore) Pte. Ltd. Authentication based on body movement
EP2457147B1 (de) * 2009-07-21 2018-08-22 Cisco Technology, Inc. Berührungsbildschirm mit gradueller nähe
US10073671B2 (en) 2014-01-20 2018-09-11 Lenovo (Singapore) Pte. Ltd. Detecting noise or object interruption in audio video viewing and altering presentation based thereon
DE102012109959B4 (de) * 2012-02-17 2018-11-22 Lenovo (Singapore) Pte. Ltd. Automatische Vergrößerungs- und Auswahlbestätigung
US10163455B2 (en) 2013-12-03 2018-12-25 Lenovo (Singapore) Pte. Ltd. Detecting pause in audible input to device
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US10499164B2 (en) 2015-03-18 2019-12-03 Lenovo (Singapore) Pte. Ltd. Presentation of audio based on source
US10621431B2 (en) 2015-03-27 2020-04-14 Lenovo (Singapore) Pte. Ltd. Camera that uses light from plural light sources disposed on a device
US10860094B2 (en) 2015-03-10 2020-12-08 Lenovo (Singapore) Pte. Ltd. Execution of function based on location of display at which a user is looking and manipulation of an input device
US10955988B1 (en) 2020-02-14 2021-03-23 Lenovo (Singapore) Pte. Ltd. Execution of function based on user looking at one area of display while touching another area of display

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4790028A (en) * 1986-09-12 1988-12-06 Westinghouse Electric Corp. Method and apparatus for generating variably scaled displays
JPH05346923A (ja) * 1992-06-15 1993-12-27 Nippon Signal Co Ltd:The 表示・入力装置
JP2648558B2 (ja) * 1993-06-29 1997-09-03 インターナショナル・ビジネス・マシーンズ・コーポレイション 情報選択装置及び情報選択方法
US5565888A (en) * 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US6073036A (en) * 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US7009626B2 (en) * 2000-04-14 2006-03-07 Picsel Technologies Limited Systems and methods for generating visual representations of graphical data and digital document processing
KR101016981B1 (ko) * 2002-11-29 2011-02-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 처리 시스템, 사용자로 하여금 데이터 처리 시스템과 대화하도록 하는 방법, 및 컴퓨터 프로그램 제품을 저장한 컴퓨터 판독가능 매체

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7969421B2 (en) 2003-10-29 2011-06-28 Samsung Electronics Co., Ltd Apparatus and method for inputting character using touch screen in portable terminal
US9891819B2 (en) 2003-10-29 2018-02-13 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9098120B2 (en) 2003-10-29 2015-08-04 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9342156B2 (en) 2003-10-29 2016-05-17 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9710162B2 (en) 2003-10-29 2017-07-18 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
EP1868073B1 (de) * 2006-06-13 2016-05-04 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Vergrössern eines Bildes und zum Kontrollieren des vergrösserten Bildes in einem Mobilkommunikationsgerät
EP1868073A1 (de) 2006-06-13 2007-12-19 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Vergrössern eines Bildes und zum Kontrollieren des vergrösserten Bildes in einem Mobilkommunikationsgerät
EP3035176A1 (de) * 2006-06-13 2016-06-22 Samsung Electronics Co., Ltd Vorrichtung und verfahren zum vergrössern eines bildes und zur steuerung des vergrösserten bildes in einem mobilen mobil kommunikationsendgerät
US7903094B2 (en) 2006-06-23 2011-03-08 Wacom Co., Ltd Information processing apparatus, operation input method, and sensing device
EP1912114A3 (de) * 2006-10-09 2012-12-12 Robert Bosch Gmbh Bedieneinheit und Verfahren zur Darstellung eines Tastenfeldes
US9176659B2 (en) 2007-05-14 2015-11-03 Samsung Electronics Co., Ltd. Method and apparatus for inputting characters in a mobile communication terminal
EP1998245A3 (de) * 2007-05-14 2009-01-14 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Eingabe von Zeichen in ein mobiles Kommunikationsendgerät
EP2020632A1 (de) * 2007-07-30 2009-02-04 Siemens Aktiengesellschaft Eingabevorrichtung mit Anzeigemittel
EP2028585A1 (de) * 2007-08-21 2009-02-25 Wacom Co., Ltd. Informationsverarbeitungsvorrichtung, Operationseingabeverfahren und Computerprogramm
EP2085865A1 (de) 2008-01-30 2009-08-05 Research In Motion Limited Elektronische Vorrichtung und Steuerverfahren dafür
EP2105826A2 (de) * 2008-03-25 2009-09-30 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Anzeige von Informationen damit
WO2009125258A1 (en) * 2008-04-08 2009-10-15 Sony Ericsson Mobile Communications Ab Communication terminals with superimposed user interface
DE102008023405A1 (de) 2008-05-13 2009-11-19 Volkswagen Ag Kraftfahrzeug mit einem Bedienfeld
DE102008023405B4 (de) * 2008-05-13 2020-10-01 Volkswagen Ag Kraftfahrzeug mit einem Display sowie Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Display
US8619034B2 (en) 2008-06-10 2013-12-31 Sony Europe (Belgium) Nv Sensor-based display of virtual keyboard image and associated methodology
EP2133778A3 (de) * 2008-06-10 2010-01-27 Sony Service Centre (Europe) N.V. Berührungsbildschirm mit einer virtuellen Tastatur und mindestens einem Näherungssensor
EP2144147A3 (de) * 2008-07-01 2013-07-03 Honeywell International Inc. Systeme und Verfahren zur berührungslosen Interaktion
EP2144147A2 (de) 2008-07-01 2010-01-13 Honeywell International Inc. Systeme und Verfahren zur berührungslosen Interaktion
EP2350789A4 (de) * 2008-10-27 2014-04-16 Verizon Patent & Licensing Inc Proximitätsschnittstellenvorrichtungen, systeme und verfahren
EP2350789A1 (de) * 2008-10-27 2011-08-03 Verizon Patent and Licensing Inc. Proximitätsschnittstellenvorrichtungen, systeme und verfahren
US8954896B2 (en) 2008-10-27 2015-02-10 Verizon Data Services Llc Proximity interface apparatuses, systems, and methods
WO2010052036A1 (en) * 2008-11-06 2010-05-14 Sony Ericsson Mobile Communications Ab Communication device with multilevel virtual keyboard
WO2010069271A1 (zh) * 2008-12-19 2010-06-24 华为终端有限公司 触摸屏输入方法、装置和通信终端
EP2202626A3 (de) * 2008-12-26 2011-01-05 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
US8271900B2 (en) 2008-12-26 2012-09-18 Brother Kogyo Kabushiki Kaisha Inputting apparatus
EP2202626A2 (de) 2008-12-26 2010-06-30 Brother Kogyo Kabushiki Kaisha Eingabevorrichtung
WO2010083820A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur ausführung einer eingabe mittels einer auf einem bildschirm dargestellten, virtuellen tastatur
WO2010083821A1 (de) * 2009-01-26 2010-07-29 Alexander Gruber Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
EP2457147B1 (de) * 2009-07-21 2018-08-22 Cisco Technology, Inc. Berührungsbildschirm mit gradueller nähe
WO2011054549A1 (en) * 2009-11-04 2011-05-12 Tomtom International B.V. Electronic device having a proximity based touch screen
US9223499B2 (en) 2011-06-29 2015-12-29 Sony Mobile Communications Ab Communication device having a user interaction arrangement
EP2541383A1 (de) * 2011-06-29 2013-01-02 Sony Ericsson Mobile Communications AB Kommunikationsvorrichtung und -verfahren
EP2565754A1 (de) * 2011-09-05 2013-03-06 Alcatel Lucent Verfahren zur Vergrößerung von mindestens einem Teil einer Berührungsbildschirmanzeige eines Endgeräts
DE102012109959B4 (de) * 2012-02-17 2018-11-22 Lenovo (Singapore) Pte. Ltd. Automatische Vergrößerungs- und Auswahlbestätigung
US9778829B2 (en) 2012-02-17 2017-10-03 Lenovo (Singapore) Pte. Ltd. Magnification based on eye input
CN104285202A (zh) * 2012-03-14 2015-01-14 诺基亚公司 触屏悬停输入处理
CN104285202B (zh) * 2012-03-14 2018-02-02 诺基亚技术有限公司 触屏悬停输入处理方法和装置
US9715864B2 (en) 2013-03-14 2017-07-25 Futurewei Technologies, Inc. Lens touch graphic effect for mobile devices
WO2014152581A1 (en) * 2013-03-14 2014-09-25 Huawei Technologies Co., Ltd. Virtual magnifying lens touch graphic effect for mobile devices
US9213659B2 (en) 2013-12-03 2015-12-15 Lenovo (Singapore) Pte. Ltd. Devices and methods to receive input at a first device and present output in response on a second device different from the first device
US10163455B2 (en) 2013-12-03 2018-12-25 Lenovo (Singapore) Pte. Ltd. Detecting pause in audible input to device
US9110635B2 (en) 2013-12-03 2015-08-18 Lenova (Singapore) Pte. Ltd. Initiating personal assistant application based on eye tracking and gestures
US9709708B2 (en) 2013-12-09 2017-07-18 Lenovo (Singapore) Pte. Ltd. Adjustable display optics
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US10073671B2 (en) 2014-01-20 2018-09-11 Lenovo (Singapore) Pte. Ltd. Detecting noise or object interruption in audio video viewing and altering presentation based thereon
EP2930600A3 (de) * 2014-04-08 2015-10-28 Fujitsu Limited Elektronische vorrichtung und informationsanzeigeprogramm
US9678646B2 (en) 2014-04-08 2017-06-13 Fujitsu Limited Electronic device and computer-readable recording medium storing information display program
US9811095B2 (en) 2014-08-06 2017-11-07 Lenovo (Singapore) Pte. Ltd. Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses
US10013540B2 (en) 2015-03-10 2018-07-03 Lenovo (Singapore) Pte. Ltd. Authentication based on body movement
US10860094B2 (en) 2015-03-10 2020-12-08 Lenovo (Singapore) Pte. Ltd. Execution of function based on location of display at which a user is looking and manipulation of an input device
US10499164B2 (en) 2015-03-18 2019-12-03 Lenovo (Singapore) Pte. Ltd. Presentation of audio based on source
US10621431B2 (en) 2015-03-27 2020-04-14 Lenovo (Singapore) Pte. Ltd. Camera that uses light from plural light sources disposed on a device
US10955988B1 (en) 2020-02-14 2021-03-23 Lenovo (Singapore) Pte. Ltd. Execution of function based on user looking at one area of display while touching another area of display

Also Published As

Publication number Publication date
DE10310794B4 (de) 2012-10-18

Similar Documents

Publication Publication Date Title
DE10310794B4 (de) Bedieneinrichtung und Kommunikationsgerät
DE102013211011B4 (de) Entsperrungsverfahren und Mobilgerät, das dasselbe verwendet
DE112013004437B4 (de) Verfahren zum Definieren einer Eingebetaste auf einer Tastatur und Verfahren zur Interpretation von Tastenanschlägen
EP2869174A1 (de) Verfahren und vorrichtung für texteingabe und anzeige eines intelligenten endgeräts
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE102006044395A1 (de) Eingabegerät und Eingabeverfahren
WO2015039694A1 (de) Gerät, system mit solchen geräten, verfahren zum realisieren des systems und computerprogrammprodukt zum realisieren des verfahrens
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
EP1725928A2 (de) Verfahren zur darstellung von grafikobjekten und kommunikationsger t
DE102012224365A1 (de) Schnelle Cursor-Lokalisierung
EP1634247A2 (de) Verfahren zur darstellung von grafikobjekten und kommunikationsgerät
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
EP1725987A1 (de) Verfahren zur darstellung eines grafikobjekts und kommunikationsgerät
DE202015100273U1 (de) Eingabevorrichtung
US20130321307A1 (en) Handwriting input device
EP2669783A1 (de) Virtuelles Lineal für Stifteingabe
CN109426429B (zh) 解锁装置、解锁方法和电子设备
CN104808910A (zh) 一种锁屏界面的控制方法
DE10153614A1 (de) Elektronisches Gerät
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
DE10306321A1 (de) Eingabeeinrichtung und Kommunikationsgerät
EP1627292A2 (de) Verfahren zur darstellung eines grafikobjekts und kommunikationsger t

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: PALM, INC. (N.D.GES. D. STAATES DELAWARE), SUN, US

8128 New person/name/address of the agent

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, 80538 MUENCHEN

8127 New person/name/address of the applicant

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, US

R081 Change of applicant/patentee

Owner name: QUALCOMM INCORPORATED, US

Free format text: FORMER OWNER: PALM, INC. (N.D.GES. D. STAATES DELAWARE), SUNNYVALE, US

Effective date: 20110406

Owner name: QUALCOMM INCORPORATED, SAN DIEGO, US

Free format text: FORMER OWNER: PALM, INC. (N.D.GES. D. STAATES DELAWARE), SUNNYVALE, CALIF., US

Effective date: 20110406

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130119

R082 Change of representative

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE

R081 Change of applicant/patentee

Owner name: QUALCOMM INCORPORATED, US

Free format text: FORMER OWNER: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, US

Effective date: 20140307

Owner name: QUALCOMM INCORPORATED, SAN DIEGO, US

Free format text: FORMER OWNER: HEWLETT-PACKARD DEVELOPMENT COMPANY, L.P., HOUSTON, TEX., US

Effective date: 20140307

R082 Change of representative

Representative=s name: SAMSON & PARTNER, PATENTANWAELTE, DE

Effective date: 20140307

Representative=s name: MAUCHER JENKINS, DE

Effective date: 20140307

Representative=s name: SAMSON & PARTNER PATENTANWAELTE MBB, DE

Effective date: 20140307

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

Effective date: 20140307

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee