DE102014203462A1 - Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms - Google Patents

Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms Download PDF

Info

Publication number
DE102014203462A1
DE102014203462A1 DE102014203462.0A DE102014203462A DE102014203462A1 DE 102014203462 A1 DE102014203462 A1 DE 102014203462A1 DE 102014203462 A DE102014203462 A DE 102014203462A DE 102014203462 A1 DE102014203462 A1 DE 102014203462A1
Authority
DE
Germany
Prior art keywords
determined
screen
touch
area
sensitive screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014203462.0A
Other languages
English (en)
Inventor
Andrea Stupiggia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014203462.0A priority Critical patent/DE102014203462A1/de
Publication of DE102014203462A1 publication Critical patent/DE102014203462A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Bei einem Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms wird ermittelt, ob sich ein Bedienelement in einem vorgegebenen Erfassungsbereich befindet, wobei sich der vorgegebene Erfassungsbereich von einer Oberfläche des berührungsempfindlichen Bildschirms weg erstreckt. Falls ermittelt wurde, dass sich ein Bedienelement in dem vorgegebenen Erfassungsbereich befindet, wird eine relative Position (POS) des Bedienelements in Bezug zu dem berührungsempfindlichen Bildschirm ermittelt. Abhängig von der ermittelten relativen Position (POS) wird ein initialer Bildschirmbereich (VB) eines auf dem berührungsempfindlichen Bildschirm visualisierten Bildes ermittelt. Der ermittelte initiale Bildschirmbereich (VB) wird für eine Benutzereingabe vergrößert, signalisiert als vergrößerter Bildschirmbereich (BB) und einer Zuordnung von mindestens einer Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich (VB), die einem vorgegebenen Eingabebefehl zugeordnet ist, wird für den vergrößerten Bildschirmbereich (BB) angepasst.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms. Des Weiteren betrifft die Erfindung eine Vorrichtung zum Betreiben des berührungsempfindlichen Bildschirms. Des Weiteren betrifft die Erfindung ein System, ein Computerprogramm und ein Computerprogrammprodukt zum Betreiben des berührungsempfindlichen Bildschirms.
  • Viele Geräte mit einem berührungsempfindlichen Bildschirm, wie zum Beispiel Smartphones und/oder Navigationsgeräte sind relativ klein, sodass sie gegebenenfalls schwer mittels des berührungsempfindlichen Bildschirms zu bedienen sind.
  • US 2010125816 A offenbart ein Verfahren um eine Detektion einer Relativbewegung eines Benutzers zu einer Computervorrichtung zur Steuerung der Computervorrichtung zu nutzen.
  • US 2001/0020202 A1 offenbart ein Multimedia-Informations- und Kontrollsystem zur Benutzung in einem Fahrzeug, bei dem zumindest eine Schnittstelle eingerichtet ist, um einem Benutzer zu ermöglichen eine Information, die das Fahrzeug betrifft, effektiv abzurufen.
  • Die Aufgabe, die der Erfindung zugrunde liegt, ist es ein Verfahren und eine Vorrichtung zu schaffen, das beziehungsweise die dazu beiträgt, dass ein Gerät mit einem berührungsempfindlichen Bildschirm einfach bedient werden kann.
  • Die Aufgabe wird gelöst durch die Merkmale der unabhängigen Patentansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
  • Die Erfindung zeichnet sich aus durch ein Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms. Die Erfindung zeichnet sich des Weiteren aus durch eine zu dem Verfahren zum Betreiben des berührungsempfindlichen Bildschirms korrespondierende Vorrichtung zum Betreiben des berührungsempfindlichen Bildschirms. Die Erfindung zeichnet sich des Weiteren aus durch ein System zum Betreiben des berührungsempfindlichen Bildschirms, das die korrespondierende Vorrichtung zum Betreiben des berührungsempfindlichen Bildschirms umfasst.
  • Es wird ermittelt, ob sich ein, insbesondere vorgegebenes, Bedienelement in einem vorgegebenen Erfassungsbereich befindet. Der Erfassungsbereich erstreckt sich von einer Oberfläche des berührungsempfindlichen Bildschirms weg. Falls ermittelt wurde, dass sich ein Bedienelement in dem vorgegebenen Erfassungsbereich befindet, wird eine relative Position des Bedienelements in Bezug zu dem berührungsempfindlichen Bildschirm ermittelt. Abhängig von der ermittelten relativen Position wird ein initialer Bildschirmbereich eines auf dem berührungsempfindlichen Bildschirm visualisierten Bildes ermittelt. Der ermittelte initiale Bildschirmbereich wird für eine Benutzereingabe vergrößert signalisiert als vergrößerter Bildschirmbereich. Eine Zuordnung von mindestens einer Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich, die einem vorgegebenen Eingabebefehl zugeordnet ist, wird für den vergrößerten Bildschirmbereich angepasst.
  • Das vergrößerte Signalisieren bedeutet in diesem Zusammenhang, dass ein Bildschirminhalt, der in dem initialen Bildschirmbereich dargestellt ist, in dem vergrößerten Bildschirmbereich vergrößert dargestellt wird.
  • Das Anpassen der Zuordnung der mindestens einen Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich erfolgt insbesondere korrespondierend zu der Vergrößerung des initialen Bildschirmbereichs und/oder korrespondierend zu einem Vergrößerungsfaktor des initialen Bildschirmbereichs. Die mindestens eine Benutzereingabefläche wird somit insbesondere entsprechend einer vergrößert signalisierten Taste und/oder einer anderen signalisierten Eingabefläche angepasst.
  • Das Bedienelement ist eines zum Bedienen des berührungsempfindlichen Bildschirms, dabei sind mögliche Bedienelemente beispielsweise diejenigen, die aufgrund der Technik einer Sensoreinheit von dieser als solche erkannt werden können, wobei die Sensoreinheit dazu ausgebildet ist zu Ermitteln, ob sich das Bedienelement in dem vorgegebenen Erfassungsbereich befindet. Das Bedienelement wird beispielsweise aus einer Menge der möglichen Bedienelemente vorgegeben. Die möglichen Bedienelemente umfassen beispielsweise einen Finger oder einen Stift zum Bedienen des berührungsempfindlichen Bildschirms.
  • Der initiale Bildschirmbereich umfasst insbesondere eine vorgegebene Geometrie und/oder eine vorgegebene Ausdehnung bezüglich Bezugskoordinaten, wie beispielsweise rechteckförmig und/oder rund und/oder oval. Der initiale Bildschirmbereich umfasst insbesondere alternativ oder zusätzlich einen vorgegebenen Bruchteil einer Gesamtbildschirmfläche des berührungsempfindlichen Bildschirms und/oder einen vorgegebenen Vergrößerungsfaktor. Hierdurch werden beispielsweise virtuelle Tasten oder andere Eingabeflächen, die ein Benutzer beispielsweise wahrscheinlich auswählen wird, größer dargestellt und auch entsprechend der vergrößerten Darstellung jeweiligen Eingabebefehlen zugeordnet. Dies geschieht somit schon insbesondere vor einem Berühren des berührungsempfindlichen Bildschirms. Hierdurch wird eine einfachere Bedienung eines Navigationsgeräts und/oder eines Smartphones und/oder eine anderen Vorrichtung mit einem berührungsempfindlichen Bildschirm ermöglicht, insbesondere bei relativ kleinen Geräten und/oder in einer unruhigen Umgebung, wie zum Beispiel in einem Fahrzeug.
  • Das Ermitteln, ob das Bedienelement in dem vorgegebenen Erfassungsbereich ist und/oder das Ermitteln der relativen Position des Bedienelements, erfolgt insbesondere abhängig von einem Messsignal einer Sensoreinheit, die beispielsweise mindestens einen Sensor zur Positionserkennung und/oder Bewegungserkennung aufweist, wie zum Beispiel eine Kamera, einen Infrarotsensor und/oder einen Lasersensor. Die Sensoreinheit ist beispielsweise an der gleichen Seite des jeweiligen Geräts angeordnet wie der berührungsempfindliche Bildschirm.
  • Das Ermitteln, ob das Bedienelement in dem vorgegebenen Erfassungsbereich ist und/oder das Ermitteln der relativen Position des Bedienelements, erfolgt insbesondere mittels Bildverarbeitung.
  • Der vorgegebene Erfassungsbereich erstreckt sich beispielsweise von einem vorgegebenen Mindestabstand bis zu einem vorgegebenen maximalen Abstand von der Oberfläche des berührungsempfindlichen Bildschirms weg.
  • Gemäß einer vorteilhaften Ausgestaltung wird ein erster Punkt ermittelt, der eine Projektion der ermittelten relativen Position des Bedienelements ist auf eine Bildschirmebene, in der der berührungsempfindliche Bildschirm liegt. Die Projektion ist eine Projektion in Normalenrichtung der Bildschirmebene. Abhängig von dem ersten Punkt wird der initiale Bildschirmbereich derart ermittelt, dass er sich um den ersten Punkt erstreckt.
  • Hierdurch wird insbesondere ein Bereich vergrößert über dem das Bedienelement positioniert ist. Da es sehr wahrscheinlich ist, dass der Benutzer eine Benutzereingabefläche in diesem Bereich berühren will, wird somit die Bedienung des berührungsempfindlichen Bildschirms sehr zuverlässig vereinfacht.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung wird ermittelt, ob sich das Bedienelement bewegt. Falls ermittelt wurde, dass sich das Bedienelement bewegt, wird eine Bewegungsrichtung des Bedienelements ermittelt und abhängig von der ermittelten Bewegungsrichtung wird der initiale Bildschirmbereich ermittelt.
  • Hierdurch kann eine Bewegungsintension des Benutzers berücksichtigt werden. Da es sehr wahrscheinlich ist, dass der Benutzer eine Benutzereingabefläche in der Bewegungsrichtung berühren will, wird somit die Bedienung des berührungsempfindlichen Bildschirms sehr zuverlässig vereinfacht.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung wird, falls ermittelt wurde, dass sich das Bedienelement bewegt, ein erster Punkt ermittelt, der eine Projektion der ermittelten relativen Position des Bedienelements ist auf eine Bildschirmebene, in der der berührungsempfindliche Bildschirm liegt. Die Projektion ist eine Projektion in Normalenrichtung der Bildschirmebene. Abhängig von dem ermittelten ersten Punkt und der ermittelten Bewegungsrichtung wird ein zweiter Punkt ermittelt, der in der Bildschirmebene liegt und der in Richtung der Bewegungsrichtung versetzt ist von dem ersten Punkt. Abhängig von dem zweiten Punkt wird der vorgegebene initiale Bildschirmbereich derart ermittelt, dass er sich um den zweiten Punkt erstreckt.
  • Hierdurch kann auf besonders einfache Art die Bewegungsintension des Benutzers berücksichtigt werden.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung umfasst der vorgegebene initiale Bereich zumindest einen Teil einer Bildschirmtastatur.
  • Gerade Bildschirmtastaturen weisen viele Benutzereingabeflächen auf, also insbesondere mehrere virtuelle Tasten, die gegebenenfalls relativ klein sind und somit schwer für den Benutzer zu treffen sind. Indem gerade für Bildschirmtastaturen ein Bereich mit einer oder mehreren Benutzereingabeflächen vergrößert dargestellt wird, ist es gegebenenfalls leichter für einen Benutzer die Bildschirmtastatur zu bedienen.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung wird eine Menge an Kandidatenbildschirmbereichen vorgegeben. Der initiale Bildschirmbereich wird durch Auswahl eines Kandidatenbildschirmbereiches der Kandidatenmenge ermittelt. Hierdurch kann der initiale Bildschirmbereich besonders einfach ermittelt werden, da beispielsweise gegebenenfalls nur überprüft werden muss, in welchem Kandidatenbildschirmbereich der erste Punkt und/oder der zweite Punkt liegt.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung wird ein Abstand von dem berührungsempfindlichen Bildschirm zu dem Bedienelement ermittelt und der ermittelte initiale Bildschirmbereich wird für eine Benutzereingabe abhängig von dem ermittelten Abstand proportional vergrößert signalisiert als vergrößerter Bildschirmbereich.
  • Das System weist zusätzlich zur Vorrichtung insbesondere den berührungsempfindlichen Bildschirm auf, sowie ein Gehäuse, das sich um den berührungsempfindlichen Bildschirm erstreckt und eine Sensoreinheit, die an dem Gehäuse auf der Seite des berührungsempfindlichen Bildschirms angeordnet ist, zum Ermitteln, ob sich ein Bedienelement in dem vorgegebenen Erfassungsbereich befindet. Die Sensoreinheit umfasst beispielsweise mindestens eine Kamera.
  • Gemäß einem weiteren Aspekt zeichnet sich die Erfindung aus durch ein Computerprogramm, wobei das Computerprogramm ausgebildet ist, das Verfahren zum Betreiben des berührungsempfindlichen Bildschirms oder eine vorteilhafte Ausgestaltung des Verfahrens zum Betreiben des berührungsempfindlichen Bildschirms auf einer Datenverarbeitungsvorrichtung durchzuführen.
  • Gemäß einem weiteren Aspekt zeichnet sich die Erfindung aus durch ein Computerprogrammprodukt, das ausführbaren Programmcode umfasst, wobei der Programmcode bei Ausführung durch eine Datenverarbeitungsvorrichtung das Verfahren zum Betreiben des berührungsempfindlichen Bildschirms oder eine vorteilhafte Ausgestaltung des Verfahrens zum Betreiben des berührungsempfindlichen Bildschirms ausführt.
  • Das Computerprogrammprodukt umfasst insbesondere ein von der Datenverarbeitungsvorrichtung lesbares Medium, auf dem der Programmcode gespeichert ist.
  • Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 ein System zum Betreiben eines berührungsempfindlichen Bildschirms,
  • 2 ein Ablaufdiagramm eines Programms zum Betreiben des berührungsempfindlichen Bildschirms,
  • 3a bis 3e eine beispielhafte Visualisierung bei einer Bildschirmtastatur und
  • 4a und 4b eine beispielhafte Visualisierung bei einer Liedtitelliste.
  • Elemente gleicher Konstruktion oder Funktion sind figurenübergreifend mit den gleichen Bezugszeichen gekennzeichnet.
  • 1 zeigt ein System 1 zum Betreiben eines berührungsempfindlichen Bildschirms 7. Das System 1 ist beispielsweise in einem Smartphone und/oder in einem Navigationsgerät ausgebildet.
  • Das System 1 weist einen berührungsempfindlichen Bildschirm 7 auf, der auch als Touchscreen bezeichnet wird. Des Weiteren weist das System 1 ein Gehäuse 60 auf, das sich um den berührungsempfindlichen Bildschirm 7 erstreckt. Das System 1 weist des Weiteren eine Sensoreinheit 50 auf, die an dem Gehäuse 60 auf der Seite des berührungsempfindlichen Bildschirms 7 angeordnet ist, zum Ermitteln, ob sich ein vorgegebenes Bedienelement 13 in einem vorgegebenen Erfassungsbereich 9 befindet, der sich von einer Oberfläche des berührungsempfindlichen Bildschirms 7 weg erstreckt.
  • Das vorgegebene Bedienelement 13 ist ein Bedienelement zum Bedienen des berührungsempfindlichen Bildschirms 7, das beispielsweise aus einer Menge von möglichen Bedienelementen vorgegeben wird, wie beispielsweise ein Finger oder ein Stift zum Bedienen des berührungsempfindlichen Bildschirms 7.
  • Die Sensoreinheit 50 umfasst hierzu insbesondere mindestens einen Sensor für eine Position und/oder Bewegungsdetektion, wie zum Beispiel eine Kamera und/oder einen Infrarot- und/oder Lasersensor.
  • Das System 1 umfasst weiterhin eine Steuervorrichtung 5.
  • Die Steuervorrichtung 5 umfasst insbesondere einen Daten- und Programmspeicher, eine Recheneinheit und beispielsweise eine Kommunikationsschnittstelle zur Kommunikation mit der Sensoreinheit 50 und/oder eine weitere Kommunikationsschnittstelle zur Kommunikation mit dem berührungsempfindlichen Bildschirm 7. Der Daten- und Programmspeicher, die Recheneinheit und/oder die eine und/oder die weitere Kommunikationsschnittstelle können in einer Baueinheit ausgebildet sein, oder alternativ in zwei oder mehreren Baueinheiten.
  • Die Steuervorrichtung 5 kann auch als Vorrichtung zum Betreiben eines berührungsempfindlichen Bildschirms 7 bezeichnet werden.
  • Zum Betreiben des berührungsempfindlichen Bildschirms 7 ist auf dem Daten- und Programmspeicher der Steuervorrichtung 5 insbesondere ein Programm abgespeichert, das mittels der Recheneinheit der Steuervorrichtung 5 abgearbeitet werden kann.
  • Das Programm wird im Folgenden anhand des Ablaufdiagramms der 2 näher erläutert.
  • Das Programm wird in einem Schritt S1 gestartet, in dem gegebenenfalls Variablen initialisiert werden können.
  • In einem Schritt S3 wird ermittelt, ob sich ein vorgegebenes Bedienelement 13 in dem vorgegebenen Erfassungsbereich 9 befindet. Hierzu wird insbesondere ein Messsignal der Sensoreinheit 50, insbesondere mittels Bildverarbeitung, ausgewertet.
  • Falls ermittelt wurde, dass sich ein vorgegebenes Bedienelement 13 in dem vorgegebenen Erfassungsbereich 9 befindet, wird in einem Schritt S5 eine relative Position POS des vorgegebenen Bedienelements 13 in Bezug zu dem berührungsempfindlichen Bildschirm 7 ermittelt. Die relative Position POS wird hierbei insbesondere abhängig von dem Messsignal der Sensoreinheit 50, insbesondere mittels Bildverarbeitung, ermittelt.
  • In einem optionalen Schritt S7 wird ermittelt, ob sich das vorgegebene Bedienelement 13 bewegt. Falls ermittelt wurde, dass sich das vorgegebene Bedienelement 13 nicht bewegt, wird das Programm in einem Schritt S8 fortgesetzt. Falls ermittelt wurde, dass sich das vorgegebene Bedienelement 13 bewegt, wird das Programm in einem Schritt S9 fortgesetzt. Das Ermitteln, ob sich das vorgegebene Bedienelement 13 bewegt, erfolgt insbesondere abhängig von dem Messsignal der Sensoreinheit 50, insbesondere mittels Bildverarbeitung und gegebenenfalls abhängig von einer vorgegebenen Mindestbewegung.
  • In dem Schritt S8 wird abhängig von der ermittelten relativen Position POS ein initialer Bildschirmbereich VB eines auf dem berührungsempfindlichen Bildschirm 7 visualisierten Bildes ermittelt. Anschließend wird das Programm in einem Schritt S11 fortgesetzt.
  • Zum Ermitteln des initialen Bildschirmbereichs VB wird beispielsweise ein erster Punkt ermittelt, der eine Projektion der ermittelten relativen Position POS des vorgegebenen Bedienelements 13 ist auf eine Bildschirmebene, in der der berührungsempfindliche Bildschirm 7 liegt. Die Projektion ist eine Projektion in Normalenrichtung der Bildschirmebene. Anschließend wird abhängig von dem ersten Punkt der initiale Bildschirmbereich VB beispielsweise derart ermittelt, dass er sich um den ersten Punkt erstreckt.
  • Alternativ oder zusätzlich wird beispielsweise eine Kandidatenmenge an Kandidatenbildschirmbereichen vorgegeben und der initiale Bildschirmbereich VB wird durch Auswahl eines Kandidatenbildschirmbereiches der Kandidatenmenge ermittelt. So wird beispielsweise der Kandidatenbildschirmbereich ausgewählt in dem der erste Punkt liegt.
  • In dem Schritt S9 wird eine Bewegungsrichtung BR des vorgegebenen Bedienelements 13 ermittelt. Das Ermitteln der Bewegungsrichtung BR erfolgt insbesondere abhängig von dem Messsignal der Sensoreinheit 50, insbesondere mittels Bildverarbeitung. Anschließend wird das Programm in dem Schritt S10 fortgesetzt.
  • In dem Schritt S10 wird abhängig von der ermittelten Bewegungsrichtung BR und/oder abhängig von der ermittelten relativen Position POS des vorgegebenen Bedienelements 13 der initiale Bildschirmbereich VB ermittelt. Anschließend wird das Programm in dem Schritt S11 fortgesetzt.
  • Zur Ermittlung des initialen Bildschirmbereichs VB wird beispielsweise der erste Punkt ermittelt und anschließend abhängig von dem ermittelten ersten Punkt und der ermittelten Bewegungsrichtung BR ein zweiter Punkt ermittelt, der in der Bildschirmebene liegt und der in Richtung der Bewegungsrichtung BR versetzt ist von dem ersten Punkt. Anschließend wird abhängig von dem zweiten Punkt der vorgegebene initiale Bildschirmbereich VB beispielsweise derart ermittelt, dass er sich um den zweiten Punkt erstreckt.
  • So wird beispielsweise, falls die Kandidatenmenge vorgegeben wird, der Kandidatenbildschirmbereich ausgewählt in dem der zweite Punkt liegt, beispielsweise ist dies der Kandidatenbildschirmbereich, der in Richtung der Bewegungsrichtung BR benachbart ist mit dem Kandidatenbildschirmbereich, in dem der erste Punkt liegt.
  • In dem Schritt S11 wird der ermittelte initiale Bildschirmbereich VB für eine Benutzereingabe vergrößert signalisiert als vergrößerter Bildschirmbereich BB. Anschließend wird das Programm in einem Schritt S13 fortgesetzt.
  • In dem Schritt S13 wird ein Zuordnung von mindestens einer Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich VB, die einem vorgegebenen Eingabebefehl zugeordnet ist, für den vergrößerten Bildschirmbereich BB angepasst. Das Anpassen der Zuordnung der mindestens einen Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich VB erfolgt insbesondere korrespondierend zu der Vergrößerung des initialen Bildschirmbereichs VB und/oder korrespondierend zu einem Vergrößerungsfaktor des initialen Bildschirmbereichs VB.
  • Anschließend wird das Programm wieder in dem Schritt S3 fortgesetzt und/oder in einem Schritt S15 beendet.
  • Die 3a bis 3e zeigen eine beispielhafte Visualisierung des Programms zum Betreiben des berührungsempfindlichen Bildschirms 7 bei einer Bildschirmtastatur 10.
  • In dem Beispiel wird auf dem berührungsempfindlichen Bildschirm 7 eine Bildschirmtastatur 10 dargestellt.
  • In der 3a wird in dem Schritt S3 kein vorgegebenes Bedienelement 13 detektiert und somit auch kein initialer Bildschirmbereich VB der Bildschirmtastatur 10 vergrößert signalisiert.
  • In der 3b wird ein vorgegebenes Bedienelement 13 detektiert, allerdings wird in dem Schritt S7 keine Bewegung des vorgegebenen Bedienelements 13 detektiert, so dass beispielsweise ein erster Tastaturbereich 20 vergrößert signalisiert wird, der den initialen Bildschirmbereich VB repräsentiert, beispielsweise da dies der Kandidatenbildschirmbereich ist, in dem der erste Punkt liegt.
  • In der 3c wurde eine Bewegungsrichtung BR des vorgegebenen Bedienelements 13 nach links, von einem Benutzer aus gesehen, detektiert. Somit wird ein zweiter Tastaturbereich 30 vergrößert signalisiert, der den initialen Bildschirmbereich VB repräsentiert und der, von dem Benutzer aus gesehen, links von dem ersten Tasturbereich 20 angeordnet ist, beispielsweise da dies der Kandidatenbildschirmbereich ist, in dem der zweite Punkt liegt, beispielsweise weil dies der Kandidatenbildschirmbereich ist, der in Richtung der Bewegungsrichtung BR benachbart ist mit dem Kandidatenbildschirmbereich, in dem der erste Punkt liegt.
  • In der 3d wird anschließend keine Bewegung des vorgegebenen Bedienelements 13 detektiert, sodass weiterhin der zweite Tastaturbereich 30 vergrößert signalisiert wird, beispielsweise da dies der Kandidatenbildschirmbereich ist, in dem beispielsweise der erste Punkt liegt.
  • In der 3e befindet sich das detektierte vorgegebene Bedienelement 13 in der gleichen relativen Position POS wie in 3b und es wird eine Bewegung nach rechts des vorgegebenen Bedienelements 13 detektiert, von dem Benutzer aus gesehen. Somit wird beispielsweise ein dritter Tastaturbereich 40, der den initialen Bildschirmbereich VB repräsentiert und der rechts, von dem Benutzer aus gesehen, von dem ersten Tasturbereich 20 angeordnet ist, vergrößert signalisiert, beispielsweise da dies der Kandidatenbildschirmbereich ist, in dem der zweite Punkt liegt, beispielsweise weil dies der Kandidatenbildschirmbereich ist, der in Richtung der Bewegungsrichtung BR benachbart ist mit dem Kandidatenbildschirmbereich, in dem der erste Punkt liegt.
  • 4a und 4b zeigen eine beispielhafte Visualisierung des Programms zum Betreiben des berührungsempfindlichen Bildschirms 7 bei einer Liedtitelliste 70.
  • In den 4a und 4b wird auf dem berührungsempfindlichen Bildschirm 7 eine Liedtitelliste 70 mit auswählbaren Musiktiteln angezeigt.
  • In der 4a wird in dem Schritt S3 kein vorgegebenes Bedienelement 13 detektiert und somit auch kein Bereich der Liedtitelliste 70 vergrößert signalisiert.
  • In der 4b wird ein vorgegebenes Bedienelement 13 detektiert, allerdings wird in dem Schritt S7 keine Bewegung des vorgegebenen Bedienelements 13 detektiert, so dass beispielsweise ein erster Liedtitelbereich 80 vergrößert signalisiert wird, der den initialen Bildschirmbereich VB repräsentiert, beispielsweise da dies der Kandidatenbildschirmbereich ist, in dem der erste Punkt liegt.
  • Durch das gezeigte Vorgehen werden somit bei Detektion des vorgegebenen Bedienelements 13 jeweils ein initialer Bildbereich VB des berührungsempfindlichen Bildschirms 7 vergrößert dargestellt, so dass der berührungsempfindlichen Bildschirms 7 einfacher für einen Benutzer bedient werden kann. Somit wird durch das gezeigte Vorgehen auf einfache Weise dazu beigetragen, dass ein Gerät mit dem berührungsempfindlichen Bildschirm 7 einfach bedient werden kann.
  • Bezugszeichenliste
  • 1
    System
    5
    Steuervorrichtung
    7
    berührungsempfindlicher Bildschirm
    9
    Erfassungsbereich
    10
    Bildschirmtastatur
    13
    Bedienelement
    20
    erster Tastaturbereich
    30
    zweiter Tastaturbereich
    40
    dritter Tastaturbereich
    50
    Sensoreinheit
    60
    Gehäuse
    70
    Liedtitelliste
    80
    Liedtitelbereich
    POS
    relative Position
    BR
    Bewegungsrichtung
    VB
    initialer Bildschirmbereich
    BB
    vergrößerter Bildschirmbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2010125816 A [0003]
    • US 2001/0020202 A1 [0004]

Claims (12)

  1. Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms (7), bei dem – ermittelt wird, ob sich ein Bedienelement (13) in einem vorgegebenen Erfassungsbereich (9) befindet, wobei sich der vorgegebene Erfassungsbereich (9) von einer Oberfläche des berührungsempfindlichen Bildschirms (7) weg erstreckt, – falls ermittelt wurde, dass sich ein Bedienelement (13) in dem vorgegebenen Erfassungsbereich (9) befindet, eine relative Position (POS) des Bedienelements (13) in Bezug zu dem berührungsempfindlichen Bildschirm (7) ermittelt wird, – abhängig von der ermittelten relativen Position (POS) ein initialer Bildschirmbereich (VB) eines auf dem berührungsempfindlichen Bildschirm (7) visualisierten Bildes ermittelt wird, – der ermittelte initiale Bildschirmbereich (VB) für eine Benutzereingabe vergrößert signalisiert wird als vergrößerter Bildschirmbereich (BB) und – eine Zuordnung von mindestens einer Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich (VB), die einem vorgegebenen Eingabebefehl zugeordnet ist, für den vergrößerten Bildschirmbereich (BB) angepasst wird.
  2. Verfahren nach Anspruch 1, bei dem – ein erster Punkt ermittelt wird, der eine Projektion der ermittelten relativen Position (POS) des Bedienelements (13) ist auf eine Bildschirmebene, in der der berührungsempfindliche Bildschirm (7) liegt, wobei die Projektion eine Projektion in Normalenrichtung der Bildschirmebene ist und – abhängig von dem ersten Punkt der initiale Bildschirmbereich (VB) derart ermittelt wird, dass er sich um den ersten Punkt erstreckt.
  3. Verfahren nach Anspruch 1 oder 2, bei dem – ermittelt wird, ob sich das Bedienelement (13) bewegt, – falls ermittelt wurde, dass sich das Bedienelement (13) bewegt, eine Bewegungsrichtung (BR) des Bedienelements (13) ermittelt wird und – abhängig von der ermittelten Bewegungsrichtung (BR) der initiale Bildschirmbereich (VB) ermittelt wird.
  4. Verfahren nach Anspruch 3, bei dem, falls ermittelt wurde, dass sich das Bedienelement (13) bewegt, – ein erster Punkt ermittelt wird, der eine Projektion der ermittelten relativen Position (POS) des Bedienelements (13) ist auf eine Bildschirmebene, in der der berührungsempfindliche Bildschirm (7) liegt, wobei die Projektion eine Projektion in Normalenrichtung der Bildschirmebene ist, – abhängig von dem ermittelten ersten Punkt und der ermittelten Bewegungsrichtung (BR) ein zweiter Punkt ermittelt wird, der in der Bildschirmebene liegt und der in Richtung der Bewegungsrichtung (BR) versetzt ist von dem ersten Punkt und – abhängig von dem zweiten Punkt der vorgegebene initiale Bildschirmbereich (VB) derart ermittelt wird, dass er sich um den zweiten Punkt erstreckt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem der vorgegebene initiale Bildschirmbereich (VB) zumindest einen Teil einer Bildschirmtastatur (10) umfasst.
  6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem – eine Kandidatenmenge an Kandidatenbildschirmbereichen vorgegeben wird und – der initiale Bildschirmbereich (VB) durch Auswahl eines Kandidatenbildschirmbereichs der Kandidatenmenge ermittelt wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem – ein Abstand von dem berührungsempfindlichen Bildschirm (7) zu dem Bedienelement (13) ermittelt wird und – der ermittelte initiale Bildschirmbereich (VB) für eine Benutzereingabe abhängig von dem ermittelten Abstand proportional vergrößert signalisiert wird als vergrößerter Bildschirmbereich (BB).
  8. Vorrichtung zum Betreiben eines berührungsempfindlichen Bildschirms (7), die dazu ausgebildet ist – zu ermitteln, ob sich ein Bedienelement (13) in einem vorgegebenen Erfassungsbereich (9) befindet, wobei sich der vorgegebene Erfassungsbereich (9) von einer Oberfläche des berührungsempfindlichen Bildschirms (7) weg erstreckt, – falls ermittelt wurde, dass sich ein Bedienelement (13) in dem vorgegebenen Erfassungsbereich (9) befindet, eine relative Position (POS) des Bedienelements (13) in Bezug zu dem berührungsempfindlichen Bildschirm (7) zu ermitteln, – abhängig von der ermittelten relativen Position (POS) einen initialen Bildschirmbereich (VB) eines auf dem berührungsempfindlichen Bildschirm (7) visualisierten Bildes zu ermitteln, – den ermittelten initialen Bildschirmbereich (VB) für eine Benutzereingabe vergrößert zu signalisieren als vergrößerter Bildschirmbereich (BB) und – eine Zuordnung von mindestens einer Benutzereingabefläche in dem ermittelten initialen Bildschirmbereich (VB), die einem vorgegebenen Eingabebefehl zugeordnet ist, für den vergrößerten Bildschirmbereich (BB) anzupassen.
  9. System (1) aufweisend – einen berührungsempfindlichen Bildschirm (7), – ein Gehäuse (60), das sich um den berührungsempfindlichen Bildschirm (7) erstreckt, – eine Sensoreinheit (50), die an dem Gehäuse (60) auf der Seite des berührungsempfindlichen Bildschirms (7) angeordnet ist, zum Ermitteln, ob sich ein Bedienelement (13) in einem vorgegebenen Erfassungsbereich (9) befindet, wobei sich der vorgegebene Erfassungsbereich (9) von einer Oberfläche des berührungsempfindlichen Bildschirms (7) weg erstreckt, – eine Vorrichtung nach Anspruch 8.
  10. System (1) nach Anspruch 9, wobei die Sensoreinheit (50) eine Kamera umfasst.
  11. Computerprogramm zum Betreiben eines berührungsempfindlichen Bildschirms (7), wobei das Computerprogramm ausgebildet ist ein Verfahren nach einem der Ansprüche 1 bis 7 bei seiner Ausführung auf einer Datenverarbeitungsvorrichtung durchzuführen.
  12. Computerprogrammprodukt umfassend ausführbaren Programmcode, wobei der Programmcode bei Ausführung durch eine Datenverarbeitungsvorrichtung das Verfahren nach einem der Ansprüche 1 bis 7 ausführt.
DE102014203462.0A 2014-02-26 2014-02-26 Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms Pending DE102014203462A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014203462.0A DE102014203462A1 (de) 2014-02-26 2014-02-26 Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014203462.0A DE102014203462A1 (de) 2014-02-26 2014-02-26 Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms

Publications (1)

Publication Number Publication Date
DE102014203462A1 true DE102014203462A1 (de) 2015-08-27

Family

ID=53782475

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014203462.0A Pending DE102014203462A1 (de) 2014-02-26 2014-02-26 Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms

Country Status (1)

Country Link
DE (1) DE102014203462A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169538B1 (en) * 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
US20010020202A1 (en) 1999-09-21 2001-09-06 American Calcar Inc. Multimedia information and control system for automobiles
US20100125816A1 (en) 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
US20100156807A1 (en) * 2008-12-19 2010-06-24 Verizon Data Services Llc Zooming keyboard/keypad
US20110154246A1 (en) * 2009-12-21 2011-06-23 Samsung Electronics Co., Ltd. Image forming apparatus with touchscreen and method of editing input letter thereof
US20110242137A1 (en) * 2010-03-31 2011-10-06 Samsung Electronics Co., Ltd. Touch screen apparatus and method for processing input of touch screen apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169538B1 (en) * 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
US20010020202A1 (en) 1999-09-21 2001-09-06 American Calcar Inc. Multimedia information and control system for automobiles
US20100125816A1 (en) 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
US20100156807A1 (en) * 2008-12-19 2010-06-24 Verizon Data Services Llc Zooming keyboard/keypad
US20110154246A1 (en) * 2009-12-21 2011-06-23 Samsung Electronics Co., Ltd. Image forming apparatus with touchscreen and method of editing input letter thereof
US20110242137A1 (en) * 2010-03-31 2011-10-06 Samsung Electronics Co., Ltd. Touch screen apparatus and method for processing input of touch screen apparatus

Similar Documents

Publication Publication Date Title
DE102012000201A1 (de) Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102014200993A1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
DE102014015087A1 (de) Betreiben eines Steuersystems für einen Kraftwagen sowie Steuersystem für einen Kraftwagen
DE102014019005A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs in unterschiedlichen Bedienmodi sowie Bedienvorrichtung und Kraftfahrzeug
DE102016113995A1 (de) Eingabegerät, Anzeigegerät, Verfahren zur Steuerung des Eingabegerätes und Programm
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102015201613A1 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013223058A1 (de) Verfahren und system für das auswählen von begriffen, wobei ein touchscreen benutzt wird
DE102012219736A1 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102019206606B4 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
DE102014226546A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102014224898A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102016221273A1 (de) Verfahren zum Betreiben eines portablen Eingabegeräts zum Steuern eines Kraftfahrzeugs
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
DE102014203462A1 (de) Verfahren, Vorrichtung, System, Computerprogramm und Computerprogrammprodukt zum Betreiben eines berührungsempfindlichen Bildschirms
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013000081B4 (de) Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion
DE102013019005A1 (de) Berührungsabfühlverfahren und tragbare elektronische Vorrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102015215044A1 (de) Verfahren und System zur Verarbeitung multimodaler Eingabesignale
DE102014224632A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102016011365A1 (de) Verfahren zur Steuerung eines Kraftfahrzeugmoduls und Kraftfahrzeugmodul
WO2014108166A1 (de) Verfahren zum bewegen eines auf einer anzeigevorrichtung eines fahrzeugs dargestellten bildinhalts, bedien- und anzeigevorrichtung für ein fahrzeug und computerprogrammprodukt

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed