DE102009006082A1 - Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts - Google Patents

Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts Download PDF

Info

Publication number
DE102009006082A1
DE102009006082A1 DE102009006082A DE102009006082A DE102009006082A1 DE 102009006082 A1 DE102009006082 A1 DE 102009006082A1 DE 102009006082 A DE102009006082 A DE 102009006082A DE 102009006082 A DE102009006082 A DE 102009006082A DE 102009006082 A1 DE102009006082 A1 DE 102009006082A1
Authority
DE
Germany
Prior art keywords
plane
input
input object
selection object
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009006082A
Other languages
English (en)
Inventor
Alexander Gruber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102009006082A priority Critical patent/DE102009006082A1/de
Priority to PCT/DE2010/000073 priority patent/WO2010083820A1/de
Priority to PCT/DE2010/000074 priority patent/WO2010083821A1/de
Publication of DE102009006082A1 publication Critical patent/DE102009006082A1/de
Priority to US13/159,099 priority patent/US20110242037A1/en
Priority to US13/178,206 priority patent/US20120005615A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts (13) mittels mindestens eines Eingabeobjekts (12) beschrieben, bei welchem Verfahren: - die räumliche Position (X, Y, Z) des Eingabeobjekts (12) relativ zu einer Ebene (11) überwacht wird, - die Position (X, Y) des Eingabeobjekts (12) parallel zu der Ebene (11) Koordinaten (X, Y) der Position des Auswahlobjekts (13) auf dem Bildschirm (02) vorgibt, und - sich die Darstellung des Auswahlobjekts (13) auf dem Bildschirm (02) abhängig von der Position (Z) des Eingabeobjekts (12) normal zu der Ebene (11) ändert.

Description

  • Die Erfindung betrifft ein Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts gemäß dem Oberbegriff des Anspruchs 1.
  • Die Erfindung ist ein Bildschirmobjekt mit dynamischen Formfaktor, Darstellung bzw. Funktionalität, welches durch ein dreidimensionales Eingabegerät gesteuert wird.
  • In der Bedienung von Personal Computern und anderen elektronischen Geräten, welche einen Monitor oder sonstige visuelle Geräte, wie etwa ein Fernsehgerät, einen Beamer oder dergleichen, als Ausgabemedium nutzen, haben sich cursorartige Zeige- bzw. Auswahlobjekte als Standard durchgesetzt. Ein Cursor ist ein Zeige- bzw. Auswahlobjekt, welches typischerweise auf einem Bildschirm dargestellt wird. Es kann verschiedene Formen annehmen. Die gängigste Anwendung des Cursors nutzt die Form eines Pfeils. Auch andere Darstellungen, wie z. B. ein Kreuz, eine stilisierte Hand oder andere grafische Elemente sind möglich.
  • Der Cursor ist ein Zeige- bzw. Auswahlobjekt welches zweidimensionale Bewegungen von Eingabegeräten auf einem Bildschirm darstellen kann. Typische Eingabegeräte sind Maus, Touchpad, Trackball, Trackpoint, Graphic Tablet und ähnliches. Ein Cursor ist zur Darstellung der Eingaben dieser Eingabegeräte geeignet, da alle diese Eingabegeräte nur die Möglichkeit haben, eine Position in einem zweidimensionalen Raum darzustellen.
  • In der aktuellen Entwicklung im Bereich der Eingabegeräte zeigt sich jedoch, dass in den letzten Jahren eine neue Klasse von Eingabegeräten entstanden sind, welche in der Lage sind, dreidimensionale Eingabewerte zu messen und beispielsweise an einen Personal Computer ober ein anderes, die dreidimensionalen Eingabewerte verarbeitendes elektronisches Gerät zu übertragen. Unter diese neue Klasse von so genannten dreidimensionalen Eingabegeräten fallen beispielsweise annäherungssensitive Eingabefelder, drucksensitive Touchpads/Touchscreens, kamerabasierte Systeme zur Erkennung von Objekten im dreidimensionalen Raum.
  • Mit zunehmender Bedeutung dreidimensionaler Eingabegeräte ergibt sich der Bedarf für ein neuartiges Zeige- bzw. Auswahlobjekt, welches in der Lage ist, die Befehle eines dreidimensionalen Eingabegeräts an einem Bildschirm oder auf einem sonstigem visuellen Ausgabemedium darzustellen.
  • Die aktuelle Entwicklung zeigt ebenfalls im Bereich der Ausgabegeräte eine starke Tendenz zur weiteren Verbreitung von Geräten, die in der Lage sind, Bilder dreidimensional darzustellen. Die Forschung und Entwicklung der Hersteller der Unterhaltungselektronik hat dieses Thema in den letzten Jahren weit vorangetrieben. Mit Hilfe spezieller Technologien ist es möglich auf einem zwei-dimensionalen Bildschirm Bilder und Objekte so darzustellen, dass sie drei-dimensional wirken. Dabei werden zumeist optische Hilfsmittel, wie spezielle 3D Brillen eingesetzt.
  • So hat der Konsument den Eindruck einer räumlichen Tiefe. Wie beschrieben beschränken sich bisherige cursorartige Bild schirmobjekte auf eine Darstellung im zwei-dimensionalen Raum.
  • Eine Zwischenform zwischen der klassischen zweidimensionalen und der dreidimensionalen Darstellung ist dabei die sogenannte 2,5D (zweieinhalbdimensionale) Darstellung. Dabei werden Bilder und Objekte auf einem zweidimensionalen Bildschirm in einer dreidimensionalen Form dargestellt. So kann beispielsweise ein Würfel als dreidimensionale Form auf einem zweidimensionalen Bildschirm dargestellt werden.
  • Somit besteht der Bedarf für ein neuartiges Zeige- bzw. Auswahlobjekt, welches in der Lage ist, die Befehle eines dreidimensionalen Eingabegeräts an einem Bildschirm oder auf einem sonstigem visuellen Ausgabemedium darzustellen, welches drei-dimensionale Darstellung insbesondere auf einem zweidimensionalen Bildschirm unterstützt
  • Als eine Aufgabe der Erfindung kann es demnach angesehen werden, ein Verfahren zu entwickeln, welches es ermöglicht, ein auf einem Bildschirm, beispielsweise einem Monitor, einer Projektionsfläche eines Beamers etc., dargestelltes Zeige- bzw. Auswahlobjekt durch Befehle eines dreidimensionalen Eingabegeräts sinnvoll und benutzerfreundlich zu steuern.
  • Die Aufgabe wird gelöst mit den Merkmalen des Anspruchs 1.
  • Ein erfindungsgemäßes Verfahren zur Steuerung eines auf einem Bildschirm, beispielsweise einem Monitor, einer Projektionsfläche eines Beamers etc., dargestellten, cursorartigen Auswahlobjekts mittels mindestens eines Eingabeobjekts, beispielsweise eines Fingers, sieht demnach vor, dass
    • – die räumliche Position des Eingabeobjekts relativ zu einer Ebene überwacht wird,
    • – die Position des Eingabeobjekts parallel zu der Ebene beispielsweise Koordinaten der Position des Auswahlobjekts auf dem Bildschirm vorgibt, und
    • – sich die Bildschirmdarstellung bzw. die Darstellung des Auswahlobjekts auf dem Bildschirm abhängig von der Distanz des Eingabeobjekts zu der Ebene bzw. abhängig von der Position des Eingabeobjekts normal zu der Ebene ändert, beispielsweise durch eine Änderung der Form, der Farbe, der Größe oder einer Kombination hieraus.
  • Das erfindungsgemäße Verfahren ermöglicht es, die Befehle eines dreidimensionalen Eingabegeräts an einem Bildschirm oder auf einem sonstigem visuellen Ausgabemedium darzustellen und damit den mit zunehmender Bedeutung dreidimensionaler Eingabegeräte ergebenden Anforderungen durch ein Auswahlobjekt nachzukommen, dessen Position auf dem Bildschirm cursorartig und damit benutzerfreundlich durch eine Position eines Eingabeobjekts parallel zu einer Ebene festgelegt wird, und dessen Darstellung auf dem Bildschirm sich abhängig von der Distanz des Eingabeobjekts zu der Ebene bzw. abhängig von der Position des Eingabeobjekts normal zu der Ebene ändert.
  • Die Erfindung erlaubt so, beispielsweise die Position eines Eingabeobjekts im Raum angebende dreidimensionale Signale beispielsweise eines Eingabegeräts, zu verarbeiten und in eine Darstellung eines Auswahlobjekts auf einem Bildschirm umzusetzen. Wichtig ist hervorzuheben, dass dabeu alle Darstellungsformen in 2D, 2.5D und 3D unterstützt werden.
  • Die Eingabe ist dabei über jedes Eingabegerät möglich, welches in der Lage ist, eine eindeutige Position eines Eingabeobjekts, welches durchaus auch das Eingabegerät selbst sein kann, in einem dreidimensionalen Raum relativ zu einer Ebene zu erkennen, und beispielsweise diese Position an einen Personal Computer oder an ein anderes verarbeitendes elektronisches Gerät zu übertragen. Die Übertragung der überwachten und erkannten Position des Eingabeobjekts findet vorzugsweise in Form von X-, Y- und Z-Werten statt, wobei die X- und Y-Werte vorzugsweise die Position des Eingabeobjekts parallel zu der Ebene und der Z-Wert die Position des Eingabeobjekts normal zu der Ebene angeben. Bei einem Eingabegerät kann es sich um
    • – ein Eingabegerät handeln, welches die Erkennung einer Position eines Eingabeobjekts im dreidimensionalen Raum durch ein auch als Array bezeichnetes Feld von Leuchtdioden ermöglicht;
    • – ein drucksensitives Touchpad mit vorzugsweise zwei oder mehr Druckstufen handeln;
    • – ein optisches System mit Kameraunterstützung handeln;
    • – jedes System handeln, welches in der Lage ist, die Position eines als Eingabeobjekt dienenden Gegenstands, beispielsweise anhand eines X-, Y- und Z-Werts, in einem Raum zu identifizieren.
  • Die sich abhängig von der Distanz des Eingabeobjekts zu der Ebene ändernde Darstellung des Auswahlobjekts auf dem Bildschirm kann eine Größenänderung der Darstellung des Auswahlobjekts umfassen.
  • Vorzugsweise wird dabei das Auswahlobjekt um so größer auf dem Bildschirm dargestellt, je weiter das Eingabeobjekt von der Ebene entfernt ist.
  • Eine vorteilhafte Ausgestaltung der Erfindung sieht vor, dass dem Auswahlobjekt abhängig von der Distanz des Eingabeobjekts normal zu der Ebene bzw. Position des Eingabeobjekts normal zu der Ebene unterschiedliche Funktionalitäten bzw. Funktionen zugeordnet sind. So ist beispielsweise denkbar, dass beispielsweise bei einer laufenden Videowiedergabe einer Verringerung der Distanz des Eingabeobjekts zu der Ebene eine Vorspulfunktion und einer Vergrößerung der Distanz des Eingabeobjekts zu der Ebene eine Rückspulfunktion zugeordnet ist. Ebenso ist denkbar, dass beispielsweise bei einer laufenden Textverarbeitung, durch eine beispielsweise eine Änderung des Z-Werts von z1 auf z2 bewirkende Änderung der Position des Eingabeobjekts normal zu der Ebene sich die Funktionalität des Auswahlobjekts von „Paste” zu „Copy” ändert.
  • Vorzugsweise wird bei einer Berührung der Ebene mit dem Eingabeobjekt und/oder bei einer Annäherung des Eingabeobjekts bis unterhalb einer vorgegebenen Distanz an die Ebene und/oder bei einer Annäherung des Eingabeobjekts mit einer höheren als einer vorgegebenen Annäherungsgeschwindigkeit an die Ebene eine Funktion des Auswahlobjekts ausgelöst.
  • Eine vorteilhafte Ausgestaltung der Erfindung sieht vor, dass das Eingabeobjekt ein seine Position in einem dreidimensionalen Raum relativ zu einer Ebene erkennendes Eingabegerät ist.
  • Eine andere vorteilhafte Ausgestaltung der Erfindung sieht vor, dass das Eingabeobjekt mindestens ein Finger mindestens einer Hand eines Benutzers ist.
  • Die Überwachung der räumlichen Position des Eingabeobjekts relativ zu der Ebene liefert vorzugsweise X-, Y- und Z-Werte, wobei die X- und Y-Werte die Position des Eingabeobjekts parallel zu der Ebene und der Z-Wert die Position des Eingabeobjekts normal zu der Ebene angeben.
  • Die Darstellung des Auswahlobjekts auf dem Bildschirm kann beispielsweise eine halbtransparente und/oder kreisförmige Darstellung umfassen.
  • Es können zwei oder mehrere Eingabeobjekte vorgesehen sein, deren räumliche Positionen relativ zu der Ebene überwacht werden, wobei bei mindestens einer vorgegebenen Konstellation der Positionen der Eingabeobjekte mindestens eine Funktion des Auswahlobjekts ausgelöst wird.
  • Die Erfindung wird nachfolgend anhand von in den Zeichnungen dargestellten Ausführungsbeispielen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung einer Umsetzung der Position eines Eingabeobjekts parallel zu einer Ebene in Koordinaten der Position eines Auswahlobjekts auf einem Bildschirm.
  • 2 eine schematische Darstellung eines auf einem Bildschirm dargestellten Auswahlobjekts.
  • 3 eine erste schematische Darstellung einer Größenänderung der Darstellung des Auswahlobjekts auf dem Bildschirm abhängig von der Position des Eingabeobjekts normal zu der Ebene.
  • 4 eine zweite schematische Darstellung einer Größenänderung der Darstellung des Auswahlobjekts auf dem Bildschirm abhängig von der Position des Eingabeobjekts normal zu der Ebene.
  • 5 eine erste schematische Darstellung einer Änderung einer einem Auswahlobjekt zugeordneten Funktion abhängig von der Position des Eingabeobjekts normal zu der Ebene.
  • 6 eine zweite schematische Darstellung einer Änderung einer einem Auswahlobjekt zugeordneten Funktion abhängig von der Position des Eingabeobjekts normal zu der Ebene.
  • 1 und 2 zeigen in einer Draufsicht eine Ebene 11, relativ zu der die räumliche Position mindestens eines in den 2 bis 6 dargestellten Eingabeobjekts 12, beispielsweise eines Fingers 12 eines Benutzers, überwacht wird. Die Ebene 11 kann Bestandteil eines dreidimensionalen Eingabegeräts zur Steuerung eines auf einem Bildschirm 02 dargestellten Auswahlobjekts 13 sein (2 bis 6). Es handelt sich dabei vorzugsweise um ein Eingabegerät, welches auf Basis von Leuchtdioden in der Lage ist, gleichzeitig die Position eines oder mehrerer, allgemein als Eingabeobjekte 12 bezeichneter Gegenstände, wie z. B. eines Fingers 12, im dreidimensionalen Raum zu erkennen. Das Eingabegerät wird vorzugsweise mit einem oder mehreren Fingern 12 bedient. Das Eingabegerät liefert bei der Erkennung der räumliche Position eines Eingabeobjekts 12 relativ zu der Ebene 11 einen X-, Y- (1) und einen Z-Wert (2 bis 6).
  • Die Position des Eingabeobjekts 12 parallel zu der Ebene 11 wird von dem Eingabegerät mit einem X- und mit einem Y-Wert angegeben (1). Aus 1 geht hervor, dass die X- Werte, die vom Eingabegerät an ein an den Bildschirm 02 angeschlossenes und die Bildschirmdarstellung erzeugendes verarbeitende Gerät geliefert werden, zur Positionierung des Auswahlobjekts 13 auf der auch als X-Achse bezeichneten Breitenachse des Bildschirms 02 verwendet werden. Die Y-Werte werden zur Positionierung des Auswahlobjekts 13 auf der auch als Y-Achse bezeichneten Höhenachse verwendet.
  • Die 2 bis 6 zeigen die Ebene 11 aus 1 jeweils auch in einer Seitenansicht. Eingabeobjekte 12 werden erkannt, die sich über der Oberfläche der Ebene 11 befinden. Die Entfernung eines Eingabeobjekts 12 zur Ebene 11 wird von dem Eingabegerät als Z-Wert angegeben.
  • Während die X- und Y-Werte der Position des Eingabeobjekts 12 parallel zu der Ebene 11 die ebenfalls in X- und Y-Werten angegebenen Koordinaten der Position des Auswahlobjekts 13 auf dem Bildschirm 02 vorgibt, ist darüber hinaus vorgesehen, dass sich die Darstellung des Auswahlobjekts 13 auf dem Bildschirm 02 abhängig von der durch den Z-Wert angegebene Position des Eingabeobjekts 12 normal zu der Ebene 11 ändert.
  • 2 bis 4 zeigen das Auswahlobjekt 13. Dieses ist beispielsweise kreisförmig und vorzugsweise halb- bzw. semi-transparent. Neben einer Kreisform sind auch andere geometrische Formen des Auswahlobjekts 13 möglich. Ebenso kann das Auswahlobjekt 13 aus beliebigen ein- oder mehrfarbigen Bildern bestehen. Die Position des Auswahlobjekts 13 auf dem Bildschirm 02 wird durch die X- und Y-Werte bestimmt. Der Z-Wert hingegen beeinflusst die Darstellung des Auswahlobjekts 13 auf dem Bildschirm 02.
  • So ist beispielsweise denkbar, dass wie in den 3 und 4 schematisch dargestellt der Z-Wert die Darstellung des Auswahlobjekts 13 auf dem Bildschirm 02 dahingehend beeinflusst, dass abhängig von der durch den Z-Wert gegebenen Distanz des Eingabeobjekts 12 zu der Ebene 11 eine Änderung der durch den Durchmesser d angegebenen Größe der Darstellung des Auswahlobjekts 13 erfolgt. Dabei kann sowohl ein linearer, als auch logarithmischer Zusammenhang zwischen der den Z-Wert vorgebenden Position des Eingabeobjekts 12 normal zur Ebene 11 und dem Durchmesser d bestehen. Auch beliebige andere mathematische Verknüpfungen zwischen Z und d sind möglich.
  • Vorzugsweise führt eine Verkleinerung des Z-Wertes zu einer Verkleinerung des Durchmessers d. Es gibt jedoch auch Anwendungen, bei denen wünschenswert ist, dass eine Verkleinerung des Z-Wertes zu einem größeren Durchmesser d führt.
  • Die 3 und 4 zeigen beispielhaft eine Größenänderung des Auswahlobjekts 13 bei einer Änderung der den Z-Wert vorgebenden Position des Eingabeobjekts 12 normal zur Ebene 11.
  • 3 zeigt am Beispiel eines die Ebene 11 umfassenden dreidimensionalen Eingabegeräts, welches eine Überwachung und Erkennung der Position eines Eingabeobjekts 12 im Raum durch ein auch als Array bezeichnetes Feld von Leuchtdioden ermöglicht, die Ermittlung des Z-Wertes. In diesem Fall ermittelt sich der Z-Wert anhand der Entfernung des Eingabeobjekts 12, hier eines Fingers 12, zur Oberfläche der Ebene 11. In der dargestellten Position des Fingers 12 ergibt sich ein Z-Wert von z1. Auf Basis der genannten Algorithmen ergibt sich daraus für das Auswahlobjekt 13 eine Größe mit einem Durchmesser d1.
  • 4 zeigt im Vergleich zu 3, wie sich die Darstellung des Auswahlobjekts 13 durch eine sich aus einer Änderung der Position des als Eingabeobjekt 12 dienenden Fingers 12 normal zu der Ebene 11 ergebenden Änderung des Z-Wertes verändert. Der ermittelte Z-Wert z2, für den z2 < z1 gilt, ergibt ein Auswahlobjekt 13 mit einem Durchmesser d2, für den d2 < d1 gilt. Das Auswahlobjekt 13 verändert somit seine Größe in Abhängigkeit vom Z-Wert bzw. in Abhängigkeit von der Position des Eingabeobjekts 12 normal zur Ebene 11.
  • Alternativ oder zusätzlich kann sich eine Änderung des Z-Wertes auch in anderen Veränderungen des Auswahlobjekts 13 niederschlagen. Statt einer Größenveränderung des Bildschirmobjektes, können zusätzlich oder stattdessen ebenso weitere Attribute des Auswahlobjekts 13 bei Änderung des Z-Werts variiert werden. Eine Veränderung des Z-Wertes kann beispielsweise zu einer farblichen Änderung des Auswahlobjekts 13 führen. Eine Veränderung des Z-Wertes kann ebenso zu einer beliebigen Formänderung des Auswahlobjekts 13 führen. Eine Veränderung des Z-Wertes kann ferner zu einer Änderung von eingeblendeten Bildern führen.
  • Die in 3 und 4 dargestellten Veränderungen beziehen sich auf eine Darstellung auf einem zweidimensionalen Ausgabgemedium.
  • Wie einleitend beschrieben gibt es ebenfalls zweieinhalb- und dreidimensionale Ausgabemöglichkeiten. Hierbei entsteht für den Nutzer der Eindruck, die Objekte auf dem Bildschirm hätten eine optische Tiefe. Im Falle einer 2.5D Darstellung ist diese Tiefendarstellung simuliert. Bei der 3D-Darstellung entsteht mit Hilfe optischer Hilfsmittel (vorteilhafterweise einer 3-D Brille) ein echter 3D-Effekt.
  • Bei einer derartigen Darstellung kann das Auswahlobjekt 13 von Vorteil so dargestellt sein, dass dem Nutzer der Eindruck vermittelt wird, das Objekt bewege sich in dem 3-dimensionalen Raum. Eine ausschliessliche Änderung der Größe des Durchmessers d ist dabei nicht ausreichend. Dies würde dem Benutzer den Eindruck vermitteln, das Auswahlobjekt 13 sei ein zweidimensionales Objekt, welches sich in einem dreidimensionalen Raum bewegt. Zur Darstellung oder Simulation von Tiefe können weitere Parameter berücksichtigt werden, wie beispielsweise die Position einer virtuellen Lichtquelle, welche Einfluss auf die Darstellung von Schattierungen, beispielsweise im Sinne von Form und farblicher Gestaltung, des Auswahlobjektes hat.
  • Vorteilhafterweise kann sich bei einer Änderung des Z-Wertes in einer 2.5D- und 3D-Darstellung somit die Ausgestaltung des Auswahlobjekt 13 in mehreren Parametern anpassen. Dabei ist die Größe des Durchmessers d ein Parameter. Weitere Parameter können die Form, sowie die farbliche Ausgestaltung des Auswahlobjektes betreffen. Diese könnendurch die geänderte virtuelle Position des Auswahlobjektes zur virtuellen Lichtquelle determiniert werden.
  • Eine Veränderung des Z-Wertes kann ebenso zu einer Änderung der verknüpften Funktionalität führen.
  • So kann beispielsweise vorgesehen sein, dass dem Auswahlobjekt 13 abhängig von der Position des Eingabeobjekts 12 normal zu der Ebene 11 unterschiedliche Funktionen zugeordnet sind. So kann beispielsweise bei einer Berührung der Ebene 11 mit dem Eingabeobjekt 12 eine Funktion des Auswahlobjekts 13 ausgelöst werden. Alternativ oder zusätzlich ist möglich, dass bei einer Annäherung des Eingabeobjekts 12 bis unterhalb einer vorgegebenen Distanz an die Ebene 11 eine Funktion des Auswahlobjekts 13 ausgelöst wird. Grundsätzlich ist auch denkbar, dass eine Funktion des Auswahlobjekts 13 bei einer Annäherung des Eingabeobjekts 12 mit einer höheren als einer vorgegebenen Annäherungsgeschwindigkeit an die Ebene 11 ausgelöst wird.
  • 5 und 6 zeigen schematisch die Auswirkung einer Änderung des Z-Wertes auf die Funktionalität des Auswahlobjekts 13. Das Auswahlobjekt 13 kann mit einer Funktion verknüpft sein. Beispielsweise im Bereich von Personal Computern kann beispielsweise eine Verknüpfung mit den Dateiverwaltungsbefehlen „Copy”, „Cut” und „Paste” sinnvoll sein. Durch die Änderung des Z-Wertes von z1 auf z2 ändert sich die Funktionalität des Auswahlobjekts 13 von „Paste” zu „Copy”. Die Funktionalitäten können dann aktiviert werden, in dem beispielsweise eine Taste aktiviert wird. Ebenso ist eine Aktivierung durch eine beispielsweise durch Erkennung der Konstellation der Positionen zweier oder mehrerer Eingabeobjekte erfassbare Geste, oder eine Berührung einer definierten Stelle oder Fläche z. B. der Ebene 11 möglich. Im Bereich der Unterhaltungselektronik bietet sich beispielsweise an, einer vom Z-Wert abhängigen Funktion des Auswahlobjekts 13 eine Aufnahme-, Playback-, Auswahl-, Zapping-Funktion, sowie weitere Funktionen zu hinterlegen, die dann über eine Änderung des Z-Wertes ausgewählt werden können. Grundsätzlich sind alle Funktionen die das zu verarbeitende Gerät bietet geeignet, um über eine Veränderung des Z-Werts angewählt zu werden. Auch kann beispielsweise bei einer Videowiedergabe durch eine Veränderung des Z-Wertes vorgesehen sein, eine bestimmte Stelle des Videos aufzufinden. Dabei ist denkbar, dass nach Aufruf der Funktion eine Videodatei in einem Vorschaubild oder im Vollbild durch die Änderung des Z-Wertes vor- bzw. -zurückgespult wird. Dies ist ebenso möglich für so genannte Bilder-Slideshows. Bei Musikdateien ist denkbar, dass beispielsweise über eine Visualisierung mittels eines Fortschrittsbalkens durch die Änderung des Z-Wertes eine gewünschte Stelle eines Musikstückes oder der gewünschte Titel in einer Abspielliste angewählt werden kann.
  • Ebenso ist es möglich durch eine Veränderung des Z-Wertes eine Vorschaufunktion für Dokumente und Medien aller Art aufzurufen. Dazu wird ein Wertebereich von Z der Vorschaufunktion zu geordnet. Begibt sich das Eingabegerät in diesen Bereich, wird das Dokument/Medienobjekt in einer Vorschau-Ansicht geöffnet.
  • Wichtig ist hervorzuheben, dass die Erfindung alternativ zu dem beschriebenen Eingabegerät, welches die Positionserkennung eines Eingabeobjekts 12 im Raum durch ein auch als Array bezeichnetes Feld von Leuchtdioden ermöglicht, mit allen Eingabesystemen nutzbar ist, die geeignet sind, eine Position eines Objekts oder Gegenstands in einem dreidimensionalen Raum zu erkennen. Dazu zählen drucksensitive Touchpads, optische Systeme mit Kameraunterstützung, sowie jedes System, welches in der Lage ist die Position eines Objekts oder Gegenstands beispielsweise anhand eines X-, Y- und Z-Wertes in einem Raum zu identifizieren. So ist beispielsweise auch denkbar, dass das Eingabeobjekt selbst ein seine Position in einem dreidimensionalen Raum relativ zu einer Ebene erkennendes Eingabegerät ist.

Claims (15)

  1. Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts (13) mittels mindestens eines Eingabeobjekts (12), dadurch gekennzeichnet, dass – die räumliche Position (X, Y, Z) des Eingabeobjekts (12) relativ zu einer Ebene (11) überwacht wird, – die Position (X, Y) des Eingabeobjekts (12) parallel zu der Ebene (11) die Position des Auswahlobjekts (13) auf dem Bildschirm (02) vorgibt, und – sich die Darstellung des Auswahlobjekts (13) auf dem Bildschirm (02) abhängig von der Position (Z) des Eingabeobjekts (12) normal zu der Ebene (11) ändert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die sich abhängig von der Distanz (Z) des Eingabeobjekts (12) zu der Ebene (11) ändernde Darstellung des Auswahlobjekts (13) auf dem Bildschirm (02) eine Größenänderung der Darstellung des Auswahlobjekts (13) umfasst.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Auswahlobjekt (13) um so größer auf dem Bildschirm (02) dargestellt wird, je weiter das Eingabeobjekt (12) von der Ebene (11) entfernt ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem Auswahlobjekt (13) abhängig von der Position des Eingabeobjekts (12) normal zu der Ebene (11) unterschiedliche Funktionen zugeordnet sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Berührung der Ebene (11) mit dem Eingabeobjekt (12) eine Funktion des Auswahlobjekts (13) ausgelöst wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Annäherung des Eingabeobjekts (12) bis unterhalb einer vorgegebenen Distanz an die Ebene (11) eine Funktion des Auswahlobjekts (13) ausgelöst wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Annäherung des Eingabeobjekts (12) mit einer höheren als einer vorgegebenen Annäherungsgeschwindigkeit an die Ebene (11) eine Funktion des Auswahlobjekts (13) ausgelöst wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Eingabeobjekt (12) ein seine Position in einem dreidimensionalen Raum relativ zu einer Ebene (11) erkennendes Eingabegerät ist.
  9. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Eingabeobjekt (12) mindestens ein Finger (12) mindestens einer Hand eines Benutzers ist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Überwachung der räumlichen Position (X, Y, Z) des Eingabeobjekts (12) relativ zu der Ebene (11) X-, Y- und Z-Werte liefert, wobei die X- und Y-Werte die Position des Eingabeobjekts (12) parallel zu der Ebene (11) und der Z-Wert die Position des Eingabeobjekts (12) normal zu der Ebene (11) angeben.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenzeichnet, dass die Ebene (11) durch ein druckempfindliches Touchpad gebildet wird.
  12. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekenzeichnet, dass die Ebene (11) durch ein Leuchtdioden-Feld gebildet wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenzeichnet, dass die Darstellung des Auswahlobjekts (13) auf dem Bildschirm (02) eine halbtransparente Darstellung umfasst.
  14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenzeichnet, dass die Darstellung des Auswahlobjekts (13) auf dem Bildschirm (02) eine kreisförmige Darstellung umfasst.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwei oder mehrere Eingabeobjekte (12) vorgesehen sind, deren räumliche Positionen (X, Y, Z) relativ zu der Ebene (11) überwacht werden, wobei bei mindestens einer vorgegebenen Konstellation der Positionen der Eingabeobjekte (12) mindestens eine Funktion des Auswahlobjekts (13) ausgelöst wird.
DE102009006082A 2009-01-26 2009-01-26 Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts Withdrawn DE102009006082A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102009006082A DE102009006082A1 (de) 2009-01-26 2009-01-26 Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts
PCT/DE2010/000073 WO2010083820A1 (de) 2009-01-26 2010-01-26 Verfahren zur ausführung einer eingabe mittels einer auf einem bildschirm dargestellten, virtuellen tastatur
PCT/DE2010/000074 WO2010083821A1 (de) 2009-01-26 2010-01-26 Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
US13/159,099 US20110242037A1 (en) 2009-01-26 2011-06-13 Method for controlling a selected object displayed on a screen
US13/178,206 US20120005615A1 (en) 2009-01-26 2011-07-07 Method for executing an input by means of a virtual keyboard displayed on a screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009006082A DE102009006082A1 (de) 2009-01-26 2009-01-26 Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts

Publications (1)

Publication Number Publication Date
DE102009006082A1 true DE102009006082A1 (de) 2010-07-29

Family

ID=42282593

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009006082A Withdrawn DE102009006082A1 (de) 2009-01-26 2009-01-26 Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts

Country Status (2)

Country Link
US (1) US20110242037A1 (de)
DE (1) DE102009006082A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011075067A1 (de) * 2011-05-02 2012-11-08 Rhode & Schwarz Gmbh & Co. Kg Berührungsbildschirmeinheit und Verfahren zu deren Betrieb
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten
EP2876526A1 (de) * 2013-10-10 2015-05-27 ELMOS Semiconductor AG Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US8810524B1 (en) 2009-11-20 2014-08-19 Amazon Technologies, Inc. Two-sided touch sensor
US20130147793A1 (en) * 2011-12-09 2013-06-13 Seongyeom JEON Mobile terminal and controlling method thereof
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
US10504485B2 (en) * 2011-12-21 2019-12-10 Nokia Tehnologies Oy Display motion quality improvement
SE536989C2 (sv) * 2013-01-22 2014-11-25 Crunchfish Ab Förbättrad återkoppling i ett beröringsfritt användargränssnitt
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004051392A2 (en) * 2002-11-29 2004-06-17 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
WO2008029180A1 (en) * 2006-09-06 2008-03-13 Santosh Sharan An apparatus and method for position-related display magnification

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461560A (en) * 1994-03-25 1995-10-24 Oxy-Dry Corporation Touch screen control system and method for controlling auxiliary devices of a printing press
US7289083B1 (en) * 2000-11-30 2007-10-30 Palm, Inc. Multi-sided display for portable computer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004051392A2 (en) * 2002-11-29 2004-06-17 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
WO2008029180A1 (en) * 2006-09-06 2008-03-13 Santosh Sharan An apparatus and method for position-related display magnification

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011075067A1 (de) * 2011-05-02 2012-11-08 Rhode & Schwarz Gmbh & Co. Kg Berührungsbildschirmeinheit und Verfahren zu deren Betrieb
DE102011075067B4 (de) 2011-05-02 2022-08-18 Rohde & Schwarz GmbH & Co. Kommanditgesellschaft Berührungsbildschirmeinheit und Verfahren sowie Computerprogramm und Computerprogramm-Produkt zu deren Betrieb
EP2860614A1 (de) * 2013-10-10 2015-04-15 ELMOS Semiconductor AG Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten
EP2876526A1 (de) * 2013-10-10 2015-05-27 ELMOS Semiconductor AG Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung

Also Published As

Publication number Publication date
US20110242037A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
DE102009006082A1 (de) Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102013217354B4 (de) Kantenmessungs-videowerkzeug und schnittstelle mit automatischen parametersatzalternativen
DE102009011687B4 (de) Berührungsereignismodell
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE102018221024A1 (de) Einrichtung und verfahren zum betätigen eines auf einer berührungssteuerung basierenden lenkrads
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE112010002760T5 (de) Benutzerschnittstelle
DE112013004801T5 (de) Multimodaler Berührungsbildschirmemulator
DE202011110907U1 (de) Markierungsmenüs für Mehrfachberührung und richtungsabhängige musterbildende Gesten
DE102008028223A1 (de) Modusabhängige Verarbeitung von Berührungsdaten
EP2846249B1 (de) Verzahnmaschine mit multitouch-fähigem Display
DE112012007167T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE102012022312A1 (de) Informationswiedergabesystem und Verfahren zur Informationswiedergabe
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE102021122362A1 (de) Wechsel zwischen zuständen in einer hybriden virtual-reality-desktop-rechenumgebung
EP3538977B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102009019560A1 (de) Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102015105022A1 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE102014107211A1 (de) Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
DE102012222094A1 (de) Berührungserkennungssystem und verfahren fürberührungsbildschirm
DE102012203163A1 (de) Vorrichtung und Verfahren zum Austauschen von Informationen zwischen mindestens einem Bediener und einer Maschine

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: ,

R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120801