DE102012013115A1 - Verfahren und System für Multi-Touch-Steuerung - Google Patents

Verfahren und System für Multi-Touch-Steuerung Download PDF

Info

Publication number
DE102012013115A1
DE102012013115A1 DE102012013115A DE102012013115A DE102012013115A1 DE 102012013115 A1 DE102012013115 A1 DE 102012013115A1 DE 102012013115 A DE102012013115 A DE 102012013115A DE 102012013115 A DE102012013115 A DE 102012013115A DE 102012013115 A1 DE102012013115 A1 DE 102012013115A1
Authority
DE
Germany
Prior art keywords
cursor
mapping
input device
monitor
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012013115A
Other languages
English (en)
Inventor
Shih Kun Tso
Tsung-Hsien Shen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYE Systems Corp
Original Assignee
KYE Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYE Systems Corp filed Critical KYE Systems Corp
Publication of DE102012013115A1 publication Critical patent/DE102012013115A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Die Erfindung betrifft ein Verfahren und System für Mulit-Touch-Steuerung, das folgende Schritte enthält: im Anzeigebereich werden mindestens ein Mapping-Positionierpunkt und eine Mapping-Zone gesettet; im Bedienungsfeld wird mindestens ein Schnellpositionierpunkt gesettet, der einem Mapping-Positionierpunkt entspricht; das Eingabegerät erzeugt einen Bewegungsvektor des Cursors, wodurch der Cursor des Monitors entsprechend dem Bewegungsvektor des Cursors bewegt wird und die Mapping-Zone resettet wird; wenn das Eingabegerät das Aktiviersignal eines Schnellpositionerpunks empfängt, werden die Mapping-Zone und der Cursor zusammen zu dem entsprechenden Mapping-Positionierpunkt bewegt; und mindestens ein Objekt in der Mapping-Zone wird ausgewählt und die Multi-Touch-Funktion wird aktiviert, wobei das Objekt durch die relative Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts gesteuert wird.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren und System für Multi-Touch-Steuerung, insbesondere ein Verfahren und System für Multi-Touch-Steuerung zwischen verschiedenen Geräten.
  • Stand der Technik
  • Mit der Entwicklung der Technologie tauchen verschiedene Eingabe-Peripheriegeräte auf, insbesondere der Touchscreen. Beim Touchscreen kann der Benutzer mit dem Finger die Objekte (wie Anwendungsprogramme, Bilder oder Einbaufunktionen der Anwendungsprogramme) auswählen. Insbesondere in Windows 7 von Microsoft sind die Funktionen von Touchscreen eingebaut.
  • Der Benutzer kann mit den Fingern über den Touchscreen 100 führen, um ein Objekt 110 auf dem Bildschirm zu vergrößern oder verkleinern oder zu bewegen. 1 zeigt die herkömmliche Multi-Touch-Steuerung. In Windows 7 wird das Objekt 110 durch die Bewegung von mehreren Fingern gesteuert. Microsoft definiert die Mulit-Touch-Steuerung durch Gesten. Windows 7 unterstützt die folgenden Gesten: Finger voneinander wegbewegen, Finger zueinander bewegen, einen Finger oder zwei Finger bewegen, Finger drehen, Berühren mit zwei Fingern und Tippen. Wenn der Benutzer mit zwei Fingern ein Bild auf dem Touchscreen berührt, aktiviert Windows 7 die Multi-Touch-Funktion. Wenn der Abstand der bedien Finger vergrößert wird, wird das Bild auf dem Bildschirm vergrößert. Umgekehrt wird das Bild verkleinert.
  • Da die Kosten des Touchscreens mit der Größe steigen, ist der Preis des großen Touchscreens viel höher als der des kleinen Touchscreens. Ein großer Touchscreen ist nicht für alle Benutzer erforderlich. Die Bedienung des großen Touchscreens ist nicht leicht. Um dieses Problem zu lösen, wird das Steuerverfahren entwickelt, das durch ein kleinen Touchscreen einen großen Touchscreen steuern kann. Der kleine Touchscreen lässt sich zwar leicht bedienen, werden die Koordinaten des kleinen Touchscreens jedoch durch Mapping auf dem großen Touchscreen abgebildet, so dass die Bewegungsstrecke des Cursors zu groß sein kann. Da der kleine Touchscreen ein kleines Bedienungsfeld besitzt, wird die Bewegungsstrecke bei der Abbildung auf dem großen Touchscreen mit einem bestimmten Verhältnis vergrößert. Wenn der Benutzer den Cursor auf dem kleinen Touchscreen um eine kleine Strecke bewegt, kann der Cursor auf dem großen Touchscreen um eine große Strecke bewegt werden, so dass die Bedienung durch Mapping problematisch ist.
  • Aufgabe der Erfindung
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und System für Multi-Touch-Steuerung zu schaffen, das durch ein Eingabegerät mit der Multi-Touch-Funktion den Cursor eines Monitors steuert.
  • Das erfindungsgemäße Verfahren für Multi-Touch-Steuerung enthält die folgenden Schritte: das Bedienungsfeld des Eingabegeräts und das Bildschirmfeld des Monitors werden bereitgestellt; im Bildschirmfeld werden mindestens ein Mapping-Positionierpunkt und eine Mapping-Zone gesettet und entsprechend dem Eingabesignal des Bedienungsfelds wird die Position des Cursors in der Mapping-Zone bestimmt; im Bedienungsfeld wird mindestens ein Schnellpositionierpunkt gesettet, dessen Position der des Mapping-Positionierpunkts entspricht; das Eingabegerät erzeugt einen Bewegungsvektor des Cursors, wodurch der Cursor des Monitors entsprechend dem Bewegungsvektor des Cursors bewegt wird und die Mapping-Zone resettet wird; mindestens ein Objekt in der Mapping-Zone wird ausgewählt und die Multi-Touch-Funktion wird aktiviert, wobei das Eingabegerät durch die relative Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt steuert, wobei das Eingabegerät die Position des Cursors als der erste Steuerpunkt definiert und ein anderes Berührungssignal als der zweite Steuerpunkt definiert; und wenn das Eingabegerät das Aktiviersignal des Schnellpositionerpunks empfängt, werden die Mapping-Zone und der Cursor zusammen zu dem entsprechenden Mapping-Positionierpunkt bewegt.
  • Die Erfindung betrifft weiter ein Eingabesystem mit der Multi-Touch-Steuerung, das umfasst: einen Monitor, der ein Bildschirmfeld mit einem Cursor aufweist, in dem mindestens ein Mapping-Positionierpunkt gesettet wird; eine Rechenanlage, die mit dem Monitor elektrisch verbunden ist und entsprechend dem empfangenen Bewegungssignal des Cursors die Position des Cursors auf dem Bildschirmfeld errechnet; und ein Eingabegerät, das mit der Rechenanlage verbunden ist und ein Bedienungsfeld aufweist, das ein Bewegungssignal des Cursors empfangen kann, wodurch das Eingabegerät entsprechend dem Bewegungssignal einen Bewegungsvektor des Cursors erzeugt, wobei auf dem Bedienungsfeld mindestens ein Schnellpositionierpunkt gesettet wird, der einem Mapping-Positionierpunkt entspricht, wobei wenn das Eingabegerät ein Aktiviersignal für einen Schnellpositionierpunkt empfängt, die Mapping-Zone und der Cursor zu dem entsprechenden Mapping-Positionierpunkt bewegt werden.
  • Die Erfindung kann durch ein kleines Eingabegerät auf einem großen Monitor die Multi-Touch-Funktion ausführen. Der Benutzer kann durch das Eingabegerät den Cursor auf dem Monitor bewegen. Wenn das Eingabegerät das Bewegungssignal des Cursors empfängt, kann der Mapping-Prozess den Bewegungsvektor des Cursors des Eingabegeräts in den Bewegungsvektor des Cursors des Monitors umwandeln. Der Benutzer kann durch die Multi-Touch-Funktion des Eingabegeräts das Objekt auf dem Bildschirm des Monitors steuern. Auf dem Eingabegerät werden mehrere Schnellpositionierpunkte gesettet. Wenn der Benutzer einen Schnellpositionierpunkt aktiviert, werden die Cursor und die Mapping-Zone des Monitors zusammen zu der entsprechenden Position bewegt. Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung in Verbindung mit den anliegenden Zeichnungen.
  • Kurze Beschreibung der Zeichnungen
  • 1 eine Darstellung der herkömmlichen Multi-Touch-Steuerung,
  • 2A eine Darstellung des Aufbaus der Erfindung,
  • 2B eine Darstellung des Aufbaus der Erfindung mit einer Rechenanlage,
  • 3 ein Ablaufdiagramm der Erfindung,
  • 4A eine Darstellung der Mapping-Zone der Erfindung,
  • 4B eine Darstellung der Mapping-Zone mit dem Cursor der Erfindung,
  • 4C eine Darstellung der Bewegung des Cursors der Mapping-Zone der Erfindung,
  • 5A ein Ablaufdiagramm der Unterbrechung der Bewegung des Cursors,
  • 5B eine Darstellung der Unterbrechung der Bewegung des Cursors,
  • 5C eine weitere der Unterbrechung der Bewegung des Cursors,
  • 6A eine Darstellung der Vergrößerung des Objekts der Erfindung,
  • 6B eine Darstellung der Vergrößerung des Objekts der Erfindung,
  • 6C eine Darstellung der Drehung des Objekts der Erfindung,
  • 6D eine Darstellung der Drehung des Objekts der Erfindung,
  • 7A eine Darstellung der Objekte in der Mapping-Zone vor der Bewegung,
  • 7B eine Darstellung der Objekte in der Mapping-Zone nach der Bewegung,
  • 7C eine Darstellung der Objekte in der Mapping-Zone vor der Drehung,
  • 7D eine Darstellung der Objekte in der Mapping-Zone nach der Drehung,
  • 8A eine Darstellung des Bildes in der Mapping-Zone vor der Bewegung des Bildes auf dem Eingabegerät,
  • 8B eine Darstellung des Bildes in der Mapping-Zone nach der Bewegung des Bildes auf dem Eingabegerät,
  • 9A eine Darstellung der Mapping-Positionierpunkte der Erfindung,
  • 9B eine Darstellung der Schnellpositionierpunkte der Erfindung,
  • 9C ein Ablaufdiagramm eines weiteren Ausführungsbeispiels der Erfindung,
  • 9D eine Darstellung der Schnellpositionierpunkte und der Mapping-Positionierpunkte,
  • 10A eine Darstellung des weiteren Ausführungsbeispiels der Erfindung vor der Umschaltung der Mapping-Zone,
  • 10B eine Darstellung des weiteren Ausführungsbeispiels der Erfindung nach der Umschaltung der Mapping-Zone,
  • 10C eine Darstellung des weiteren Ausführungsbeispiels der Erfindung nach der Umschaltung der Mapping-Zone,
  • 10D eine Darstellung des weiteren Ausführungsbeispiels der Erfindung nach der Umschaltung der Mapping-Zone.
  • Wege zur Ausführung der Erfindung
  • Wie aus den 2A und 2B ersichtlich ist, kann die Erfindung auf einen Monitor mit Rechenfähigkeit (2A) oder auf eine unabhängige Rechenanlage angewendet werden. Im folgenden wird die Anwendung auf eine unabhängige Rechenanlage beschrieben. Wie dargestellt, umfasst die Erfindung eine Rechenanlage 210, einen Monitor 220 und ein Eingabegerät 230. Die Rechenanlage 210 kann durch Personalcomputer, Server, Notebook oder All-in-one-Computer gebildet sein. Darauf ist die Erfindung jedoch nicht beschränkt. In der Rechenanlage 210 wird ein Mapping-Prozess 211 gespeichert. Der Monitor 220 ist mit der Rechenanlage 210 elektrisch verbunden und dient zur Anzeige die von der Rechenanlage 210 ausgegebenen Bilder. Die ausgegebenen Bilder enthalten Cursor, Desktop und verschiedene Objekte. Die Objekte sind z. B. Bilder, Icons, Figuren, Zeichnungen usw.
  • Der Bildschirmfeld 221 des Monitors 220 kann mehr als eine Auflösung besitzen, wie 800×600 Pixel, 1024×768 Pixel oder 1920×1200 Pixel. Bei der Arbeit der Rechenanlage 210 kann durch das Betriebssystem der eingesetzte Bildschirmfeld 221 oder der unterstützte Bildschirmfeld erfasst werden.
  • Das Eingabegerät 230 ist ein elektronisches Gerät mit der Multi-Touch-Funktion. Das Eingabegerät 230 kann durch PDA, Digitalisiertablett, Handy oder Tablet-PC gebildet sein. Wenn das Eingabegerät 230 mit der Rechenanlage 210 verbunden ist, führt die Rechenanlage 210 den Mapping-Prozess 211 durch, um den Bedienungsfeld 231 des Eingabegeräts 230 und den Bildschirmfeld 221 des Monitors 230 zu erfasst. Die Verbindung des Eingabegeräts 230 und der Rechenanlage 210 kann durch USB oder Bluetooth erfolgen.
  • Die Rechenanlage 210 führt entsprechend dem Bedienungsfeld 231 des Eingabegeräts 230 und dem Bildschirmfeld 221 des Monitors 230 den Mapping-Prozess 211 durch. 3 zeigt ein Ablaufdiagramm der Erfindung, das die folgenden Schritte enthält:
    Schritt S310: wenn das Eingabegerät mit der Rechenanlage verbunden ist, wird der Mapping-Prozess geladen, um das Bedienungsfeld 231 des Eingabegeräts 230 und das Bildschirmfeld 221 des Monitors 230 zu erfassen;
    Schritt S320: der Cursor wird auf die Startkoordinaten positioniert und entsprechend dem Cursor und dem Bedienungsfeld wird auf dem Monitor eine Mapping-Zone gesettet;
    Schritt S330: das Eingabegert erzeugt den Bewegungsvektor des Cursors und bewegt entsprechend dem Bewegungsvektor den Cursor auf dem Monitor, wobei die Mapping-Zone gleichzeitig resettet wird;
    Schritt S340: wenn der Benutzer mindestens ein Objekt in der Mapping-Zone auswählt und die Multi-Touch-Funktion aktiviert, steuert das Eingabegerät entsprechend der Bewegungsstrecke, der durch einen ersten Berühungspunkt und einen zweiten Steuerpunkt erzeugt wird, das Objekt.
  • Zunächst werden das Eingabegerät 230 und der Monitor 220 mit der Rechenanlage 210 verbunden. Wenn das Eingabegerät 230 und der Monitor 220 mit der Rechenanlage 210 verbunden sind, startet der Mapping-Prozess 211 die Initialisierung der Startposition des Eingabegeräts 230 gegenüber dem Cursor 240. Da das Bildschirmfeld 221 des Monitors 220 dem Bedienungsfeld des Eingabegeräts 231 nicht entspricht, muss der Cursor 240 auf dem Monitor 220 mit dem Eingabegerät 230 in Korrelation gebracht werden, damit der Cursor des Eingabegeräts 230 mit dem Cursor 240 auf dem Monitor 220 korrespondiert.
  • Nachdem die Rechenanlage 210 eingeschaltet wird und in das Betriebssystemeintritt, kann sie das Bildschirmfeld 221 des Monitors 220 erfassen. Dabei kann der Mapping-Prozess 211 zunächst durch das Betriebssystem das eingesetzten Bildschirmfeld 221 erfassen, damit die Initialisierung durchgeführt wird, wenn das Eingabegerät 230 mit der Rechenanlage 210 verbunden ist. Selbstverständlich 211 ist es auch möglich, dass das Bildschirmfeld 221 erst bei der Verbindung mit dem Eingabegerät 230 erfasst wird.
  • Bei der Initialisierung des Cursors 240 kann der Cursor 240 in der Mitte oder in den vier Ecken oder an anderen Stellen des Monitors 220 gesettet werden, damit das Eingabegerät 230 präzis in einer bestimmten Zone des Monitors 220 abgebildet wird. Um die Lage des Cursors 240 zu veranschaulichen, wird die Lage des Cursors 240 als Startkoordinaten definiert.
  • Nach der Initialisierung der Position des Cursors 240 settet der Mapping-Prozess 211 entsprechend der Position des Cursors 240 in dem Bildschirmfeld 221 eine Mapping-Zone 310. 4 zeigt die Mapping-Zone. Die Mapping-Zone 310 ist nicht real auf dem Monitor 220 gezeichnet und wird somit in 4A mit gestrichelter Linie gezeigt. Die Größe der Mapping-Zone 310 ist sowohl von der Größe des Bedienungsfelds 231 als auch von dem Mapping-Verhältnis zwischen dem Monitor 221 und dem Eingabegerät 230 abhängig. Dafür erstellt der Mapping-Prozess 211 entsprechend dem Bedienungsfeld 231 und dem Bildschirmfeld 221 eine Korrelationstabelle (nicht dargestellt). Aus dieser Korrelationstabelle sind der bedienbare Bereich der Mapping-Zone auf dem Monitor 220 und das Verhältnis zwischen der X- und Y-Achse der Mapping-Zone und der X- und Y-Achse des Monitors 220 zu entnehmen.
  • Z. B. wenn das Mapping-Verhältnis zwischen der X- und Y-Achse der Mapping-Zone 310 und des Monitors 220 1:1 beträgt, entspricht ein Bildpunkt der Mapping-Zone 310 einem Bildpunkt des Monitors 220. wenn das Mapping-Verhältnis zwischen der X-Achse der Mapping-Zone 310 und des Monitors 220 1:1 und das Mapping-Verhältnis zwischen der Y-Achse der Mapping-Zone 310 und des Monitors 220 1:2 beträgt, entspricht ein Bildpunkt der Mapping-Zone 310 auf der X-Achse einem Bildpunkt des Monitors 220 und ein Bildpunkt der Mapping-Zone 310 auf der Y-Achse zwei Bildpunkten des Monitors 220. Die anderen Mappingverhältnisse sind auch möglich.
  • Wenn das Mapping-Verhältnis in der Korrelationstabelle festgelegt ist, settet die Rechenanlage 210 auf dem Monitor 220 die den Cursor 240 enthaltende Mapping-Zone 310. Die Position des Cursors 240 ist nicht in der Mitte der Mapping-Zone 310 begrenzt. Um die Beschreibung zu erleichtern, befindet sich die Position des Cursors 240 nachfolgend in der Mitte der Mapping-Zone 310. 4B zeigt die relative Position des Cursors und der Mapping-Zone.
  • Wie aus den 4A und 4C ersichtlich ist, wird nach der Initialisierung des Cursors 240 und der Mapping-Zone 310 (4A) der Cursor 240 in der Mitte des Bildschirmfeldes 221 (Startkoordinaten) gezeigt. Wenn der Benutzer durch das Eingabegerät 230 den Cursor 240 steuert, erhält die Rechenanlage 210 von dem Eingabegerät 230 den Bewegungsvektor des Cursors (Bewegungsvektor gegenüber den Startkoordinaten) und bewegt entsprechend dem Bewegungsvektor des Cursors den Cursor 240 auf dem Monitor 220. Gleichzeitig wird die Mappingzone 310 in dem Bildschirmfeld 221 resettet.
  • Die Kalkulation der Bewegungsstrecke des Eingabegeräts 230 erfolgt mit DPI (dot per inch). Die Bewegungsstrecke des Cursors des Eingabegeräts 230 gegenüber dier des Cursors 240 des Monitors 220 muss wie folgt umgerechnet werden. Die Rechenanlage 210 errechnet entsprechend der Korrelationstabelle die entsprechende Bewegungsstrecke des Cursors 240 auf dem Monitors 220 für den Bewegungsvektor des Cursors des Eingabegeräts 230.
  • Z. B. das Bildschirmfeld 221 des Monitors 220 besitzt eine Auflösung von 1024×768 und das Bedienungsfeld 231 des Eingabegeräts 230 besitzt eine Auflösung von 70×50 und das Mapping-Verhälstnis der X-Achse und der Y-Achse beträgt beide 1:10. Nachdem der Mapping-Prozess 211 die Initialisierung des Cursors 240 durchführt und der Cursor 240 z. B. auf den Koordinaten (512, 384) des Monitors 220 gezeigt wird, werden diese Koordinaten als Startkoordinaten definiert. Der Mapping-Prozess settet um diese Start koordinaten auf dem Monitor 220 eine Mapping-Zone 310 von 70×50 (4C).
  • Wenn der Benutzer durch das Eingabegerät 230 den Cursor 240 bewegt, erzeugt das Eingabegerät 230 einen Bewegungsvektor des Cursors. Wenn das Eingabegerät 230 durch ein Touchpad gebildet ist und der Benutzer mit dem Finger das Touchpad berührt, wird der Steuerpunkt von der Rechenanlage 210 als Referenzkoordinaten betrachtet. Wenn der Benutzer mit dem Finger über das Touchpad führt, empfängt die Rechenanlage 210 kontinuierlich Signale aus dem Eingabegerät 230. Durch die Referenzkoordinaten und die neuen Koordinaten des Fingers wird ein Bewegungsvektor des Cursors erzeugt. Wenn der Benutzer den Finger von den Referenzkoordinaten von links nach rechts auf der X-Achse um 10 Bildpunkte und von unten nach oben auf der Y-Achse um 20 Bildpunkte bewegt, erhält die Rechenanlage 210 einen Bewegungsvektor (10, 20) des Cursors. Die Rechenanlage 210 bewegt entsprechend diesem Bewegungsvektor den Cursor 240 auf dem Monitor 220 von links nach rechts auf der X-Achse um einen Bildpunkt (10/10 = 1) und von unten nach oben auf der Y-Achse um 2 Bildpunkte (20/10 = 2). Daher liegt nun der Cursor 240 in der Position mit den Koordinaten (513, 386) auf dem Monitor 220.
  • Da das Bedienungsfeld 231 des Eingabegeräts 230 kleiner ist als das Bildschirmfeld 221 des Monitors 220, kann der Finger des Benutzers leicht den Rand des Bedienungsfelds 231 erreichen. Damit der Cursor 240 und die Mapping-Zone 310 kontinuierlich bewegt werden können, wird der Cursor 240 wie folgt unterbrochen, wie es in den 5A, 5B und 5C dargestellt ist:
    Schritt S510: wenn das Eingabegerät die Unterbrechung des Bewegungsvektors des Cursors erfasst, zeichnet die Rechenanlage die Position des Cursors bei der Unterbrechung auf, und
    Schritt S520: wenn ein neuer Bewegungsvektor des Cursors erzeugt wird, verwendet die Rechenanlage die Unterbrechungsposition des Cursors als Startpunkt, bewegt entsprechend dem neuen Bewegungsvektor den Cursor auf dem Monitor und resettet die Mapping-Zone.
  • Wenn der Finger des Benutzers den Rand des Eingabegeräts 230 erreicht (5B), kann er den Cursor nicht mehr bewegen und muss das Eingabegerät verlassen. Dabei zeichnet die Rechenanlage 210 die Position des Cursors 240 auf. Anschließend kann der Benutzer mit dem Finger eine beliebige Stelle im Bedienungsfeld 231 des Eingabegeräts 230 berühren und den Cursor 240 weiter bewegen (5C, der gestrichelte Finger stellt die Position vor der Bewegung dar). Die Rechenanlage 210 empfängt den neuen Bewegungsvektor des Cursors und bewegt den Cursor 240 von der Unterbrechungsposition. Die Rechenanlage 210 bewegt den Cursor 240 auf dem Monitor 220 entsprechend dem neuen Bewegungsvektor und resettet die Mapping-Zone 310. Dadurch wird die Mapping-Zone 310 auch in die neue Position verschoben, um mit dem Eingabegerät 230 zu korrespondieren.
  • Danach kann der Benutzer das gewünschte Objekt 610 in der Mapping-Zone 310 auswählen und die Multi-Touch-Funktion aktivieren. Der Benutzer kann den Finger zu dem Objekt 610 in der Mapping-Zone 310 bewegen und durch einen Klick das Objekt 610 auswählen. Wenn der Benutzer mit einem ersten Finger das Eingabegerät 230 berührt, wird der Berührungspunkt als erster Steuerpunkt definiert. Wenn der Benutzer mit einem zweiten Finger das Eingabegerät 230 berührt, wird der Berührungspunkt als zweiter Steuerpunkt definiert. Wenn die Rechenanlage 210 gleichzeitig den ersten Steuerpunkt und den zweiten Steuerpunkt empfängt, wird es von der Rechenanlage 210 als Aktivierung der Multi-Touch-Funktion definiert.
  • Wenn die Rechenanlage 210 die Aktivierung der Multi-Touch-Funktion empfängt, steuert sie entsprechend den Bewegungsstrecken der Finger (des ersten Steuerpunks und des zweiten Steuerpunkts der Eingabegeräts 230) das Objekt 610, wie die Koordinaten des Objekts 610, das Bildschirmfeld 221 oder der Drehwinkel. Z. B. der Benutzer kann durch die Abstandsänderung von zwei Fingern (d. h. von dem ersten Steuerpunkt und zweiten Steuerpunkt des Eingabegeräts 230) die Größe des Objekts 610 verändern, wie es in den 6A und 6B dargestellt ist. Der Benutzer kann auch durch die relative Positionsänderung von zwei Fingern (d. h. von dem ersten Steuerpunkt und zweiten Steuerpunkt) das Objekt 16 drehen, wie es in den 6C und 6D dargestellt ist.
  • Neben der Steuerung des einzelnen Objekts 16 in der Mapping-Zone 310 kann die Erfindung auch mehr als zwei Objekte 610 in der Mapping-Zone 310 steuern. In den 7A und 7B werden mehrere Objekte in der Mapping-Zone verschoben. Wenn in der Mapping-Zone 310 mehrere Objekte 610 vorhanden sind, kann der Benutzer zunächst ein beliebiges Objekt 610 in der Mapping-Zone 310 auswählen (z. B. durch Klicken mit einem Finger auf das Objekt 610). Anschließend kann der Benutzer mit einem anderen Finger eine andere Stelle berühren, um die Multi-Touch-Funktion zu aktivieren. Nachdem der Benutzer die Multi-Touch-Funktion aktiviert, kann die Rechenanlage 210 entsprechend die Änderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt 610 drehen oder verschieben. Wie aus den 7C und 7D ersichtlich ist, werden mehrere Objekte in der Mapping-Zone gedreht. Wenn der Benutzer mit dem anderen Finger ein anderes Objekt 610 berührt, kann die Rechenanlage 210 durch die relative Positionsänderung der beiden Finger die relative Position der beiden Objekte 610 verändern.
  • Im obengenannten Ausführungsbeispiel besitzt das Eingabegerät 230 keine Anzeigefunktion. Die Erfindung kann auch auf ein Eingabegerät 230 mit Anzeigefunktion angewendet werden. In den 8A und 8B ist die Mapping-Zone 310 des Eingabegeräts 230 gezeigt. Wenn das Eingabegerät 230 die Anzeigefunktion besitzt (Tablet-PC oder Touch-Handy), kann die Rechenanlage 210 nach dem Setten der Mapping-Zone 310 das Bild in der Mapping-Zone 310 auf das Eingabegerät 230 übertragen. Wenn der Cursor 240 und die Mapping-Zone 310 bewegt werden, überträgt die Rechenanlage 210 gleichzeitig das Bild in der Mapping-Zone auf das Eingabegerät 230.
  • Die Erfindung kann weiter die Position der Mapping-Zone 310 im Bildschirmfeld 221 schnell umschalten. In diesem Ausführungsbeispiel umfasst die Erfindung eine Rechenanlage 210, einen Monitor 220 und ein Eingabegerät 230. Das Bildschirmfeld 221 des Monitors 220 besitzt mindestens einen Mapping-Positionierpunkt 910, wie es in 9A dargestellt ist. Der Mapping-Positinierpunkt 910 kann an einer beliebigen Stelle des Bildschirmfelds 221 gesettet werden. Das Bedienungsfeld 231 des Eingabegeräts 230 besitzt mindestens einen Schnellpositionierpunkt 920, wie es in 9B dargestellt ist. Die Anzahl des Mapping-Positinierpunkts 910 ist gleich wie die des Schnellpositionierpunkts 920. Die Position des Schnellpositionierpunkts 920 des Bedienungsfelds 231 entspricht der Position des Mapping-Positinierpunkts 910 des Bildschirmfelds 221. D. h. jeder Mapping-Positinierpunkt 910 korrespondiert mit einem Mapping-Positinierpunkt 910.
  • 9C zeigt ein Ablaufdiagramm eines weiteren Ausführungsbeispiels der Erfindung. Durch den Schnellpositionierpunkt 920 und den Mapping-Positinierpunkt 910 wird der Cursor 240 wie folgt gesteuert:
    Schritt S910: das Bedienungsfeld des Eingabegeräts und das Bildschirmfeld des Monitors werden erfasst;
    Schritt S920: in dem Bildschirmfeld werden mindestens ein Mapping-Positionierpunkt und eine Mapping-Zone gesettet, wobei die Position des Cursors in der Mapping-Zone durch das Eingabesignal des Bedienungsfelds bestimmt wird;
    Schritt S930: im Bedienungsfeld wird mindestens ein Schnellpositionierpunkt gesettet, dessen Position der des Mapping-Positionierpunkts entspricht;
    Schritt S940: das Eingabegerät erzeugt einen Bewegungsvektor des Cursors, wodurch der Cursor im Bildschirmfeld entsprechend dem Bewegungsvektors des Cursors bewegt wird und die Mapping-Zone resettet wird;
    Schritt S950: mindestens ein Objekt in der Mapping-Zone wird ausgewählt und die Multi-Touch-Funktion wird aktiviert, wobei das Eingabegerät durch die relative Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt steuert, wobei das Eingabegerät die Position des Cursors als der erste Steuerpunkt und ein anderes Berührungssignal als der zweite Steuerpunkt definiert, und Schritt S960: wenn das Eingabegerät das Aktiviersignal des Schnellpositionerpunks empfängt, werden die Mapping-Zone und der Cursor zusammen zu dem entsprechenden Mapping-Positionierpunkt bewegt.
  • In diesem Ausführungsbeispiel besitzt der Monitor 220 mindestens einen Mapping-Positionierpunkt 910. Im Bedienungsfeld 231 wird mindestens ein Schnellpositionierpunkt 920 gesettet. Die Position des Schnellpositionierpunkt 920 entspricht der des Mapping-Positionierpunkts 910. D. h. entsprechend der Position des Schnellpositionierpunkts 920 im Bedienungsfeld 231 wird die Position des Mapping-Positionierpunkts 910 im Bildschirmfeld 221 gesettet. Der Mapping-Positionierpunkt 910 und der Schnellpositionierpunkt 920 können real auf dem Bildschirm anzeigt werden, wie mit einem durchsichtigen Farbblock in der entsprechenden Position des Monitors 220. Selbstverständlich können der Mapping-Positionierpunkt 910 und der Schnellpositionierpunkt 920 auch nicht angezeigt werden.
  • In 9D werden im Bedienungsfeld 231 neun Schnellpositionierpunkte 920 (Schwarzblöcke) gesettet. Dadurch sind im Bildschirmfeld 221 auch neun Mapping-Positionierpunkte 910 (gestrichelte Blöcke) vorhanden.
  • Darauf ist die Erfindung jedoch nicht beschränkt. Die Anzahl und die Position des Mapping-Positionierpunkts 910 und des Schnellpositionierpunkts 920 können auch je nach Bedarf verändert werden. Die Positionen der neun Schnellpositionierpunkte 920 entsprechen den Positionen der neun Mapping-Positionierpunkte 910. Die gestrichelten Linien zeigen das Korrespondenzverhältnis der Schnellpositionierpunkte 920 und der Mapping-Positionierpunkte 910. D. h. der linke obere Schnellpositionierpunkt 920 in 9D entspricht dem linken oberen Mapping-Positionierpunkt 910 und der rechte obere Schnellpositionierpunkt 920 in 9D entspricht dem rechten oberen Mapping-Positionierpunkt 910.
  • Wenn das Eingabegerät 230 einen Bewegungsvektor des Cursors erhält, wie im obengenannten Ausführungsbeispiel, wird der Cursor 240 im Bildschirmfeld 221 entsprechend bewegt und die Mapping-Zone 310 entsprechend resettet. Wenn der Benutzer mindestens ein Objekt in der Mapping-Zone 310 auswählt und die Multi-Touch-Funktion aktiviert, kann das Eingabegerät 230 entsprechend der relativen Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt steuern.
  • Um die Steuergeschwindigkeit des Eingabegeräts 230 für den Cursor 240 zu erhöhen, kann in diesem Ausführungsbeispiel die Position des Cursors 240 und der Mapping-Zone 310 im Bildschirmfeld 221 schnell umgeschaltet werden. Wenn das Eingabegerät 230 das Aktiviersignal für einen Schnellpositionierpunkt 920 empfängt, wird die Mapping-Zone 310 und der Cursor 240 zusammen zu dem entsprechenden Mapping-Positionierpunkt 910 bewegt werden. Das Aktiversignal kann durch eine längere Berühung oder eine Tastenkombination erzeugt werden. Z. B. wenn der Benutzer die Ctrl-Taste drückt und den Schnellpositionierpunkt 920 berührt, kann der Cursor 240 direkt zu dem entsprechenden Mapping-Positionerpunkt 910 bewegt und die Mapping-Zone 310 entsprechend der Position des Cursors 240 resettet werden.
  • Wie aus den 10A und 10B ersichtlich ist, wenn sich der Cursor 240 in der Position in 10A befindet und der Benutzer den Cursor 240 und die Mapping-Zone 310 schnell zu dem Mapping-Positionierpunkt 910 im Bildschirmfeld 221 bewegen möchte, kann er die Ctrl-Taste drücken und den mittigen Schnellpositionierpunkt 920 im Bedienungsfeld 231 des Eingabegeräts 230 berühren. Dadurch wird der Cursor 240 im Bildschirmfeld 220 von der Position in 10A direkt zu der Position in 10B bewegt und die Mapping-Zone 310 resettet.
  • In 10A wird der linke obere Mapping-Positionierpunkt als der erste Mapping-Positionierpunkt 911 definiert. Der entsprechende Schnellpositionierpunkt wird als der erste Schnellpositionierpunkt 921 definiert. Wenn das Eingabegerät ein Signal für den ersten Schnellpositionierpunkt empfängt, wird der Cursor 240 auf dem Bildschirmfeld 240 zu dem ersten Mapping-Positionierpunkt 911 bewegt. Damit die Mapping-Zone 310 nicht den Rand des Bildschirmfelds 221 überschreitet, wird der Cursor 240 in der linken oberen Ecke der neuen Mapping-Zone 310 positioniert, wie es in 10C dargestellt ist.
  • Wenn das Eingabegerät 230 ein Aktiviersignal für den rechten unteren Schnellpositionierpunkt in 10A empfängt, wird der Curor 240 des Monitors 220 zu dem rechten unteren Mapping-Positionierpunkt bewegt. Gleicherweise wird der Cursor 240 in der rechten unteren Ecke der neuen Mapping-Zone 310 positioniert, wie es in 10D dargestellt ist.
  • Die vorstehende Beschreibung stellt nur die bevorzugten Ausführungsbeispiele der Erfindung dar und soll nicht als Definition der Grenzen und des Bereiches der Erfindung dienen. Alle gleichwertige Änderungen und Modifikationen gehören zum Schutzbereich dieser Erfindung.
  • Bezugszeichenliste
  • Fig. 1
  • 220
    Monitor
    221
    Bildschirmfeld
    230
    Eingabegerät
    240
    Cursor
    210
    Rechenanlage
    Fig. 2
    211
    Mapping-Prozess
    S310
    wenn das Eingabegerät mit der Rechenanlage verbunden ist, wird der Mapping-Prozess geladen, um das Bedienungsfeld des Eingabegeräts und das Bildschirmfeld des Monitors zu erfassen;
    S320
    der Cursor wird auf die Startkoordinaten positioniert und entsprechend dem Cursor und dem Bedienungsfeld wird auf dem Monitor eine Mapping-Zone gesettet;
    S330
    das Eingabegerät erzeugt den Bewegungsvektor des Cursors und bewegt entsprechend dem Bewegungsvektor den Cursor auf dem Monitor, wobei die Mapping-Zone gleichzeitig resettet wird;
    S340
    wenn der Benutzer mindestens ein Objekt in der Mapping-Zone auswählt und die Multi-Touch-Funktion aktiviert, steuert das Eingabegerät entsprechend der Bewegungsstrecke, der durch einen ersten Berühungspunkt und einen zweiten Steuerpunkt erzeugt wird, das Objekt.
    Fig. 3
    220
    Monitor
    221
    Bildschirmfeld
    Anwendunsprogramm 1
    Anwendungsprogramm 2
    Anwendungsprogramm 3
    310
    Mapping-Zone
    230
    Eingabegerät
    231
    Bedienungsfeld
    Fig. 4A
    220
    Monitor
    221
    Bildschirmfeld
    Anwendungsprogramm 1
    Anwendungsprogramm 2
    Anwendungsprogramm 3
    310
    Mapping-Zone
    230
    Eingabegerät
    231
    Bedienungsfeld
    240
    Cursor
    Fig. 4B
    S510
    wenn das Eingabegerät die Unterbrechung des Bewegungsvektors des Cursors erfasst, zeichnet die Rechenanlage die Position des Cursors bei der Unterbrechung auf;
    S520
    wenn ein neuer Bewegungsvektor des Cursors erzeugt wird, verwendet die Rechenanlage die Unterbrechungsposition des Cursors als Startpunkt, bewegt entsprechend dem neuen Bewegungsvektor den Cursor auf dem Monitor und resettet die Mapping-Zone.
    Fig. 5A
    610
    Objekt
    Fig. 6A
    910
    Mapping-Positionierpunkt
    Fig. 9A
    920
    Schnellpositionierpunkt
    Fig. 9B
    S910
    das Bedienungsfeld des Eingabegeräts und das Bildschirmfeld des Monitors werden erfasst;
    S920
    in dem Bildschirmfeld werden mindestens ein Mapping-Positionierpunkt und eine Mapping-Zone gesettet, wobei die Position des Cursors in der Mapping-Zone durch das Eingabesignal des Bedienungsfelds bestimmt wird;
    S930
    im Bedienungsfeld wird mindestens ein Schnellpositionierpunkt gesettet, dessen Position der des Mapping-Positionierpunkts entspricht;
    S940
    das Eingabegerät erzeugt einen Bewegungsvektor des Cursors, wodurch der Cursor im Bildschirmfeld entsprechend dem Bewegungsvektors des Cursors bewegt wird und die Mapping-Zone resettet wird;
    S950
    mindestens ein Objekt in der Mapping-Zone wird ausgewählt und die Multi-Touch-Funktion wird aktiviert, wobei das Eingabegerät durch die relative Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt steuert, wobei das Eingabegerät die Position des Cursors als der erste Steuerpunkt und ein anderes Berührungssignal als der zweite Steuerpunkt definiert;
    S960
    wenn das Eingabegerät das Aktiviersignal des Schnellpositionerpunks empfängt, werden die Mapping-Zone und der Cursor zusammen zu dem entsprechenden Mapping-Positionierpunkt bewegt.
    Fig. 9C
    911
    erster Mapping-Positionierpunkt
    921
    erster Schnellpositionierpunkt
    10A

Claims (10)

  1. Verfahren für Multi-Touch-Steuerung, das durch ein Eingabegerät mit der Multi-Touch-Funktion den Cursor auf einem Monitor steuert und folgende Schritte enthält: das Bedienungsfeld des Eingabegeräts und das Bildschirmfeld des Monitors werden erfasst; im Bildschirmfeld werden mindestens ein Mapping-Positionierpunkt und eine Mapping-Zone gesettet und entsprechend dem Eingabesignal des Bedienungsfelds wird die Position des Cursors in der Mapping-Zone bestimmt; im Bedienungsfeld wird mindestens ein Schnellpositionierpunkt gesettet, dessen Position der des Mapping-Positionierpunkts entspricht; das Eingabegerät erzeugt einen Bewegungsvektor des Cursors, wodurch der Cursor des Monitors entsprechend dem Bewegungsvektors des Cursors bewegt wird und die Mapping-Zone resettet wird; mindestens ein Objekt in der Mapping-Zone wird ausgewählt und die Multi-Touch-Funktion wird aktiviert, wobei das Eingabegerät durch die relative Positionsänderung des ersten Steuerpunkts und des zweiten Steuerpunkts das Objekt steuert, wobei das Eingabegerät die Position des Cursors als der erste Steuerpunkt und ein anderes Berührungssignal als der zweite Steuerpunkt definiert, und wenn das Eingabegerät das Aktiviersignal des Schnellpositionerpunks empfängt, werden die Mapping-Zone und der Cursor zusammen zu dem entsprechenden Mapping-Positionierpunkt bewegt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt zum Setten der Mapping-Zone weiter enthält: entsprechend dem Bedienungsfeld und dem Bildschirmfeld wird eine Korrelationstabelle erstellt; aus der Korrelationstabelle wird die Mapping-Zone erfasst; und auf dem Monitor wird die Mapping-Zone mit dem Cursor gesettet.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt zur Erzeugung des Bewegungsvektors des Cursors weiter enthält: entsprechend dem Bedienungsfeld und dem Bildschirmfeld wird eine Korrelationstabelle erstellt; und entsprechend der Korrelationstabelle wird durch den Bewegungsvektors des Cursors des Eingabegeräts die Bewegungsstrecke des Cursors auf dem Monitor errechnet.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Schritt zur Erzeugung des Bewegungsvektors des Cursors weiter enthält: wenn das Eingabegerät die Unterbrechung des Bewegungsvektors des Cursors erfasst, wird die Position des Cursors bei der Unterbrechung aufgezeichnet; und wenn ein neuer Bewegungsvektor des Cursors erzeugt wird, wird die Unterbrechungsposition des Cursors als Startpunkt verwendet, der Cursor des Monitors entsprechend dem neuen Bewegungsvektor bewegt und die Mapping-Zone resettet.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Steuerung des Objekts die Steuerung der Koordinaten, des Bildschirmfelds und des Drehwinkels enthält.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn das Eingabegerät eine Anzeigefunktion besitzt, der Monitor beim Setten der Mapping-Zone das Bild in der Mapping-Zone auf das Eingabegerät überträgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass wenn der Bewegungsvektor des Cursors erzeugt wird, die Position der Mapping-Zone auf dem Monitor resettet und das Bild in der Mapping-Zone auf das Eingabegerät übertragen wird.
  8. Verfahren nach Anspruch 1, gekennzeichent durch eine Rechenanlage, die mit dem Monitor und dem Eingabegerät verbunden ist.
  9. Eingabesystem mit der Multi-Touch-Steuerung, umfassend einen Monitor (220), der ein Bildschirmfeld (221) mit einem Cursor (240) aufweist, in dem mindestens ein Mapping-Positionierpunkt (910) gesettet wird; eine Rechenanlage (210), die mit dem Monitor (220) elektrisch verbunden ist und entsprechend dem empfangenen Bewegungssignal des Cursors die Position des Cursors auf dem Bildschirmfeld (221) errechnet; und ein Eingabegerät (230), das mit der Rechenanlage (210) verbunden ist und ein Bedienungsfeld (231) aufweist, das ein Bewegungssignal des Cursors empfangen kann, wodurch das Eingabegerät entsprechend dem Bewegungssignal einen Bewegungsvektor des Cursors erzeugt, wobei auf dem Bedienungsfeld (231) mindestens ein Schnellpositionierpunkt (920) gesettet wird, der einem Mapping-Positionierpunkt (910) entspricht, wobei wenn das Eingabegerät (230) ein Aktiviersignal für einen Schnellpositionierpunkt (920) empfängt, die Mapping-Zone (310) und der Cursor (240) zu dem entsprechenden Mapping-Positionierpunkt (910) bewegt werden.
  10. Eingabesystem nach Anspruch 9, dadurch gekennzeichnet, dass die Anzahl des Schnellpositionierpunkts (920) der des Mapping-Positionierpunkts (910) entspricht.
DE102012013115A 2010-07-30 2012-06-28 Verfahren und System für Multi-Touch-Steuerung Withdrawn DE102012013115A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
TW99125446 2010-07-30
TW100127113A TWI442305B (zh) 2010-07-30 2011-07-29 多點控制的操作方法及其控制系統
TW100127113 2011-07-29

Publications (1)

Publication Number Publication Date
DE102012013115A1 true DE102012013115A1 (de) 2013-03-14

Family

ID=46761633

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012013115A Withdrawn DE102012013115A1 (de) 2010-07-30 2012-06-28 Verfahren und System für Multi-Touch-Steuerung

Country Status (4)

Country Link
US (1) US20130027301A1 (de)
JP (1) JP5384706B2 (de)
DE (1) DE102012013115A1 (de)
TW (1) TWI442305B (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104007849B (zh) * 2013-02-26 2017-09-22 原相科技股份有限公司 虚拟导航装置及其导航方法
KR20140107829A (ko) * 2013-02-28 2014-09-05 삼성전자주식회사 디스플레이장치, 입력장치 및 그 제어방법
JP6120948B2 (ja) * 2013-03-27 2017-04-26 オリンパス株式会社 マスタスレーブシステム
KR102009279B1 (ko) * 2013-09-13 2019-08-09 엘지전자 주식회사 이동 단말기
JP2018018205A (ja) * 2016-07-26 2018-02-01 株式会社デンソーテン 表示手段の画面上の位置を決定する入力システム、検知装置、制御装置、プログラム及び方法
TWI739673B (zh) * 2020-11-24 2021-09-11 明基電通股份有限公司 觸控顯示裝置與其游標控制方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772856B2 (ja) * 1990-09-10 1995-08-02 株式会社日立製作所 ポインティング装置およびその座標変換方法
JPH08185265A (ja) * 1994-12-28 1996-07-16 Fujitsu Ltd タッチパネル制御装置
JPH09258901A (ja) * 1996-03-26 1997-10-03 Smk Corp 座標入力装置と座標入力装置によるカーソル制御方式
JP4109902B2 (ja) * 2002-05-27 2008-07-02 キヤノン株式会社 表示装置
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
TW201104529A (en) * 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
TW201133327A (en) * 2010-03-24 2011-10-01 Acer Inc Multiple displays electric apparatus and operation method thereof

Also Published As

Publication number Publication date
TWI442305B (zh) 2014-06-21
TW201205421A (en) 2012-02-01
JP5384706B2 (ja) 2014-01-08
US20130027301A1 (en) 2013-01-31
JP2013033462A (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
DE102012013368B4 (de) Mobilgerät und Verfahren zum Steuern von dessen Bildschirm
DE102012013115A1 (de) Verfahren und System für Multi-Touch-Steuerung
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
DE102006060068B4 (de) Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist
DE102010060975A1 (de) Virtuelles Touchpad für eine Berührungsanordnung
DE202007019456U1 (de) Mobile elektronische Vorrichtung mit Berührungseingabeeinrichtung
DE212009000073U1 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE102008061039A1 (de) Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle
DE102012014603B4 (de) Betriebssystem und Verfahren für den synchronisierten Betrieb einer Touch-Vorrichtung
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE102012014098A1 (de) Verfahren zur Imitation der Touchscreen-Steuerung durch eine Maus
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
CN106020473A (zh) 界面操作方法及系统
WO2017138223A1 (ja) 画像処理装置、画像処理システム及び画像処理方法
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE10084249T5 (de) Zusätzliches LCD-Feld mit Sensorbildschirm
US20130002714A1 (en) Display control apparatus and method for controlling display
DE102017115526A1 (de) Informationsverarbeitungsgerät, Verfahren zum Reduzieren einer Fehlbedienung und Programm
DE102011000771A1 (de) Eingabegerät, Maus, Fernsteuerung, Steuerkreis, elektronisches System und Verfahren zur Steuerung
CN111273844B (zh) 触摸显示装置的多信号源切换控制方法和触摸显示装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003033000

Ipc: G06F0003048100

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003033000

Ipc: G06F0003048100

Effective date: 20130307

R082 Change of representative

Representative=s name: MARSCHALL & PARTNER, DE

Representative=s name: ELBPATENT - MARSCHALL & PARTNER PARTGMBB, DE

R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee