AT519427B1 - Method for controlling a data processing system - Google Patents
Method for controlling a data processing system Download PDFInfo
- Publication number
- AT519427B1 AT519427B1 ATA51143/2016A AT511432016A AT519427B1 AT 519427 B1 AT519427 B1 AT 519427B1 AT 511432016 A AT511432016 A AT 511432016A AT 519427 B1 AT519427 B1 AT 519427B1
- Authority
- AT
- Austria
- Prior art keywords
- input
- contact
- touch
- point
- input device
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0312—Detection arrangements using opto-electronic means for tracking the rotation of a spherical or circular member, e.g. optical rotary encoders used in mice or trackballs using a tracking ball or in mouse scroll wheels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Steuerung einer Datenverarbeitungsanlage (5) mit einer positionsauflösenden berührungssensitiven Eingabefläche (1) und einer beliebigen Anzahl und Art von Eingabeobjekten, wobei zumindest ein Eingabeobjekt ein Eingabegerät (2) ist, welches einen Kontaktsensor (3) und einen Inertialsensor (4) aufweist.The invention relates to a method for controlling a data processing system (5) with a position-resolving touch-sensitive input surface (1) and any number and type of input objects, wherein at least one input object is an input device (2) comprising a contact sensor (3) and an inertial sensor (3). 4).
Description
[0001] Die Erfindung betrifft ein Verfahren zur Steuerung einer Datenverarbeitungsanlage mit einer positionsauflösenden berührungssensitiven Eingabefläche und einer beliebigen Anzahl und Art von Eingabeobjekten, wobei zumindest ein Eingabeobjekt ein Eingabegerät ist, welches einen Kontaktsensor und einen Inertialsensor aufweist.The invention relates to a method for controlling a data processing system with a position-resolving touch-sensitive input surface and any number and type of input objects, at least one input object being an input device which has a contact sensor and an inertial sensor.
[0002] Eine Datenverarbeitungsanlage im Sinn dieser Schrift ist eine Vorrichtung, welche Eingangssignale von Eingabegeräten verarbeitet und daraus Daten oder Ausgangssignale für Ausgabegeräte generiert.A data processing system in the sense of this document is a device that processes input signals from input devices and generates data or output signals for output devices therefrom.
[0003] Eine Eingabefläche im Sinn dieser Schrift ist eine Vorrichtung, welche berührungssensitiv ist, also Berührungen oder Annäherungen von Objekten wahrnimmt, und positionsauflösend ist, also die Positionen detektiert, an welchen die Objekte angenähert werden, oder die Berührungen stattfinden und diese Informationen in Form eines Signals an eine Datenverarbeitungsanlage sendet.An input surface in the sense of this document is a device which is touch-sensitive, that is, senses touches or approaches of objects, and is position-resolving, i.e. detects the positions at which the objects are approached, or the touches take place and this information in the form sends a signal to a data processing system.
[0004] Ein Eingabeobjekt im Sinn dieser Schrift ist ein beliebiges Objekt, dessen Berührung oder Annäherung von der Eingabefläche wahrgenommen wird.An input object in the sense of this document is any object whose contact or approach is perceived by the input surface.
[0005] Ein Eingabegerät im Sinn dieser Schrift ist ein beliebiges Objekt, dessen Berührung oder Annäherung von der Eingabefläche wahrgenommen wird und welches zusätzlich einen Kontaktsensor und einen Inertialsensor aufweist.An input device in the sense of this document is any object, the touch or approach of which is perceived by the input surface and which additionally has a contact sensor and an inertial sensor.
[0006] Ein Kontaktsensor im Sinn dieser Schrift ist ein Sensor, der bereits die Annäherung des Eingabegeräts an eine Oberfläche erkennt oder erst die Berührung der Oberfläche durch das Eingabegerät erkennt.A contact sensor in the sense of this document is a sensor that already detects the approach of the input device to a surface or only detects the touch of the surface by the input device.
[0007] Ein Inertialsensor im Sinn dieser Schrift ist ein Sensor, der die relative Bewegung des Eingabegeräts im Raum in oder um zumindest eine Raumrichtung, beispielsweise in Form von Beschleunigung, erfasst.An inertial sensor in the sense of this document is a sensor that detects the relative movement of the input device in space in or around at least one spatial direction, for example in the form of acceleration.
[0008] Die US2016139690A1 zeigt ein Eingabegerät, in Form eines Eingabestiftes, welches unter anderem einen Kontaktsensor und einen Inertialsensor aufweisen kann, wobei das Eingabegerät an einer positionsauflösenden berührungssensitiven Eingabefläche zur Dateneingabe verwendet werden kann. In Absatz [0069] ist angeführt, dass mehrere Eingabestifte verwendet werden können, um mit den Sensordaten der Inertialsensoren Geräte oder Anwendungen steuern zu können. In der US2016139690A1 wird aber keine Lösung beschrieben, wie bei Eingabe mit mehreren Eingabeobjekten an einer positionsauflösenden berührungssensitiven Eingabefläche unterschieden werden kann, welches Eingabeobjekt für welchen Berührungspunkt auf der Eingabefläche verantwortlich ist.[0008] US2016139690A1 shows an input device in the form of an input pen, which can have, among other things, a contact sensor and an inertial sensor, wherein the input device can be used on a position-resolving touch-sensitive input surface for data input. Paragraph [0069] states that several styluses can be used to control devices or applications with the sensor data of the inertial sensors. However, US2016139690A1 does not describe a solution as to how a distinction can be made in the case of input with several input objects on a position-resolving touch-sensitive input surface, which input object is responsible for which touch point on the input surface.
[0009] Die US2014146021A1 zeigt ebenfalls ein Eingabegerät, in Form eines Eingabestiftes, welches unter anderem einen Kontaktsensor und einen Inertialsensor aufweisen kann. In Absatz [0031] ist angeführt, dass mehrere Eingabestifte verwendet werden können, um Daten an ein Bildschirmgerät zu übermitteln. In der US2014146021A1 wird aber ebenfalls keine Lösung beschrieben, wie bei Eingabe mit mehreren Eingabeobjekten an einer positionsauflösenden berührungssensitiven Eingabefläche unterschieden werden kann, welches Eingabeobjekt für welchen Berührungspunkt auf der Eingabefläche verantwortlich ist.The US2014146021A1 also shows an input device, in the form of an input pen, which may include a contact sensor and an inertial sensor. Paragraph [0031] states that multiple styluses can be used to transmit data to a display device. However, US2014146021A1 also does not describe a solution as to how a distinction can be made when entering with multiple input objects on a position-resolving touch-sensitive input surface, which input object is responsible for which touch point on the input surface.
[0010] Die US2015049022A1 beschreibt ein Verfahren zur Eingabe von Daten an einer positionsauflösenden berührungssensitiven Eingabefläche mit einem Eingabegerät in Form einer Computermaus, also einem Eingabegerät, welches die zweidimensionale Bewegung von sich selbst entlang einer Oberfläche detektiert. Dabei wird vorgeschlagen, das absolute zweidimensionale Bewegungssignal eines Berührungspunktes auf der Eingabefläche und das relative zweidimensionale Bewegungssignal der Computermaus miteinander zu vergleichen, um festzustellen ob diese Bewegungen ident sind. Nachteilig an der Verwendung eines Eingabegeräts in Form einer Computermaus, sowohl im Fall einer optischen Maus oder einer Kugelmaus, ist, dass deren Sensor zur Detektion der relativen Bewegung anfällig für Beschädigung oder VerThe US2015049022A1 describes a method for entering data on a position-resolving touch-sensitive input surface with an input device in the form of a computer mouse, that is, an input device that detects the two-dimensional movement of itself along a surface. It is proposed to compare the absolute two-dimensional movement signal of a point of contact on the input surface and the relative two-dimensional movement signal of the computer mouse to determine whether these movements are identical. A disadvantage of using an input device in the form of a computer mouse, both in the case of an optical mouse or a ball mouse, is that its sensor for detecting the relative movement is susceptible to damage or ver
1/171.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt schmutzung ist und/oder manche Oberflächen keine exakte Erfassung der Relativbewegung ermöglichen.Patent office dirt is and / or some surfaces do not allow exact detection of the relative movement.
[0011] Die der Erfindung zu Grunde liegende Aufgabe besteht darin ausgehend von der US2015049022A1 ein Verfahren zu schaffen, um bei der Steuerung einer Datenverarbeitungsanlage mit einer beliebigen positionsauflösenden berührungssensitiven Eingabefläche die gleichzeitige Verwendung und Unterscheidung von mehreren identen Eingabegeräten zu ermöglichen, wobei ident in diesem Zusammenhang bedeutet, dass deren Identität nicht allein aus den Signalen der positionsauflösenden berührungssensitiven Eingabefläche bestimmt werden kann, ohne dabei wie in der US2015049022A1 vorgeschlagen, die Eingabegeräte mit der Funktionalität einer Computermaus ausstatten zu müssen.The object underlying the invention is based on US2015049022A1 to create a method to enable the simultaneous use and differentiation of several identical input devices in the control of a data processing system with any position-resolving touch-sensitive input surface, being identical in this context means that their identity cannot be determined solely from the signals of the position-resolving touch-sensitive input surface, without having to equip the input devices with the functionality of a computer mouse as suggested in US2015049022A1.
[0012] Für das Lösen der Aufgabe wird vorgeschlagen, jedes Eingabegerät mit Kontaktsensor, beispielsweise mechanisch, kapazitiv oder optisch, und Inertialsensor, bevorzugt in bzw. nahe einer Spitze des Eingabegeräts, auszustatten und die Daten dieser Sensoren laufend an die Datenverarbeitungsanlage zu senden, wobei zudem die Positionen aller Berührungspunkte, welche die positionsauflösende berührungssensitive Eingabefläche wahrnimmt, von dieser laufend an die Datenverarbeitungsanlage gesendet werden und für jeden wahrgenommenen Berührungspunkt und für die jeweils von einem Eingabegerät gesendeten Daten die Wahrscheinlichkeit berechnet wird, mit welcher eine Korrelation dieser Daten vorliegt, wobei zuerst festgestellt wird, ob eine zeitliche Korrelation des Auftretens eines Signals des Kontaktsensors eines oder mehrerer Eingabegeräte mit dem Auftreten eines oder mehrerer Berührungspunkte vorliegt und wenn ja festgestellt wird, mit welcher Wahrscheinlichkeit der Verlauf eines Berührungspunktes auf der positionsauflösenden berührungssensitiven Eingabefläche und der Verlauf der vom Inertialsensor detektierten räumlichen Bewegung eines Eingabegeräts dieselbe bzw. eine korrelierende Bewegung beschreiben.To solve the problem, it is proposed to equip each input device with a contact sensor, for example mechanical, capacitive or optical, and inertial sensor, preferably in or near a tip of the input device, and to continuously send the data of these sensors to the data processing system, wherein In addition, the positions of all touch points that the position-resolving touch-sensitive input surface perceives, are continuously sent by it to the data processing system and for each perceived touch point and for the data sent by an input device, the probability with which this data is correlated is calculated, first it is determined whether there is a temporal correlation of the occurrence of a signal from the contact sensor of one or more input devices with the occurrence of one or more contact points and, if so, the probability with which the course occurs it touch point on the position-resolving touch-sensitive input surface and the course of the spatial movement of an input device detected by the inertial sensor describe the same or a correlating movement.
[0013] Die Zuordnung von Eingabeobjekten und Eingabegeräten kann nach folgendem Schema erfolgen:The assignment of input objects and input devices can be done according to the following scheme:
[0014] Sobald die Datenverarbeitungsanlage das Auftauchen eines Berührungspunkts auf einer Eingabefläche wahrnimmt, ermittelt diese, ob innerhalb einer kurzen Zeit vor oder nach dem Erscheinen des Berührungspunkts die Kontaktsensoren von einem oder mehreren Eingabegeräten aktiv wurden oder werden. Wenn ja werden die möglichen Kombinationen von Berührungspunkten auf der Eingabefläche und Berührungssignale von Kontaktsensoren gespeichert. Es ergeben sich folgende Möglichkeiten:As soon as the data processing system perceives the appearance of a touch point on an input surface, it determines whether the contact sensors of one or more input devices have become active within a short time before or after the appearance of the touch point. If so, the possible combinations of touch points on the input surface and touch signals from contact sensors are stored. The following options are available:
[0015] - Es gibt keine zeitliche Korrelation eines Berührungssignals eines Kontaktsensors mit dem Auftauchen eines Berührungspunkts, dann wird der Berührungspunkt als „nopen touch“, also als nicht durch ein Eingabegerät hervorgerufen, behandelt.- There is no temporal correlation of a touch signal from a contact sensor with the appearance of a touch point, then the touch point is treated as "nopen touch", that is, as not caused by an input device.
[0016] - Das Auftauchen genau eines Berührungspunkts auf der Eingabeflächen korreliert zeitlich mit genau einem Berührungssignal eines Kontaktsensors, dann kann dieser Berührungspunkt als „pen touch“, also als durch ein Eingabegerät hervorgerufen, behandelt werden.- The appearance of exactly one point of contact on the input surfaces correlates in time with exactly one touch signal from a contact sensor, then this point of contact can be treated as a "pen touch", that is, as caused by an input device.
[0017] - Wenn es mehrere zeitliche Korrelationen zwischen dem Auftauchen von Berührungspunkten auf der Eingabefläche und dem Auftauchen von Berührungssignalen von Kontaktsensoren gibt, wird jeder möglichen Korrelationskombination ein Wahrscheinlichkeitswert zugeordnet, der angibt, wie wahrscheinlich es ist, dass ein Eingabegerät mit dem der Korrelationskombination zugehörigen Kontaktsensor eine Eingabefläche an dem Ort berührt hat, an dem der der Korrelationskombination zugehörige Berührungspunkt aufgetaucht ist. In diesem Fall werden die Schritte a-c ausgeführt.If there are several temporal correlations between the appearance of touch points on the input surface and the appearance of touch signals from contact sensors, each possible correlation combination is assigned a probability value which indicates how likely it is that an input device is associated with that of the correlation combination Contact sensor has touched an input surface at the location where the contact point associated with the correlation combination has appeared. In this case, steps a-c are carried out.
[0018] a. Der Wahrscheinlichkeitswert jeder Korrelationskombination wird in der Folge in sehr kurzen, beispielsweise regelmäßigen, Zeitabständen aktualisiert. Hierfür werden einerseits die Daten des der Korrelationskombination zugehörigen Kontaktsensors mit der Aktivität des der Korrelationskombination zugehörigen Berührungspunkts abgeglichen, andererseits die Bewegungsdaten des der Korrelations[0018] a. The probability value of each correlation combination is subsequently updated at very short, for example regular, time intervals. For this purpose, on the one hand the data of the contact sensor belonging to the correlation combination are compared with the activity of the contact point belonging to the correlation combination, on the other hand the movement data of the correlation
2/172.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt kombination zugehörigen Inertialsensors mit der Bewegungstrajektorie des der Korrelationskombination zugehörigen Berührungspunkts. Wenn es eine hohe Übereinstimmung der abgeglichenen Daten gibt, steigt der Wahrscheinlichkeitswert der Korrelationskombination, anderenfalls sinkt er.Patent office combination associated inertial sensor with the movement trajectory of the point of contact associated with the correlation combination. If there is a high match of the matched data, the probability value of the correlation combination increases, otherwise it decreases.
[0019] b. Nach jeder Aktualisierung der Wahrscheinlichkeitswerte für alle zu einem Zeitpunkt auftretenden Korrelationskombinationen wird jede mögliche Korrelationskombination, deren Wert unter eine bestimmte Schwelle sinkt, gelöscht und/oder der Berührungspunkt jener Korrelationskombination, deren Wahrscheinlichkeitswert um einen bestimmten Faktor über den Wahrscheinlichkeitswert aller konkurrierenden Korrelationskombinationen steigt, als „pen touch“ behandelt, sowie die konkurrierenden Korrelationskombinationen gelöscht.B. After each update of the probability values for all correlation combinations occurring at a point in time, any possible correlation combination whose value falls below a certain threshold is deleted and / or the point of contact of that correlation combination, the probability value of which increases by a certain factor over the probability value of all competing correlation combinations, as “ pen touch ”and the competing correlation combinations were deleted.
[0020] c. Anschließend wird für jeden Berührungspunkt geprüft, ob noch mögliche Korrelationskombinationen vorliegen. Im Falle, dass keine vorliegt, wird der Berührungspunkt als „no-pen touch“ behandelt. Falls genau eine vorliegt, wird der Berührungspunkt als „pen touch“ behandelt.[0020] c. It is then checked for each contact point whether there are still possible correlation combinations. If there is none, the contact point is treated as a "no-pen touch". If there is exactly one, the point of contact is treated as a "pen touch".
[0021] Unter Korrelationskombination ist eine mögliche Kombination von Eingabegerät und Berührungspunkt zu verstehen. Die Anzahl der Korrelationskombinationen ergibt sich aus der Anzahl von Berührungspunkten multipliziert mit der Anzahl von Berührungssignalen, deren Auftreten zeitlich korreliert.Correlation combination is to be understood as a possible combination of input device and contact point. The number of correlation combinations results from the number of touch points multiplied by the number of touch signals whose occurrence correlates in time.
[0022] Bei zeitlicher Korrelation des Auftretens dreier Berührungspunkte auf der Eingabefläche und zweier Berührungssignale von Eingabegeräten beträgt die Anzahl der möglichen Korrelationskombinationen sechs.If the occurrence of three contact points on the input surface and two touch signals from input devices is correlated in time, the number of possible correlation combinations is six.
[0023] Konkurrierende Korrelationskombinationen sind Korrelationskombinationen, welche ein Eingabegerät oder einen Berührungspunkt gemeinsam haben, sodass sich diese konkurrierenden Korrelationskombinationen gegenseitig ausschließen. Wird beispielsweise eines von zwei möglichen Eingabegeräten einem von drei möglichen Berührungspunkten als „pen-touch“ zugeordnet, dann stehen für das zweite Eingabegeräten nur noch zwei mögliche Berührungspunkte zur Verfügung. Es wurde daher eine Korrelationskombination bestätigt und drei konkurrierende Korrelationskombinationen gelöscht, sodass nur noch zwei mögliche Korrelationskombinationen verbleiben.Competing correlation combinations are correlation combinations that have an input device or a touch point in common, so that these competing correlation combinations are mutually exclusive. If, for example, one of two possible input devices is assigned to one of three possible touch points as "pen-touch", then only two possible touch points are available for the second input device. A correlation combination was therefore confirmed and three competing correlation combinations were deleted, so that only two possible correlation combinations remain.
[0024] Vorteilhaft an der gegenständlichen Erfindung ist, dass die Eingabegeräte, auch wenn diese nicht die Funktionalität einer Computermaus aufweisen, untereinander und von anderen Eingabeobjekten unterschieden werden können. Die Eingabegeräte können also einen einfacheren Aufbau als eine Computermaus, insbesondere ein geschlossenes und somit schmutzresistentes Gehäuse, aufweisen.An advantage of the present invention is that the input devices, even if they do not have the functionality of a computer mouse, can be distinguished from one another and from other input objects. The input devices can therefore have a simpler structure than a computer mouse, in particular a closed and thus dirt-resistant housing.
[0025] Die gegenständliche Erfindung ermöglicht somit vorteilhaft die Unterscheidung von Eingabegeräten, wie beispielsweise aus den US2016139690A1 und US2014146021A1 bekannt, untereinander und von anderen Eingabeobjekten bei Eingabe an einer oder mehreren Eingabeflächen und daher die unterschiedliche Behandlung der Eingaben unterschiedlicher Eingabegeräte und Eingabeobjekte.The subject invention thus advantageously allows the differentiation of input devices, such as known from US2016139690A1 and US2014146021A1, among themselves and from other input objects when inputting to one or more input surfaces and therefore the different handling of the inputs of different input devices and input objects.
[0026] Die Erfindung wird an Hand von Zeichnungen zu beispielhaften erfindungsgemäßen Ausführungsvarianten veranschaulicht:[0026] The invention is illustrated with reference to drawings of exemplary embodiment variants according to the invention:
[0027] Fig. 1: zeigt schematisch die Komponenten, welche zur Umsetzung des erfindungsgemäßen Verfahrens benötigt werden.Fig. 1: shows schematically the components that are required to implement the inventive method.
[0028] Fig. 2: verdeutlicht schematisch das erfindungsgemäße Verfahren, indem die Signale dargestellt sind, anhand welcher die Datenverarbeitungsanlage die Zuordnung von Eingabegeräten zu Berührungspunkten vornimmt.2: schematically illustrates the method according to the invention, in which the signals are shown, on the basis of which the data processing system carries out the assignment of input devices to points of contact.
[0029] Fig. 3: zeigt schematisch die durch die Datenverarbeitungsanlage vorgenommene Zuordnung von Eingabegeräten zu Berührungspunkten, anhand der erhaltenen Signale der Fig. 2.3: shows schematically the assignment of input devices to points of contact made by the data processing system, based on the signals obtained from FIG. 2.
3/173.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt [0030] Fig. 4: zeigt schematisch drei zeitgleich auftretende Berührungspunkte an der Eingabefläche und die Signale der Kontaktsensoren von zwei Eingabegeräten zum Zeitpunkt des Auftretens.Patent Office [0030] FIG. 4: shows schematically three points of contact that occur simultaneously on the input surface and the signals of the contact sensors from two input devices at the time of the occurrence.
[0031] Fig. 5: zeigt schematisch die Zeitpunkte des Verschwindens der drei zeitgleich auftretenden Berührungspunkte an der Eingabefläche und die Signale der Kontaktsensoren von zwei Eingabegeräten nach Verschwinden aller Berührungspunkte.Fig. 5: shows schematically the times of the disappearance of the three simultaneous contact points on the input surface and the signals of the contact sensors of two input devices after the disappearance of all touch points.
[0032] Fig. 6: zeigt schematisch die durch die Datenverarbeitungsanlage vorgenommene Zuordnung von Eingabegeräten zu Berührungspunkten, anhand der erhaltenen Signale der Fig. 3 und Fig. 4.6: shows schematically the assignment of input devices to points of contact made by the data processing system, on the basis of the signals received from FIGS. 3 and 4.
[0033] Fig. 7: zeigt schematisch eine Variante mit Nutzung eines optischen Sensors im Eingabegerät.Fig. 7: shows schematically a variant using an optical sensor in the input device.
[0034] In Fig. 1 ist schematisch das System, welches zur Umsetzung des erfindungsgemäßen Verfahrens benötigt wird, dargestellt. Das System umfasst eine berührungssensitive, positionsauflösende Eingabefläche 1, welche als Touchpad oder als Touchscreen vorliegen kann. Die Eingabefläche 1 ist in der Lage mehrere Berührungsereignisse gleichzeitig zu erkennen. Eine solche Eingabefläche wird als multitouchfähige Eingabefläche bezeichnet. Das Berührungsereignis kann ausgelöst werden, wenn ein Objekt die Eingabefläche 1 berührt, oder bereits bei Annäherung des Objekts, wenn dieses eine gewisse Distanz zur Eingabefläche 1 unterschreitet.In Fig. 1, the system which is required to implement the method according to the invention is shown schematically. The system comprises a touch-sensitive, position-resolving input surface 1, which can be in the form of a touchpad or a touchscreen. The input surface 1 is capable of recognizing several touch events at the same time. Such an input area is referred to as a multi-touchable input area. The touch event can be triggered when an object touches the input surface 1, or when the object approaches, if the object falls below a certain distance from the input surface 1.
[0035] Das System umfasst weiters ein Eingabegerät 2, welches zumindest einen Kontaktsensor 3 und zumindest einen Inertialsensor 4 aufweist. Der Kontaktsensor 3 liefert ein Signal, welches aussagt, dass das Eingabegerät 2 mit jenem Ende, an welchem der Kontaktsensor 3 angeordnet ist, an einer Oberfläche anliegt. Alternativ bzw. zudem kann der Kontaktsensor 3 bereits vor Berührung ein Signal liefern, welches aussagt, dass sich das Eingabegerät 2 in unmittelbarer Nähe zu einer Oberfläche befindet, also eine gewisse Distanz zur Oberfläche unterschreitet. Der Kontaktsensor 3 kann beispielsweise nach dem mechanischen, kapazitiven oder optischen Prinzip arbeiten.The system further comprises an input device 2, which has at least one contact sensor 3 and at least one inertial sensor 4. The contact sensor 3 supplies a signal which indicates that the input device 2 is resting on a surface at the end at which the contact sensor 3 is arranged. As an alternative or in addition, the contact sensor 3 can already provide a signal before touching it, which indicates that the input device 2 is in the immediate vicinity of a surface, that is to say it is less than a certain distance from the surface. The contact sensor 3 can work, for example, according to the mechanical, capacitive or optical principle.
[0036] Der Inertialsensor 4 erfasst Beschleunigungen oder Drehraten in bzw. um zumindest eine Raumachse. Der Inertialsensor 4 erfasst Beschleunigungen in zumindest einer bevorzugt zwei oder besonders bevorzugt allen drei Raumrichtungen. Bevorzugt erfasst der Inertialsensor 4 zudem Drehraten um zumindest eine bevorzugt zumindest zwei oder besonders bevorzugt alle drei Raumrichtungen. Besonders bevorzugt kann der Inertialsensor 4 als inertiale Messeinheit zur Erfassung der sechs möglichen kinematischen Freiheitsgrade vorliegen, umfassend drei jeweils aufeinander orthogonal stehende Beschleunigungssensoren (Translationssensoren) für die Erfassung der translatorischen Bewegung in x- bzw. y- bzw. z-Achse und drei orthogonal zueinander angebrachte Drehratensensoren (Gyroskopische Sensoren) für die Erfassung rotierender (kreisender) Bewegungen in x- bzw. y- bzw. z-Achse. Der Inertialsensor 4 befindet sich bevorzugt möglichst nahe an dem Ende bzw. der Spitze, mit welchem das Eingabegerät 2 die Eingabefläche 1 berührt, sodass die vom Inertialsensor 4 wahrgenommene Bewegung möglichst exakt der Bewegung der Spitze des Eingabegeräts 2 entspricht und somit jener von der Eingabefläche 1 detektierten Bewegung des Berührungspunktes entspricht.The inertial sensor 4 detects accelerations or rotation rates in or about at least one spatial axis. The inertial sensor 4 detects accelerations in at least one preferably two or particularly preferably all three spatial directions. The inertial sensor 4 preferably also detects rotation rates by at least one, preferably at least two or particularly preferably all three spatial directions. The inertial sensor 4 can particularly preferably be present as an inertial measuring unit for detecting the six possible kinematic degrees of freedom, comprising three acceleration sensors (translation sensors), each orthogonal to one another, for detecting the translatory movement in the x-, y- or z-axis and three orthogonal to one another attached rotation rate sensors (gyroscopic sensors) for the detection of rotating (circular) movements in the x-, y- or z-axis. The inertial sensor 4 is preferably located as close as possible to the end or tip with which the input device 2 contacts the input surface 1, so that the movement perceived by the inertial sensor 4 corresponds as exactly as possible to the movement of the tip of the input device 2 and thus that of the input surface 1 corresponds to the detected movement of the point of contact.
[0037] Das System umfasst weiters eine Datenverarbeitungsanlage 5, welche die Signale der Eingabefläche 1 und der Eingabegeräte 2 empfängt und verarbeitet.The system further comprises a data processing system 5, which receives and processes the signals from the input surface 1 and the input devices 2.
[0038] Das System kann bevorzugt zudem mindestens ein zusätzliches Eingabegerät 6 umfassen, welches so wie das Eingabegerät 2 zumindest einen Kontaktsensor 7 und zumindest einen Inertialsensor 8 aufweist.The system can preferably also comprise at least one additional input device 6 which, like the input device 2, has at least one contact sensor 7 and at least one inertial sensor 8.
[0039] Zudem kann das System eine beliebige Anzahl weiterer Eingabeobjekte umfassen, welche ebenfalls mit Sensoren ausgestattet sein können, oder ohne Sensoren vorliegen können und welche von der berührungssensitiven, positionsauflösenden Eingabefläche 1 bei BerührungIn addition, the system can comprise any number of further input objects, which can also be equipped with sensors or can be present without sensors and which are of the touch-sensitive, position-resolving input surface 1 when touched
4/174.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt oder Annäherung wahrgenommen werden. Diese weiteren Eingabeobjekte umfassen insbesondere auch die Finger von Benutzern des Systems.Patent office or approximation are perceived. These further input objects include in particular the fingers of users of the system.
[0040] Auf der Eingabefläche 1 ist eine Bewegungsbahn 9 eines Berührungspunktes dargestellt. Das der gegenständlichen Erfindung zugrunde liegende Problem besteht darin, dass die Datenverarbeitungsanlage 5 ohne weitere Informationen nicht feststellen kann, welches Eingabeobjekt die Bewegungsbahn 9 verursacht hat. Für die bekannte Steuerung von Anwendungen ist dieses Problem unerheblich, da diese der Eingabe mit unterschiedlichen Eingabeobjekten keine unterschiedliche Bedeutung zuordnet. Beispielsweise macht es keinen Unterschied ob über einen Touchscreen eine Datei mit einem Eingabestift (Touchpen) oder mit dem Finger geöffnet wird.A trajectory 9 of a point of contact is shown on the input surface 1. The problem on which the present invention is based is that the data processing system 5 cannot determine which input object caused the movement path 9 without further information. This problem is irrelevant for the known control of applications, since this does not assign different meanings to the input with different input objects. For example, it makes no difference whether a file is opened on a touch screen with a stylus or with a finger.
[0041] Die erfindungsgemäße Lösung für das Problem sieht vor, dass ein Eingabegerät 2 zur Eingabe verwendet wird, welches einen Kontaktsensor 3 als Näherungs- oder Berührungssensor und einen Sensor zur Detektion von Relativbewegungen im Raum aufweist, beispielsweise zumindest einen Inertialsensor 4, wobei die Datenverarbeitungsanlage 5 zur Zuordnung zuerst prüft, ob die Bewegungsbahn 9 auf der Eingabefläche 1 zeitgleich mit dem Signal des Kontaktsensors 3 aufgetaucht ist. Da selbst in diesem Fall eine Fehlzuweisung möglich ist, nämlich wenn das Eingabegerät 2 zum gleichen Zeitpunkt auf einer beliebigen Oberfläche aufgesetzt wird, wie ein anderes Eingabeobjekt an der Eingabefläche 1, wird im zweiten Schritt geprüft, ob die Bewegungsbahn des Eingabegeräts 2 ident zur Bewegungsbahn 9 sein kann, wozu das Signal des Inertialsensors 4 und das Signal der Eingabefläche 1 verglichen werden. Bei Verwendung nur eines Eingabegeräts 2 könnte der zweite Schritt unterbleiben, da es unwahrscheinlich scheint, dass das Eingabegerät 2 zeitgleich an einer anderen Oberfläche aufgesetzt wird, wie ein beliebiges Eingabeobjekt auf der Eingabefläche 1. Der zweite Schritt ist aber jedenfalls dann für eine eindeutige Zuordnung eines Eingabegerät 2 zu einem Berührungspunkt besonders wertvoll, wenn eine Vielzahl von Eingabeobjekten gleichzeitig zur Dateneingabe an der Eingabefläche 1 verwendet werden, da es in diesem Fall häufig dazu kommen kann, dass Eingabeobjekte zeitgleich bzw. zeitnah an die Eingabefläche 1 aufgesetzt werden.The inventive solution to the problem provides that an input device 2 is used for input, which has a contact sensor 3 as a proximity or touch sensor and a sensor for the detection of relative movements in space, for example at least one inertial sensor 4, the data processing system 5 for assignment first checks whether the movement path 9 has appeared on the input surface 1 at the same time as the signal from the contact sensor 3. Since even in this case an incorrect assignment is possible, namely if the input device 2 is placed on any surface at the same time as another input object on the input surface 1, the second step is to check whether the movement path of the input device 2 is identical to the movement path 9 can be what the signal of the inertial sensor 4 and the signal of the input surface 1 are compared. If only one input device 2 is used, the second step could be omitted, since it seems unlikely that the input device 2 will be placed on another surface at the same time as any input object on the input surface 1. The second step is in any case for a clear assignment of one Input device 2 at a point of contact is particularly valuable if a large number of input objects are used simultaneously for data input on input surface 1, since in this case it can often happen that input objects are placed on input surface 1 at the same time or in a timely manner.
[0042] In Fig. 2 ist eine Situation veranschaulicht, in welcher zwei Eingabegeräte 2, 6 verwendet werden, welche die Daten ihrer Kontaktsensoren 3, 7 und die Daten ihrer Inertialsensoren 4, 8 an die Datenverarbeitungsanlage 5 senden. Zudem wird eine Eingabefläche 1 verwendet, welche die Positionsdaten von Berührungspunkten an die Datenverarbeitungsanlage 5 sendet.2 illustrates a situation in which two input devices 2, 6 are used, which send the data of their contact sensors 3, 7 and the data of their inertial sensors 4, 8 to the data processing system 5. In addition, an input surface 1 is used, which sends the position data of contact points to the data processing system 5.
[0043] Die Eingabefläche 1 detektiert im Beispiel der Fig. 2 drei zeitgleich zum Zeitpunkt t0 auftretende Berührungspunkte. Durch die zeitliche Korrelation des Auftretens dreier Berührungspunkte auf der Eingabefläche 1 und zweier Berührungssignale von Eingabegeräten 2, 6 beträgt die Anzahl der möglichen Korrelationskombinationen sechs. Die Objekte werden unterschiedlich (hinsichtlich Beschleunigung, Geschwindigkeit und/oder Richtung) bis zum Zeitpunkt der Momentaufnahme der Fig. 2 entlang der Oberfläche der Eingabefläche 1 verschoben. Die Verschiebung der berührenden Objekte auf der Eingabefläche 1 hat eine Verschiebung der Berührungspunkte zur Folge, woraus für jeden Berührungspunkt einen Bewegungsbahn 9, 10, 11 in der Ebene der Eingabefläche 1 resultiert. Da die Eingabefläche 1 lediglich die Bewegungsbahnen 9, 10, 11 der Berührungspunkte übermittelt, kann die Datenverarbeitungsanlage 5 nicht feststellen, welches Objekt welchen Berührungspunkt hervorgerufen hat.In the example in FIG. 2, the input surface 1 detects three points of contact that occur simultaneously at the time t 0 . Due to the temporal correlation of the occurrence of three touch points on the input surface 1 and two touch signals from input devices 2, 6, the number of possible correlation combinations is six. The objects are shifted differently (in terms of acceleration, speed and / or direction) up to the point in time of the snapshot in FIG. 2 along the surface of the input surface 1. The displacement of the touching objects on the input surface 1 results in a displacement of the touch points, which results in a movement path 9, 10, 11 in the plane of the input surface 1 for each touch point. Since the input surface 1 only transmits the trajectories 9, 10, 11 of the points of contact, the data processing system 5 cannot determine which object has caused which point of contact.
[0044] Durch die Verwendung der Eingabegeräte 2, 6 empfängt die Datenverarbeitungsanlage 5 zudem die Bewegungsdaten der Inertialsensoren 4, 8 des jeweiligen Eingabegeräts 2, 6. Das Eingabegerät 2 legt beispielsweise eine Bewegungsbahn 12 im Raum zurück, wobei der Inertialsensor 4 zumindest die Beschleunigung entlang einer Richtung des Eingabegeräts 2 erfasst. Das zweite Eingabegerät 6 legt beispielsweise eine Bewegungsbahn 13 im Raum zurück, wobei der Inertialsensor 8 zumindest die Beschleunigung entlang einer Richtung des zweiten Eingabegeräts 6 erfasst. Die Inertialsensoren 4, 8 erfassen dabei beispielsweise zumindest Beschleunigungen in einer Raumrichtung, welche durch den Pfeil ausgehend vom jeweiligen Inertialsensor 4, 8 dargestellt ist. Sofern der Inertialsensor 4, 8 Beschleunigungen in nur einer oder zwei Raumrichtungen misst, liegen diese Raumrichtungen bevorzugt in einer Ebene mitBy using the input devices 2, 6, the data processing system 5 also receives the movement data of the inertial sensors 4, 8 of the respective input device 2, 6. The input device 2, for example, travels a movement path 12 in space, the inertial sensor 4 at least along the acceleration a direction of the input device 2 detected. The second input device 6 covers, for example, a path of motion 13 in space, the inertial sensor 8 detecting at least the acceleration along a direction of the second input device 6. The inertial sensors 4, 8 detect, for example, at least accelerations in a spatial direction, which is shown by the arrow, starting from the respective inertial sensor 4, 8. If the inertial sensor 4, 8 measures accelerations in only one or two spatial directions, these spatial directions preferably lie in one plane
5/175.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
PatentamtPatent Office
Winkel 90° zur Längsrichtung des Eingabegeräts 2, 6, welche sich von der Spitze bis zum Ende dessen erstreckt. Da die Längsrichtung des Eingabegeräts 2, 6 bei Berührung einer Oberfläche winkelig also zumindest nicht parallel zu dieser ausgerichtet ist, besteht ein Bezug des Sensorsignals des Inertialsensors 4, 8 entlang der genannten Raumrichtung und der von der Eingabefläche 1 detektierten Bewegungsbahn von Berührungspunkten.Angle 90 ° to the longitudinal direction of the input device 2, 6, which extends from the tip to the end thereof. Since the longitudinal direction of the input device 2, 6 is at least not aligned at an angle when touching a surface, there is a reference of the sensor signal of the inertial sensor 4, 8 along the spatial direction mentioned and the movement path of contact points detected by the input surface 1.
[0045] Zudem empfängt die Datenverarbeitungsanlage 5 die Signale der Kontaktsensoren 3, 7 der beiden Eingabegeräte 2, 6. Diese liefern beispielsweise ebenfalls zum Zeitpunkt t0 ein Signal, wonach diese eine Oberfläche berühren, also zeitgleich zum Auftreten der Berührungspunkte auf der Eingabefläche 1.In addition, the data processing system 5 receives the signals from the contact sensors 3, 7 of the two input devices 2, 6. These, for example, also deliver a signal at time t 0 , after which they touch a surface, that is to say at the same time as the contact points on the input surface 1.
[0046] Die Datenverarbeitungsanlage 5 ist nicht in der Lage ein Eingabegerät 2, 6 einem Berührungspunkt zum Zeitpunkt t0 eindeutig zuzuordnen, da jedes Eingabegerät 2, 6, dessen Kontaktsensor 3, 7 zum Zeitpunkt t0 ein Berührungssignal liefert, an jedem zum Zeitpunkt t0 auftretenden Berührungspunkt platziert sein könnte.The data processing system 5 is not able to clearly assign an input device 2, 6 to a contact point at time t 0 , since each input device 2, 6, whose contact sensor 3, 7 delivers a touch signal at time t 0 , at each time t 0 occurring touch point could be placed.
[0047] Beim erfindungsgemäßen Verfahren wird beim Auftreten zumindest eines Berührungspunktes auf der positionsauflösenden berührungssensitiven Eingabefläche 1 und/oder bei jedem Auftreten eines Berührungssignals eines Kontaktsensors 3, 7 eines oder mehrerer Eingabegeräte 2, 6 im ersten Schritt festgestellt, ob eine zeitliche Korrelation des Auftretens eines Berührungssignals eines Kontaktsensors 3, 7 eines oder mehrerer Eingabegeräte 2, 6 mit dem Auftreten eines oder mehrerer Berührungspunkte auf der positionsauflösenden berührungssensitiven Eingabefläche 1 vorliegt.In the method according to the invention, when at least one touch point occurs on the position-resolving touch-sensitive input surface 1 and / or each time a touch signal from a contact sensor 3, 7 of one or more input devices 2, 6 occurs, it is determined in the first step whether a temporal correlation of the occurrence of a Touch signal of a contact sensor 3, 7 of one or more input devices 2, 6 with the occurrence of one or more touch points on the position-resolving touch-sensitive input surface 1 is present.
[0048] Da diese Voraussetzung erfüllt ist, wird im zweiten Schritt für alle zeitgleich aufgetretenen Signale in sehr kurzen Zeitabständen festgestellt, mit welcher Wahrscheinlichkeit der zeitliche Verlauf eines Berührungspunktes, also die jeweilige Bewegungsbahn 9, 10, 11, auf der positionsauflösenden berührungssensitiven Eingabefläche 1 und der Verlauf einer von einem Inertialsensor 4, 8 detektierten Bewegung, also einer räumliche Bewegungsbahn 12, 13 eines Eingabegeräts 2, 6 oder zumindest eine Komponente dieser, dieselbe bzw. eine korrelierende Bewegung beschreiben, oder anders gesagt wird für jede mögliche Korrelationskombination in sehr kurzen Zeitabständen ein Wahrscheinlichkeitswert bestimmt und mit den Wahrscheinlichkeitswerten aller anderen Korrelationskombination verglichen.Since this requirement is met, it is determined in a second step for all signals which have occurred at the same time in very short time intervals, with what probability the temporal course of a contact point, i.e. the respective movement path 9, 10, 11, on the position-resolving touch-sensitive input area 1 and the course of a movement detected by an inertial sensor 4, 8, that is to say a spatial movement path 12, 13 of an input device 2, 6 or at least one component thereof, describes the same or a correlating movement, or in other words, for every possible correlation combination in very short time intervals a probability value is determined and compared with the probability values of all other correlation combinations.
[0049] Im dritten Schritt wird ein Eingabegerät 2, 6 einem Berührungspunkt zugeordnet, wenn die Wahrscheinlichkeit, dass der zeitliche Verlauf eines Berührungspunktes, also die jeweilige Bewegungsbahn 9, 10, 11, und der Verlauf der vom Inertialsensor 4, 8 detektierten Bewegung, also eine Bewegungsbahn 12, 13 eines Eingabegeräts 2, 6 dieselbe bzw. eine korrelierende Bewegung beschreiben, einen Schwellwert übersteigt, bzw. der Wahrscheinlichkeitswert einer Korrelationskombination einen gewissen Schwellwert größer ist, als jene aller konkurrierenden Korrelationskombinationen.In the third step, an input device 2, 6 is assigned to a point of contact if the probability that the time course of a point of contact, ie the respective movement path 9, 10, 11, and the course of the movement detected by the inertial sensor 4, 8, ie a movement path 12, 13 of an input device 2, 6 describe the same or a correlating movement, exceeds a threshold value, or the probability value of a correlation combination is a certain threshold value greater than that of all competing correlation combinations.
[0050] Im Beispiel der Fig. 2 korreliert die Bewegungsbahn 9 auf der Eingabefläche 1 mit der räumlichen Bewegungsbahn 12 des Eingabegeräts 2 ab dem Startzeitpunkt t0, sodass die Datenverarbeitungsanlage 5 das Eingabegerät 2 dem Berührungspunkt mit der Bewegungsbahn 9 eindeutig zuordnen kann. Im Beispiel der Fig. 2 korreliert die Bewegungsbahn 10 auf der Eingabefläche 1 mit der räumlichen Bewegungsbahn 13 des Eingabegeräts 6 im Raum, sodass die Datenverarbeitungsanlage 5 das Eingabegerät 6 dem Berührungspunkt mit der Bewegungsbahn 10 eindeutig zuordnen kann. Der Zeitpunkt, zu welchem diese eindeutige Zuordnung erfolgen kann, ist variabel und hängt vom Verlauf der Signale und den daraus berechneten Wahrscheinlichkeitswerten aller möglichen Korrelationskombinationen ab.In the example of FIG. 2, the movement path 9 on the input surface 1 correlates with the spatial movement path 12 of the input device 2 from the start time t 0 , so that the data processing system 5 can clearly assign the input device 2 to the point of contact with the movement path 9. In the example in FIG. 2, the movement path 10 on the input surface 1 correlates with the spatial movement path 13 of the input device 6 in space, so that the data processing system 5 can clearly assign the input device 6 to the point of contact with the movement path 10. The point in time at which this unambiguous assignment can take place is variable and depends on the course of the signals and the probability values of all possible correlation combinations calculated therefrom.
[0051] Da keine der räumlichen Bewegungsbahnen 12, 13 mit der Bewegungsbahn 11 auf der Eingabefläche 1 korreliert, wird dieser Bewegungsbahn 11 durch die Datenverarbeitungsanlage 5 die Bedeutung eines beliebigen Eingabeobjekts 14 zugeordnet, welches von den Berührungsereignissen durch Eingabegeräte 2, 6 eindeutig unterscheidbar ist.Since none of the spatial trajectories 12, 13 correlate with the trajectory 11 on the input surface 1, this trajectory 11 is assigned by the data processing system 5 the meaning of any input object 14 which can be clearly distinguished from the touch events by input devices 2, 6.
[0052] Sollten mehrere Berührungspunkte durch beliebige weitere Eingabeobjekte 14, welche selbst keine Sensoren aufweisen, vorhanden sein, lässt sich durch die DatenverarbeitungsanIf there are several points of contact by any further input objects 14 which themselves have no sensors, the data processing system can be used
6/176.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt läge 5 nicht unterscheiden, welches dieser Eingabeobjekte 14 sich an welcher Position befindet. Die Eingabegeräte 2, 6 und jedes weitere Eingabegerät 2, 6 können aber weiterhin einem Berührungsereignis eindeutig zugeordnet werden.Patent office 5 would not distinguish which of these input objects 14 is located at which position. However, the input devices 2, 6 and each additional input device 2, 6 can still be uniquely assigned to a touch event.
[0053] Durch die eindeutige Zuordnung von Eingabegeräten 2, 6 also einer Bedeutung „pen touch“ zu Berührungsbahnen 9, 10 und der Zuordnung der Bedeutung „nicht durch Eingabegeräte verursacht Berührung“ bzw. „no-pen touch zu allen weiteren Berührungsbahnen 11, kann die Datenverarbeitungsanlag gemäß Fig. 3 die tatsächliche Anordnung von Objekten an der Eingabefläche 1 ermitteln und somit den Eingaben jedes Eingabegeräts 2, 6 eine unterschiedliche Bedeutung zuordnen.The clear assignment of input devices 2, 6, ie a meaning “pen touch” to contact paths 9, 10 and the assignment of the meaning “not caused by input devices” or “no-pen touch” to all further contact paths 11, can 3 determine the actual arrangement of objects on the input surface 1 and thus assign a different meaning to the inputs of each input device 2, 6.
[0054] Beispielsweise kann das erste Eingabegerät 2, durch eine in der Datenverarbeitungsanlage 5 gespeicherte Steuerungsvorschrift, einem ersten Benutzer zugeordnet sein, welchem andere Funktion der Datenverarbeitungsanlage 5 zur Verfügung stehen, als jenem Benutzer, welchen die Datenverarbeitungsanlage 5 dem zweiten Eingabegerät 6 zuordnet. Zudem können natürlich zu Eingabegeräten 2, 6 und anderen Eingabeobjekten 14 unterschiedliche Steuerungsvorschriften in der Datenverarbeitungsanlage 5 hinterlegt sein, sodass beispielsweise nur mit Eingabegeräten 2, 6 Eingaben getätigt werden können und Eingaben mit anderen Eingabeobjekten 14 von der Datenverarbeitungsanlagen 5 ignoriert werden. So lassen sich vorteilhaft Fehleingaben durch unbeabsichtigte Berührung der Eingabefläche 1 erkennen und vermeiden. Ein Beispiel dafür ist die unbeabsichtigte Berührung durch den Handballen (palm touch), welche durch die gegenständliche Erfindung eindeutig von Eingaben mit Eingabegeräten 2, 6 unterscheidbar ist.For example, the first input device 2 can be assigned to a first user by a control specification stored in the data processing system 5, to which user other functions of the data processing system 5 are available than to the user to whom the data processing system 5 assigns the second input device 6. In addition, different control rules can of course be stored in the data processing system 5 for input devices 2, 6 and other input objects 14, so that, for example, inputs can only be made with input devices 2, 6 and inputs with other input objects 14 are ignored by the data processing systems 5. In this way, incorrect entries can advantageously be recognized and avoided by unintentionally touching the input surface 1. An example of this is the unintentional touch by the ball of the hand (palm touch), which can be clearly distinguished from inputs with input devices 2, 6 by the present invention.
[0055] In den Fig. 4 bis 6 ist eine zusätzliche Identifikationsmöglichkeit gezeigt, welche vorteilhaft parallel bzw. zusätzlich zur zuvor beschriebenen Identifikation erfolgt. Für jedes Berührungsereignis existiert neben dem Startzeitpunkt t0 der Berührung mit dem Endzeitpunkt der Berührung ein weiterer charakteristischer Zeitpunkt, welcher zur Identifikation der Eingabegeräte 2, 6 herangezogen werden kann. Dies ist insbesondere hilfreich, wenn kurzzeitige Eingaben erfolgen, ohne Bewegung der Eingabeobjekte, wie es beispielsweise beim Anklicken von Icons oder Buttons der Fall ist. In diesem Fall registriert die Eingabefläche 1 keine Bewegung des Berührungspunktes. Sollten gemäß dem Beispiel der Fig. 4 mehrere Berührungspunkte 15, 16, 17 auf der Eingabefläche 1 zeitgleich zum Zeitpunkt t0 auftreten und ein oder mehrere Kontaktsensoren 3, 7 zeitgleich zum Zeitpunkt t0 ein Signal geben, wonach diese an einer Oberfläche anliegen, dann ist zum Zeitpunkt t0 für die Datenverarbeitungsanlage 5 nicht erkennbar, ob ein und welches Eingabegerät 2, 6 einen Berührungspunkt 15, 16, 17 verursacht hat. Detektieren weder die Eingabefläche 1 noch der Inertialsensor 4, 8 eines oder beide Eingabegeräte 2, 6 nachfolgend eine Bewegung, dann kann weiter keine Zuordnung erfolgen. In diesem Fall kann die Zuordnung von Eingabegeräten 2, 6 zu Berührungspunkten 15, 16, 17 über den jeweiligen Zeitpunkt bestimmt werden, bei welchem die Berührungspunkte 15, 16, 17 und die Berührungssignale der Kontaktsensoren 3, 7 wieder verschwinden. In Fig. 5 ist unterhalb der Eingabefläche 1 der Signalverlauf der Kontaktsensoren 3, 7 zweier Eingabegeräte 2, 6 dargestellt. Im Bespiel der Fig. 5 erfolgt das Verschwinden des Berührungssignals des Kontaktsensors 3 des ersten Eingabegeräts 2 und das Verschwinden des Berührungspunktes 17 zeitgleich zum Zeitpunkt L. Das Verschwinden des Berührungssignals des Kontaktsensors 7 des zweiten Eingabegeräts 6 und das Verschwinden des Berührungspunktes 16 erfolgt zeitgleich zum Zeitpunkt t3. Das Verschwinden des Berührungspunktes 15 fällt mit keinem Verschwinden eines Berührungssignals eines Kontaktsensors 3, 7 zusammen. Wie in Fig. 6 dargestellt kann die Datenverarbeitungsanlage 5 ab dem Zeitpunkt L das Eingabegerät 2 dem Berührungspunkt 17 zuordnen und ab dem Zeitpunkt t2 ein nicht näher definiertes Eingabeobjekt 14 dem Berührungspunkt 15. Das Eingabegerät 6 kann ab dem Zeitpunkt t2 mit hoher Wahrscheinlichkeit dem Berührungspunkt 16 zugeordnet werden, wobei das zeitgleiche Verschwinden des Berührungssignals des Kontaktsensors 7 des zweiten Eingabegeräts 6 und das Verschwinden des Berührungspunktes 16 als Bestätigung der gegebenenfalls bereits erfolgten Zuordnung verwendet werden kann.4 to 6 show an additional identification option, which is advantageously carried out in parallel or in addition to the identification described above. For each touch event, in addition to the start time t 0 of the touch with the end time of the touch, there is another characteristic time which can be used to identify the input devices 2, 6. This is particularly helpful when short-term entries are made without moving the input objects, as is the case, for example, when clicking on icons or buttons. In this case, the input surface 1 registers no movement of the touch point. 4, if several contact points 15, 16, 17 occur on the input surface 1 at the same time at the time t 0 and one or more contact sensors 3, 7 give a signal at the same time at the time t 0 , after which they are on a surface, then At time t 0 the data processing system 5 cannot see whether one and which input device 2, 6 has caused a contact point 15, 16, 17. If neither the input surface 1 nor the inertial sensor 4, 8 of one or both input devices 2, 6 subsequently detect a movement, then no further assignment can take place. In this case, the assignment of input devices 2, 6 to touch points 15, 16, 17 can be determined via the respective point in time at which the touch points 15, 16, 17 and the touch signals of the contact sensors 3, 7 disappear again. 5 shows the signal curve of the contact sensors 3, 7 of two input devices 2, 6 below the input surface 1. 5, the disappearance of the touch signal of the contact sensor 3 of the first input device 2 and the disappearance of the touch point 17 take place at the same time L. The disappearance of the touch signal of the contact sensor 7 of the second input device 6 and the disappearance of the touch point 16 take place at the same time t 3 . The disappearance of the touch point 15 does not coincide with the disappearance of a touch signal from a contact sensor 3, 7. As shown in FIG. 6, the data processing system 5 can assign the input device 2 to the contact point 17 from the time L and an input object 14, which is not defined in more detail, to the touch point 15 from the time t 2. The input device 6 can with high probability the contact point from the time t2 16 are assigned, wherein the simultaneous disappearance of the touch signal of the contact sensor 7 of the second input device 6 and the disappearance of the touch point 16 can be used as confirmation of the assignment that may have already taken place.
[0056] Es ist anzumerken, dass auch bei dem Beispiel der Fig. 4-6 die von der Eingabefläche 1 detektierte Bewegungsbahn des Berührungspunkts 17 mit der Bewegungsbahn des EingabegeIt should be noted that also in the example of FIGS. 4-6 the movement path of the contact point 17 detected by the input surface 1 with the movement path of the input gene
7/177.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt räts 2 korreliert und die von der Eingabefläche 1 detektierte Bewegungsbahn des Berührungspunkts 16 mit der Bewegungsbahn des zweiten Eingabegeräts 6 korreliert. Jedoch korrelieren die räumlichen Bewegungsbahnen der Eingabegeräte 2, 6 mit jeder der Bewegungsbahnen der Berührungspunkte 15, 16, 17 bis zu einem gewissen Zeitpunkt t^ [0057] Die Korrelation der Bewegungsbahn des Eingabegeräts 2 mit den Bewegungsbahnen der Berührungspunkte 15 und 16 endet aber jedenfalls zum Zeitpunkt G wobei auch die Korrelation der Bewegungsbahn des zweiten Eingabegeräts 6 mit der Bewegungsbahn des Berührungspunkts 17 zum Zeitpunkt endet. Konkret registriert der Inertialsensor 4 des Eingabegeräts 2 zum Zeitpunkt eine Bewegung, während die Berührungspunkte 15 und 16 sich weiter nicht bewegen, sodass das Eingabegerät 2 auch aufgrund der vom Inertialsensor 4 registrierten Bewegung eindeutig dem Berührungspunkt 17 zugeordnet werden kann.Patent Office 2 correlates and correlates the movement path of the contact point 16 detected by the input surface 1 with the movement path of the second input device 6. However, the spatial trajectories of the input devices 2, 6 correlate with each of the trajectories of the contact points 15, 16, 17 up to a certain time t ^ The correlation of the trajectory of the input device 2 with the trajectories of the contact points 15 and 16 ends in any case Time G, the correlation of the movement path of the second input device 6 with the movement path of the contact point 17 also ending at the time. Specifically, the inertial sensor 4 of the input device 2 registers a movement at the time, while the touch points 15 and 16 do not move any further, so that the input device 2 can also be clearly assigned to the touch point 17 on the basis of the movement registered by the inertial sensor 4.
[0058] Allgemein kann daher festgehalten werden, dass die Bewegungsbahnen aller zeitgleich auftretenden Berührungspunkte 15, 16, 17 auf der Eingabefläche 1 mit den Bewegungsbahnen aller zur selben Zeit an einer Oberfläche angelegten Eingabegeräten 2, 6 solange verglichen werden, bis für jedes Eingabegerät 2, 6 entweder mit ausreichender Wahrscheinlichkeit ein Berührungspunkt 15, 16, 17 zugeordnet werden kann, oder mit ausreichender Wahrscheinlichkeit die Korrelation mit jedem Berührungspunkt 15, 16, 17 ausgeschlossen werden kann. Sollte bis zum Verschwinden eines Berührungspunkts 15, 16, 17 keine Zuordnung erfolgt sein, kann der weitere Verlauf des Signals des Inertialsensors 4, 8 und/oder das Wegfällen des Berührungssignals des Kontaktsensors 3, 7 verwendet werden, um die Korrelation nachträglich festzustellen bzw. das Nichtvorliegen einer Korrelation zu bestätigen. Welche Berührungsereignisse als zeitgleich bewertet werden, hängt maßgeblich von der Messfrequenz und Übertragungsrate der Eingabefläche 1 und der Eingabegeräte 2, 6 ab, sodass alle innerhalb einer gewissen Zeitspanne auftretenden Berührungspunkte 15, 16, 17 der Eingabefläche 1 und Berührungssignale der Kontaktsensoren 3, 7 als zeitgleich behandelt werden. Alle innerhalb einer Zeitspanne auftretenden Berührungspunkte 15, 16, 17 und Berührungssignale, welche potentiell dasselbe Berührungsereignis widergeben, werden als zeitlich korrelierend bezeichnet.In general, it can therefore be stated that the trajectories of all contact points 15, 16, 17 occurring at the same time on the input surface 1 are compared with the trajectories of all input devices 2, 6 applied to a surface at the same time until, for each input device 2, 6 either a touch point 15, 16, 17 can be assigned with sufficient probability, or the correlation with each touch point 15, 16, 17 can be excluded with sufficient probability. If no assignment has taken place until a contact point 15, 16, 17 disappears, the further course of the signal of the inertial sensor 4, 8 and / or the elimination of the contact signal of the contact sensor 3, 7 can be used to subsequently determine the correlation or that Confirm that there is no correlation. Which touch events are rated as simultaneous depends largely on the measurement frequency and transmission rate of the input surface 1 and the input devices 2, 6, so that all touch points 15, 16, 17 of the input surface 1 and touch signals of the contact sensors 3, 7 occurring within a certain time span as simultaneous be treated. All touch points 15, 16, 17 and touch signals that potentially represent the same touch event that occur within a time period are referred to as temporally correlating.
[0059] Eine bevorzugte Ausführungsvariante sieht vor, dass mehrere Eingabeflächen 1 vorhanden sind, wobei mehrere Eingabeflächen 1 mit einer Datenverarbeitungsanlage 5 verbunden sein können, oder jede Eingabeflächen 1 eine eigene Datenverarbeitungsanlage 5 aufweist, wobei diese Datenverarbeitungsanlagen 5 vorteilhaft untereinander über Intra- oder Internet, Funk, LAN oder WLAN verbunden sind.A preferred embodiment variant provides that a plurality of input surfaces 1 are present, wherein a plurality of input surfaces 1 can be connected to a data processing system 5, or each input surface 1 has its own data processing system 5, these data processing systems 5 advantageously being connected to one another via intranet or the Internet, Radio, LAN or WLAN are connected.
[0060] Durch das erfindungsgemäße Verfahren ist durch eine oder mehrere Datenverarbeitungsanlagen 5 feststellbar, welche Eingabefläche 1 von welchem Eingabegerät 2, 6 berührt wird. Sollten mehrere Datenverarbeitungsanlagen 5 vorhanden sein, so ist es vorteilhaft, wenn die Eingabegerät 2, 6 die Signale ihres Inertialsensors 4, 8 und ihres Kontaktsensors 3, 7 drahtlos an die Datenverarbeitungsanlagen 5 übermitteln, beispielsweise mit Funk oder WLAN. Beispielsweise können Eingabegeräte 2, 6 zusätzlich zu den Signalen ihres Inertialsensors 4, 8 und ihres Kontaktsensors 3, 7 eine eindeutige Kennung wie eine Seriennummer oder eine digitale Signatur an die Datenverarbeitungsanlagen 5 übermitteln, sodass die Datenverarbeitungsanlagen 5 gemäß einer hinterlegten Steuerungsvorschrift jedem Eingabegerät 2, 6 eine individuelle Bedeutung zuordnen können. Beispielsweise kann einem Eingabegeräte 2 die Bedeutung eines Administrator-Eingabegeräts zugewiesen werden, mit welchem bei sämtlichen vorhandenen Datenverarbeitungsanlagen 5 durch bloßes Berühren bzw. Bewegen des Eingabegeräts 2 auf der Eingabefläche 1 eine Anmeldung und ein Vollzugriff auf alle Funktionen erfolgen kann. Andererseits kann einem Eingabegeräte 2 ein herkömmlicher Benutzer zugewiesen sein, sodass dieser Benutzer beispielsweise bei seiner Datenverarbeitungsanlagen 5 Vollzugriff herstellen kann und bei anderen Datenverarbeitungsanlagen 5 nur die für ihn freigegebenen Funktionen und/oder Laufwerke zur Verfügung hat.The inventive method can be determined by one or more data processing systems 5, which input surface 1 is touched by which input device 2, 6. If there are several data processing systems 5, it is advantageous if the input device 2, 6 transmits the signals of its inertial sensor 4, 8 and its contact sensor 3, 7 wirelessly to the data processing systems 5, for example by radio or WLAN. For example, in addition to the signals from their inertial sensor 4, 8 and their contact sensor 3, 7, input devices 2, 6 can transmit a unique identifier such as a serial number or a digital signature to the data processing systems 5, so that the data processing systems 5 according to a stored control rule each input device 2, 6 can assign an individual meaning. For example, the meaning of an administrator input device can be assigned to an input device 2, with which all existing data processing systems 5 can be registered and simply accessed by simply touching or moving the input device 2 on the input surface 1. On the other hand, a conventional user can be assigned to an input device 2, so that this user can, for example, provide full access to his data processing system 5 and only has the functions and / or drives released for him available in other data processing systems 5.
[0061] Dabei ist vorteilhaft erfassbar und speicherbar, mit welchem Eingabegerät 2, 6 welche Eingaben an welcher Datenverarbeitungsanlagen 5 vorgenommen wurden.It can advantageously be recorded and stored with which input device 2, 6 which inputs were made to which data processing system 5.
[0062] Auf jeder Datenverarbeitungsanlage 5 können Anwendungen bzw. Programme ausgeApplications or programs can be run on each data processing system 5
8/178.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt führt werden, die sowohl Eingaben mit einem Eingabegerät 2, 6 als auch Eingaben durch beliebige nicht identifizierbare Eingabeobjekte verarbeiten und diese unterschiedlich behandeln können. Beispielsweise können Eingabegeräte 2, 6 verwendet werden, um zu zeichnen oder frei Hand zu schreiben, während andere Eingabeobjekte Icons oder Objekte auszuwählen können und/oder Ansichten oder Objekte drehen oder zoomen können.Patent office leads that process both inputs with an input device 2, 6 and inputs by any non-identifiable input objects and can treat them differently. For example, input devices 2, 6 can be used to draw or write freely, while other input objects can select icons or objects and / or can rotate or zoom views or objects.
[0063] Jedes Eingabegerät 2, 6 kann weitere Sensoren, Taster oder Schalter aufweisen, sodass die Daten der Sensoren und Zustände der Taster oder Schalter einem Berührungspunkt 15, 16, 17 auf der Eingabefläche 1 zugeordnet werden können. Beispielsweise kann durch Betätigung eines Tasters auf dem Eingabegerät 2, 6 eine virtuelle Farbe ausgewählt werden, mit welcher mit dem Eingabegerät 2, 6 auf der Eingabefläche 1 gezeichnet wird.Each input device 2, 6 can have further sensors, buttons or switches, so that the data of the sensors and states of the buttons or switches can be assigned to a contact point 15, 16, 17 on the input surface 1. For example, by pressing a button on the input device 2, 6, a virtual color can be selected with which the input device 2, 6 is used to draw on the input surface 1.
[0064] Beispielsweise kann ein Eingabegerät 2, 6 einen biometrischen Sensor wie einen Fingerabdruckscanner aufweisen, sodass dieses selbst seinen Benutzer identifizieren kann, bzw. die Datenverarbeitungsanlage 5 aus den Daten des biometrischen Sensors den Benutzer ermitteln kann.For example, an input device 2, 6 can have a biometric sensor such as a fingerprint scanner, so that it can identify its user itself, or the data processing system 5 can determine the user from the data of the biometric sensor.
[0065] Bevorzugt kann bei Verwendung eines Touchscreens als Eingabefläche 1 nach erfolgter Identifizierung bzw. Zuordnung der Eingabegeräte 2, 6 zu Berührungspunkten 15, 16, 17 eine individuelle Eingabemarkierung (Cursor beziehungsweise Mauszeiger) für jedes Eingabegerät 2, 6 am jeweiligen Berührungspunkt 15, 16, 17 erscheinen, um eine optische Kontrolle der Zuordnung durch den Benutzer zu ermöglichen. Bei kurzen Eingaben kann die individuelle Eingabemarkierung über die Dauer der Eingabe hinaus dargestellt werden. Bei Steuerung eines beliebigen Bildschirms mit einem Touchpad als Eingabefläche 1 können die am Bildschirm dargestellten Eingabemarkierungen, welche Berührungspositionen von Eingabegeräten 2, 6 am Touchpad repräsentieren, individuell für die Eingabegeräte 2, 6 bzw. den zu den Eingabegeräten 2, 6 zugeordneten Benutzern dargestellt werden.When using a touchscreen as input surface 1, after the input devices 2, 6 have been identified or assigned to touch points 15, 16, 17, an individual input marking (cursor or mouse pointer) for each input device 2, 6 at the respective touch point 15, 16 is preferred , 17 appear in order to enable a visual control of the assignment by the user. With short entries, the individual entry marking can be displayed beyond the duration of the entry. When controlling any screen with a touchpad as input surface 1, the input markings shown on the screen, which represent touch positions of input devices 2, 6 on the touchpad, can be displayed individually for the input devices 2, 6 or for the users assigned to the input devices 2, 6.
[0066] In den Figuren ist das Eingabegerät 2, 6 rein beispielhaft veranschaulicht, wobei dieses eine beliebige Form aufweisen kann, wobei es vorteilhaft ist, jenes Ende oder Enden mit welchen die Eingabefläche 1 mit Kontaktsensoren 3, 7 zu berühren ist, als Spitze auszubilden. Für den Fall, dass kapazitive Eingabeflächen 1 zum Einsatz kommen, ist es vorteilhaft Enden des Eingabegeräts 2, 6 , an welchen sich ein Kontaktsensor 3, 7 befindet, etwas größer auszuführen, da sehr kleine Spitzen mit einer kapazitiven Eingabefläche 1 nur schwer detektierbar sind. Für den Fall, dass auch eine induktive Eingabefläche 1 verwendbar sein soll, kann in der Spitze des Eingabegeräts 2 eine Spule bzw. Leiterschleife integriert sein.In the figures, the input device 2, 6 is illustrated purely by way of example, whereby this can have any shape, it being advantageous to design that end or ends with which the input surface 1 is to be touched with contact sensors 3, 7 as a tip , In the event that capacitive input surfaces 1 are used, it is advantageous to make ends of the input device 2, 6, on which a contact sensor 3, 7 is located, somewhat larger, since very small peaks with a capacitive input surface 1 are difficult to detect. In the event that an inductive input surface 1 should also be usable, a coil or conductor loop can be integrated in the tip of the input device 2.
[0067] Wenn das Eingabegerät 2, 6 einen breiten, wie dargestellt beispielsweise runden, Kopf mit einer eingesetzten Spule aufweist, kann dieses sowohl zur Eingabe an kapazitiven Eingabeflächen 1 als auch zur Eingabe an induktive Eingabeflächen 1 verwendet werden. Für die Eingabe an optischen Eingabeflächen 1 (beispielsweise mit Nutzung totaler interner Reflexion), drucksensitiven Eingabeflächen oder resistiven Eingabeflächen 1 eignen sich jegliche Eingabeobjekte, sodass mit einem Eingabegerät 2, 6 mit größerem Kopf und Spule an allen gebräuchlichen Eingabeflächen 1 das erfindungsgemäße Verfahren anwendbar ist.If the input device 2, 6 has a wide, as shown, for example, round head with an inserted coil, this can be used both for input on capacitive input surfaces 1 and for input on inductive input surfaces 1. Any input objects are suitable for input on optical input surfaces 1 (for example, using total internal reflection), pressure-sensitive input surfaces or resistive input surfaces 1, so that the method according to the invention can be used with an input device 2, 6 with a larger head and coil on all common input surfaces 1.
[0068] Bevorzugt sind sowohl der Inertialsensor 4 als auch der Kontaktsensor 3 in einem geschlossenen Gehäuse des Eingabegeräts 2 angebracht. Der Kontaktsensor 3 kann dabei als induktiver oder kapazitiver Distanzsensor vorliegen. Der Kontaktsensor 3 kann alternativ zur Detektion von Berührungen auch Kräfte wahrnehmen, beispielsweise indem dieser Dehnmessstreifen oder Piezoelemente umfasst. Der Kontaktsensor 3 kann ein Taster sein. Der Kontaktsensor 3 kann ein optischer Sensor sein oder einen solchen umfassen, beispielsweise einen optischen Distanzsensor oder einen Intensitätssensor, wobei dieser bevorzugt hinter einem transparenten oder zumindest teiltransparenten Abschnitt des Gehäuses des Eingabegeräts 2 angebracht ist.Both the inertial sensor 4 and the contact sensor 3 are preferably mounted in a closed housing of the input device 2. The contact sensor 3 can be an inductive or capacitive distance sensor. As an alternative to the detection of touches, the contact sensor 3 can also perceive forces, for example by including strain gauges or piezo elements. The contact sensor 3 can be a button. The contact sensor 3 can be or comprise an optical sensor, for example an optical distance sensor or an intensity sensor, which is preferably mounted behind a transparent or at least partially transparent section of the housing of the input device 2.
[0069] Wenn das Eingabegerät 2 zumindest einen optischen Sensor aufweist, kann dieser beispielsweise die Lichtintensität oder die Farbe der Oberfläche wahrnehmen auf welche das Eingabegerät 2 gerichtet ist oder an welcher dieses anliegt, wobei diese Daten bei VerwendungIf the input device 2 has at least one optical sensor, this can perceive, for example, the light intensity or the color of the surface to which the input device 2 is directed or against which it is applied, these data being used
9/179.17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt an einem Touchscreen mit der Lichtintensität oder der Farbe der Pixel an den detektierten Berührungspunkten 15, 16, 17 am Touchscreen abgeglichen werden können. So kann beispielsweise unterschieden werden, ob das Eingabegerät 2 auf einem Touchscreen oder einer anderen Oberfläche verwendet wird. Zudem kann die Zuordnung eines Eingabegeräts 2 zu einem Berührungspunkt 15, 16, 17 über die Korrelation des Verlaufs der Lichtintensität und/oder Farbe erfolgen, indem in wiederholten kurzen Zeitabständen festgestellt wird, ob der Verlauf der vom optischen Sensor wahrgenommen Intensität bzw. Farbe mit dem Verlauf der am Touchscreen dargestellten Pixel entlang der Bewegungsbahn eines Berührungspunktes 15, 16, 17 am Touchscreen übereinstimmt. Analog kann für alle zeitgleich auftretenden Signale von optischen Sensoren von Eingabegeräten 2 und für alle zeitgleich auftretenden Berührungspunkte 15, 16, 17 am Touchscreen ein Wahrscheinlichkeitswert je möglicher Korrelationskombination aufgestellt werden, welcher angibt mit welcher Wahrscheinlichkeit der Verlauf der Lichtintensität oder der Verlauf des Farbwertes eines optischen Sensors mit der Lichtintensität oder dem Verlauf des Farbwertes am Berührungspunkt 15, 16, 17 bzw. entlang dessen Bewegungsbahn am Touchscreen übereinstimmt. Das Zuweisen der Bedeutung „Pen- Touch“ und „no-pen touch“ erfolgt dabei nach den bereits beschriebenen Kriterien, je nach steigen und sinken der Wahrscheinlichkeitswerte der Korrelationskombinationen bzw. je nach Anzahl der nach Neuberechnung der Wahrscheinlichkeitswerte verbleibenden möglichen Korrelationskombinationen.Patent office on a touch screen with the light intensity or the color of the pixels at the detected touch points 15, 16, 17 on the touch screen can be compared. For example, a distinction can be made as to whether the input device 2 is used on a touchscreen or another surface. In addition, the assignment of an input device 2 to a point of contact 15, 16, 17 can take place via the correlation of the course of the light intensity and / or color, by determining in repeated short time intervals whether the course of the intensity or color perceived by the optical sensor with the The course of the pixels shown on the touchscreen along the path of movement of a point of contact 15, 16, 17 on the touchscreen corresponds. Analogously, a probability value for each possible correlation combination can be set up for all signals of optical sensors from input devices 2 occurring simultaneously and for all contact points 15, 16, 17 occurring simultaneously, which indicates with what probability the course of the light intensity or the course of the color value of an optical Sensor with the light intensity or the course of the color value at the point of contact 15, 16, 17 or along its path of movement on the touch screen. The assignment of the meaning “pen touch” and “no-pen touch” is carried out according to the criteria already described, depending on the increase and decrease in the probability values of the correlation combinations or depending on the number of possible correlation combinations remaining after recalculation of the probability values.
[0070] Diese Ausführungsvariante mit optischem Sensor kann vorteilhaft zusätzlich zum in den Ansprüchen geschützten Verfahren realisiert sein. Beispielsweise kann aber auch der Kontaktsensor 3 als solcher optischer Sensor ausgeführt sein, sodass dieser zusätzlich zur Annährung weitere Informationen zur detektierten Oberfläche erfassen kann oder sogar Signale von der detektierten Oberfläche empfangen kann.This variant with an optical sensor can advantageously be implemented in addition to the method protected in the claims. For example, however, the contact sensor 3 can also be designed as such an optical sensor, so that in addition to approximation it can also acquire further information about the detected surface or can even receive signals from the detected surface.
[0071] Da, wie in Fig. 7 veranschaulicht, die Ausführungsvariante mit einem optischen Sensor 20 an den Eingabegerät 21, 22 und zumindest einem Touchscreen 18 als Eingabefläche 1 auch für sich alleine zum Lösen der erfindungsgemäßen Aufgabenstellung geeignet ist, behält es sich die Anmelderin vor, diese zu einem späteren Zeitpunkt als Teilanmeldung einzureichen. Diese Ausführungsvariante ist vorteilhaft, da jedes Eingabegerät 21, 22 lediglich einen optischen Sensor 20 aufweisen muss, also keinen Inertialsensor 4 oder Kontaktsensor 3 aufzuweisen braucht. Anstelle punktuell Intensitäten oder Farben mit dem optischen Sensor 20 wahrzunehmen, kann dieser auch einen kleinen Bildausschnitt, also mehrere Pixel in Form eines Bildes aufnehmen, wobei der Verlauf dieses Bildes mit den entsprechenden Bildausschnitten an den Positionen der Berührungspunkte 15, 16, 17 am Touchscreen 18 verglichen wird. Aus der Skalierung des Bildes kann gegebenenfalls auch die Distanz des optischen Sensors 20 zum Touchscreen 18 ermittelt werden. Vorteilhaft kann, wie in Fig. 7 dargestellt, bei Detektion eines oder mehrerer Berührungspunkte 15, 16, 17 am Touchscreen 18 von der Datenverarbeitungsanlage 5 an jedem Berührungspunkt 15, 16, 17 ein individuelles Lichtsignal 19 (z.B. Intensität, Farbe, zweidimensionales Muster oder deren zeitlicher Verlauf) dargestellt werden. Die Lichtsignal 19 werden von den optischen Sensoren 20 der Eingabegeräte 21, 22 detektiert und an die Datenverarbeitungsanlage 5 zurückgesendet. Da die Datenverarbeitungsanlage 5 weiß, an welchem Berührungspunkt 15, 16, 17 vom Touchscreen 18, welches Lichtsignal 19 dargestellt wurde, kann diese die Eingabegeräte 21, 22 rasch und einfach den Berührungspunkten 15, 16, 17 am Touchscreen 18 zuordnen. Beispielsweise kann die Datenverarbeitungsanlage 5 das Eingabegerät 21 dem Berührungspunkt 15 eindeutig zuordnen, da der zeitliche Verlauf des vom Eingabegerät 21 an die Datenverarbeitungsanlage 5 gesendeten Signals, nur mit dem zeitlichen Verlauf des Lichtsignals 19 am Berührungspunkt 15 übereinstimmt. Besonders geeignet als Lichtsignale 19 an den Berührungspunkten 15, 16, 17 am Touchscreen 18 sind beispielweise individuelle Hell-Dunkel-, bzw. Weiß-Schwarz-Wechsel der Pixel am Berührungspunkt 15, 16, 17 bzw. in einem gewissen Radius um den Berührungspunkt 15, 16, 17 oder Annäherungspunkt, da dies besonders zuverlässig von einer einfachen Fotodiode oder einem anderen Intensitätssensor als Binärsignal erfassbar ist. Die individuellen Lichtsignale 19 können dabei so subtil oder kurzzeitig gesendet werden, dass diese vom menschlichen Auge nicht wahrgenommen werden können. Bevorzugt kann jedem Berührungspunkt 15, 16, 17 eine Eingabemarkierung (= Cursor) mit individueller Farbe zugeordnet werden, sodass die EingabemarkierungenSince, as illustrated in FIG. 7, the embodiment variant with an optical sensor 20 on the input device 21, 22 and at least one touch screen 18 as input surface 1 is also suitable for solving the task according to the invention on its own, the applicant reserves the right intend to submit this as a divisional application at a later date. This embodiment variant is advantageous since each input device 21, 22 only has to have an optical sensor 20, that is to say does not need to have an inertial sensor 4 or a contact sensor 3. Instead of perceiving intensities or colors selectively with the optical sensor 20, the latter can also record a small image section, that is to say several pixels in the form of an image, the course of this image with the corresponding image sections at the positions of the contact points 15, 16, 17 on the touchscreen 18 is compared. From the scaling of the image, the distance of the optical sensor 20 from the touch screen 18 can also be determined, if necessary. As shown in FIG. 7, an individual light signal 19 (for example intensity, color, two-dimensional pattern or the like) can advantageously be detected by the data processing system 5 at each touch point 15, 16, 17 when one or more touch points 15, 16, 17 are detected on the touch screen 18 temporal course) are shown. The light signals 19 are detected by the optical sensors 20 of the input devices 21, 22 and sent back to the data processing system 5. Since the data processing system 5 knows at which point of contact 15, 16, 17 from the touch screen 18, which light signal 19 was displayed, it can quickly and easily assign the input devices 21, 22 to the points of contact 15, 16, 17 on the touch screen 18. For example, the data processing system 5 can uniquely assign the input device 21 to the contact point 15, since the time profile of the signal sent from the input device 21 to the data processing system 5 only matches the time profile of the light signal 19 at the contact point 15. Individual light-dark or white-black changes of the pixels at the point of contact 15, 16, 17 or within a certain radius around the point of contact 15 are particularly suitable as light signals 19 at the points of contact 15, 16, 17 on the touchscreen 18 , 16, 17 or approach point, since this can be detected particularly reliably as a binary signal by a simple photodiode or another intensity sensor. The individual light signals 19 can be transmitted so subtly or briefly that they cannot be perceived by the human eye. Preferably, each touch point 15, 16, 17 can be assigned an input mark (= cursor) with an individual color, so that the input markings
10/1710/17
AT519 427 B1 2019-02-15 österreichischesAT519 427 B1 2019-02-15 Austrian
Patentamt sowohl von dafür geeigneten optischen Sensoren 20 der Eingabegeräte 21, 22, als auch von den Benutzern unterschieden werden können.Patent office can be distinguished both from suitable optical sensors 20 of the input devices 21, 22 and from the users.
[0072] Nachteilig an einer Variante nur mit optischem Sensor 20 im Eingabegerät 21, 22 ist, dass dieses nur an Touchscreens 18 und nicht an Touchpads identifizierbar ist. Die Erfassung der Bewegung oder einer Bewegungskomponente des Eingabegeräts 2 im Raum durch zumindest einen Inertialsensor 4 ist somit auch bei dieser Variante nützlich.A disadvantage of a variant with only an optical sensor 20 in the input device 21, 22 is that it can only be identified on touch screens 18 and not on touch pads. The detection of the movement or a movement component of the input device 2 in space by at least one inertial sensor 4 is therefore also useful in this variant.
[0073] Insbesondere kann durch die Signale des Inertialsensors 4 die Bewegung des Eingabegeräts 2, 6 abseits der Eingabefläche 1 verfolgt werden, sodass nach erfolgter erstmaliger Identifikation des Eingabegeräts 2, 6 an einem Berührungspunkt 15, 16, 17 einer Eingabefläche 1 die Absolutposition des Eingabegeräts 2 im Raum ermittelt bzw. abgeschätzt werden kann, sodass aus dem Ausmaß und oder der Richtung der Bewegung des Eingabegeräts 2 im Raum ermittelt bzw. abgeschätzt werden kann, ob das Eingabegerät 2 für einen später auftretenden Berührungspunkt 15, 16, 17 an derselben oder einer anderen Eingabefläche 1 verantwortlich sein kann. Wenn beispielsweise das Eingabegerät 2, 6 einem ersten Berührungspunkt auf der Eingabefläche 1 zugeordnet wurde und nachfolgend lediglich Beschleunigung in einer Richtung von ca. 90° zur Oberfläche der Eingabefläche 1 erfährt, dann ist es wahrscheinlich, dass ein erneuter Berührungspunkt dieses Eingabegeräts 2, 6 nur in der Nähe des ersten Berührungspunkts auftreten kann. Um die Bewegung des Eingabegeräts 2, 6 im Raum möglichst exakt zu erfassen, ist es vorteilhaft den Inertialsensor 4, 8 als eine inertiale Messeinheit auszuführen und gegebenenfalls zusätzlich mit weiteren Sensoren auszustatten, um neben Relativbewegungen auch die Ausrichtung des Eingabegeräts 2, 6 im Raum zu erfassen. Die Eingabefläche 1 liefert mit den Berührungspunkten 15, 16, 17 vorteilhaft die absolute Position des Eingabegeräts 2, 6 zu gewissen Zeitpunkten, wodurch die relativen Positionsdaten der inertiale Messeinheit laufend in absolute Positionen im Raum bezogen auf die Eingabefläche 1 umrechenbar sind.In particular, the signals of the inertial sensor 4 can be used to track the movement of the input device 2, 6 away from the input surface 1, so that after the initial identification of the input device 2, 6 at a point of contact 15, 16, 17 of an input surface 1, the absolute position of the input device 1 2 can be determined or estimated in space, so that it can be determined or estimated from the extent and or the direction of the movement of the input device 2 in the space whether the input device 2 for a later contact point 15, 16, 17 on the same or one other input surface 1 may be responsible. For example, if the input device 2, 6 has been assigned to a first point of contact on the input surface 1 and subsequently only experiences acceleration in a direction of approximately 90 ° to the surface of the input surface 1, then it is likely that a new point of contact of this input device 2, 6 only can occur near the first point of contact. In order to detect the movement of the input device 2, 6 in the room as precisely as possible, it is advantageous to design the inertial sensor 4, 8 as an inertial measuring unit and, if necessary, also to equip it with additional sensors in order to also, in addition to relative movements, the orientation of the input device 2, 6 in the room to capture. With the contact points 15, 16, 17, the input surface 1 advantageously provides the absolute position of the input device 2, 6 at certain times, as a result of which the relative position data of the inertial measuring unit can be continuously converted into absolute positions in space in relation to the input surface 1.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA51143/2016A AT519427B1 (en) | 2016-12-14 | 2016-12-14 | Method for controlling a data processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA51143/2016A AT519427B1 (en) | 2016-12-14 | 2016-12-14 | Method for controlling a data processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
AT519427A1 AT519427A1 (en) | 2018-06-15 |
AT519427B1 true AT519427B1 (en) | 2019-02-15 |
Family
ID=62528977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA51143/2016A AT519427B1 (en) | 2016-12-14 | 2016-12-14 | Method for controlling a data processing system |
Country Status (1)
Country | Link |
---|---|
AT (1) | AT519427B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19846762A1 (en) * | 1998-10-10 | 2000-04-20 | Fraunhofer Ges Forschung | Display appliance input device for operating like a computer mouse contains three trackballs in a triangle sliding on a display surface and enabling multiple signal input. |
US20050200595A1 (en) * | 2004-03-12 | 2005-09-15 | Fors Steven L. | Input device for an information system |
WO2010118450A1 (en) * | 2009-04-16 | 2010-10-21 | Isiqiri Interface Technologies Gmbh | Display surface and control device combined therewith for a data processing system |
CN102096530A (en) * | 2011-01-28 | 2011-06-15 | 广东威创视讯科技股份有限公司 | Multi-touch trajectory tracking method |
WO2013134806A1 (en) * | 2012-03-12 | 2013-09-19 | Isiqiri Interface Technologies Gmbh | Computer system and a control method therefor |
US20140146021A1 (en) * | 2012-11-28 | 2014-05-29 | James Trethewey | Multi-function stylus with sensor controller |
US20160139690A1 (en) * | 2014-11-14 | 2016-05-19 | Apple Inc. | Stylus With Inertial Sensor |
-
2016
- 2016-12-14 AT ATA51143/2016A patent/AT519427B1/en not_active IP Right Cessation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19846762A1 (en) * | 1998-10-10 | 2000-04-20 | Fraunhofer Ges Forschung | Display appliance input device for operating like a computer mouse contains three trackballs in a triangle sliding on a display surface and enabling multiple signal input. |
US20050200595A1 (en) * | 2004-03-12 | 2005-09-15 | Fors Steven L. | Input device for an information system |
WO2010118450A1 (en) * | 2009-04-16 | 2010-10-21 | Isiqiri Interface Technologies Gmbh | Display surface and control device combined therewith for a data processing system |
CN102096530A (en) * | 2011-01-28 | 2011-06-15 | 广东威创视讯科技股份有限公司 | Multi-touch trajectory tracking method |
WO2013134806A1 (en) * | 2012-03-12 | 2013-09-19 | Isiqiri Interface Technologies Gmbh | Computer system and a control method therefor |
US20140146021A1 (en) * | 2012-11-28 | 2014-05-29 | James Trethewey | Multi-function stylus with sensor controller |
US20160139690A1 (en) * | 2014-11-14 | 2016-05-19 | Apple Inc. | Stylus With Inertial Sensor |
Also Published As
Publication number | Publication date |
---|---|
AT519427A1 (en) | 2018-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT513675A1 (en) | Method for the secure and conscious activation of functions and / or movements of a controllable technical device | |
WO2015010752A1 (en) | Method and device for remote-controlling a function of a vehicle | |
WO2014117895A1 (en) | Method and device for controlling garage equipment | |
DE102012212754A1 (en) | Method for operating a sensor system and sensor system | |
DE102015210302B4 (en) | Method for controlling the movement of a coordinate measuring machine | |
EP3366434B1 (en) | Method for checking a function of a vehicle and/or at least one operating device | |
EP2953793B1 (en) | System for printing press operation | |
DE102013002830A1 (en) | Manually operable input device with code detection | |
DE112012003889T5 (en) | Method, apparatus and computer program for pointing to an object | |
WO2015018732A1 (en) | Method and operating device for operating an electronic device via a touchscreen | |
WO2017054894A1 (en) | Interactive operating system and method for carrying out an operational action in an interactive operating system | |
AT519427B1 (en) | Method for controlling a data processing system | |
WO2014067774A1 (en) | Method and device for operating an input device | |
DE112007003689B4 (en) | Method and system for detecting and correcting unintentional displacements | |
DE102019206606B4 (en) | Method for contactless interaction with a module, computer program product, module and motor vehicle | |
DE19918072A1 (en) | Operation method for screen controlled process, e.g. in power plant | |
EP4140797A1 (en) | Operational unit for a commercial vehicle | |
DE102013219511B4 (en) | Method and device for operating an input device of an operating system, motor vehicle, computer program, computer program product | |
DE102016212682B4 (en) | Gesture control using a time-of-flight camera system | |
WO2014173390A2 (en) | Method for inputting data and a device suitable therefor | |
DE102012019649A1 (en) | Method for detecting e.g. finger gesture formed in free space by optical sensor for controlling computer in motor vehicle, involves determining whether value of changing speed of angle exceeds threshold levels within predetermined interval | |
EP2410400B1 (en) | Medicinal display device with an input interface and method for controlling such a device | |
DE102011015063A1 (en) | Operating device e.g. touch pad for motor vehicle, has sensor surface with predefined resolution so that finger of palm of user is distinguished and/or space proximity to sensor surface is tracked | |
EP3042269A1 (en) | Generating an input command | |
DE102017110726A1 (en) | System and method for the representation correction of an object image virtually represented in a virtual environment of a real object of a real environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM01 | Lapse because of not paying annual fees |
Effective date: 20211214 |