DE60220933T2 - Verfahren zum unterscheiden von gleichzeitigen berührungseingaben - Google Patents

Verfahren zum unterscheiden von gleichzeitigen berührungseingaben Download PDF

Info

Publication number
DE60220933T2
DE60220933T2 DE60220933T DE60220933T DE60220933T2 DE 60220933 T2 DE60220933 T2 DE 60220933T2 DE 60220933 T DE60220933 T DE 60220933T DE 60220933 T DE60220933 T DE 60220933T DE 60220933 T2 DE60220933 T2 DE 60220933T2
Authority
DE
Germany
Prior art keywords
touch
touches
touch screen
signals
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60220933T
Other languages
English (en)
Other versions
DE60220933D1 (de
Inventor
Bernard O. Saint Paul GEAGHAN
Robert S. Saint Paul MOSHREFZADEH
Karl P. Saint Paul HAUCK
Richard A. Jr. Saint Paul PETERSON
Stephen C. Saint Paul SCHULZ
Gordon F. Saint Paul TAYLOR
Craig A. Saint Paul CORDEIRO
Edward S. Saint Paul HAGERMOSER
James J. Saint Paul HART
Paul M. Saint Paul HATIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3M Innovative Properties Co
Original Assignee
3M Innovative Properties Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3M Innovative Properties Co filed Critical 3M Innovative Properties Co
Application granted granted Critical
Publication of DE60220933D1 publication Critical patent/DE60220933D1/de
Publication of DE60220933T2 publication Critical patent/DE60220933T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Communication Control (AREA)

Description

  • Das Verfahren betrifft im Allgemeinen Berührungssysteme und Berührungsdigitalumsetzer. Gegenstand der Erfindung sind insbesondere Berührungssysteme, wo gleichzeitige oder zeitlich überlappte Berührungen möglich sind, und Verfahren zum Unterscheiden mehrerer Berührungseingaben.
  • STAND DER TECHNIK
  • Berührungseingabefelder kommen oft in elektronischen Anzeigesystemen anstelle oder ergänzend zu einer herkömmlichen Tastatur und/oder einer Maus zum Einsatz. Berührungseingabefelder lassen sich im Allgemeinen intuitiv benutzen und erfordern zu ihrer Bedienung relativ wenig Einarbeitung. Ein Benutzer kann zum Beispiel eine komplexe Anweisungssequenz umsetzen, indem er einfach einen Berührungsbildschirm an einer durch ein geeignetes Symbol gekennzeichneten Stelle drückt. Die Funktionsweise des Symbols kann durch Betätigung der Unterstützungs-Software gemäß der Anwendung geändert werden.
  • Ein wesentlicher Bestandteil eines Berührungssystems ist der Mechanismus zur Erkennung der Stelle einer Berührung, die durch einen Benutzer ausgeführt wird. Die Erkennung von Berührungsstellen kann auf verschiedenen Technologien beruhen. Beispielhafte Technologien weisen resistive, kapazitive, kraftabhängige, Infrarot(IR)-Anwendungen und akustische Oberflächenwellen (AOW), englisch als surface acoustic waves (SAW), bezeichnet auf.
  • Berührungseingabefelder sind oft durch mehrere Merkmale gekennzeichnet, wozu die Größe, Bedienungsfreundlichkeit, Auflösung, optische Leistung und die Kosten gehören. Die Nachfrage nach Berührungseingabefeldvorrichtungen hat in dem Maße zugenommen wie der Wunsch nach tragbaren Vorrichtungen angestiegen ist, da Bürotische und andere Räumlichkeiten nur noch beschränkt verfügbar sind und da die Funktionsweise von Berührungsbildschirmen verbessert und erweitert wurde.
  • Die WO-A-9 730 416 wird im Oberbegriff von Anspruch 1 bestätigt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Einige der bei herkömmliche Tastaturen geläufigen Funktionsweisen werden in Berührungssystemen weniger geläufig angetroffen. Es können zum Beispiel spezielle Tastaturfunktionen durch gleichzeitiges Drücken von zwei oder mehr Tasten zugänglich sein. In einem Berührungssystem sind Berührungen häufig dazu bestimmt der Reihe nach ohne Überlappung ausgeführt zu werden, und Positionserkennungsalgorithmen haben entsprechend gewirkt. Es kann Anwendungen geben, wo der Einsatz eines Berührungseingabefelds zur Erkennung und Unterscheidung zwischen zeitlich überlappten Berührungseingaben wünschenswert ist. Durch diese Vorgehensweise kann das Berührungssystem vorgesehen sein, um fehlerhaft Meldungen oder „Phantom"-Berührungspositionen zu vermeiden und um einen oder mehr der einzelnen Berührungsvorgänge, welche die überlappenden Berührungseingaben bilden, genau zu melden.
  • Die vorliegende Erfindung schafft ein Verfahren zur Erkennung zeitlich überlappender Berührungsvorgänge, zum Beispiel auf Grund von zwei Benutzern, die Berührungseingaben während des gleichen Zeitintervalls ausführen. Durch Erkennung derartiger doppelter Berührungsvorgänge können gültige Berührungspunktpositionen dem System mit erhöhter Wahrscheinlichkeit gemeldet werden. Doppelte Berührungsvorgänge lassen sich gemäß der vorliegenden Erfindung unterscheiden, indem einer oder mehr der folgenden Schritte in einer geeigneten Kombination und einer geeigneten Reihenfolge durchgeführt werden: Vergleichen der Signalgrößen, um Schwellenwerte zu bestimmen, Vergleichen der Änderungsraten von Signalgrößen und/oder Änderungsraten von Positionsdaten mit bestimmten Parametern, indem die Nähe von berechneten Positionsdaten mit eigenständig erkannten „aktiven" Bereichen wie Symbolen verglichen werden und Bestimmen, ob eine offensichtliche Berührung in einem Bereich erkannt wird, wo Doppeleingabevorgänge höchstwahrscheinlicher auftreten können.
  • Verfahren der vorliegenden Erfindung lassen sich mit vielen verschiedenartigen Berührungssensor-Technologien einsetzen, zum Beispiel kapazitive, kraftabhängige, akustische Oberflächenwellen-Technologien und dergleichen. Da sich jede Berührungsbildschirm-Technologie mindestens ein wenig hinsichtlich der Berührungseingabesignale, die gemessen werden, unterscheidet und in der Art, wie die Signale ausgewertet werden, kann die Umsetzung von Aspekten der vorliegenden Erfindung anwendungsspezifische Elemente aufweisen. Viele Aspekte und Konzepte der vorliegenden Erfindung können jedoch in Berührungsbildschirmsystemen, unabhängig von der verwendeten Sensor-Technologie, sinngemäß zur Anwendung kommen.
  • Die Erfindung ist im Anspruch 1 dargelegt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Durch die im Folgenden gegebene nähere Beschreibung verschiedenartiger erfindungsgemäßer Ausführungsformen in Verbindung mit den begleitenden Zeichnungen lässt sich die Erfindung besser begreifen und verstehen, wobei:
  • 1 ein Ablaufdiagramm ist, das einen Entscheidungsschritt darstellt, der in den Verfahren der vorliegenden Erfindung benutzt werden kann;
  • 2 ein Ablaufdiagramm ist, das einen Entscheidungsschritt darstellt, der in den Verfahren der vorliegenden Erfindung benutzt werden kann;
  • 3A–G grafische Darstellungen verschiedenartiger Berührungseingabeszenarien sind, die in Berührungssystemen der vorliegenden Erfindung angetroffen werden können;
  • 4 eine schematische Darstellung eines kapazitiven Berührungsbildschirms ist, der an zwei Stellen berührt wird;
  • 5 definierte Bereiche auf einem Berührungsbildschirm für den Einsatz in einem Unterscheidungsschritt in Verfahren der vorliegenden Erfindung veranschaulicht;
  • 6 ein Ablaufdiagramm ist, das Entscheidungsschritte darstellt, die in Verfahren der vorliegenden Erfindung benutzt werden können;
  • 7 ein Ablaufdiagramm ist, das Entscheidungsschritte darstellt, die in Verfahren der vorliegenden Erfindung benutzt werden können;
  • 8 eine schematische Darstellung eines resistiven Berührungsbildschirms ist, der an zwei Stellen berührt wird;
  • 9 ein Ablaufdiagramm ist, das Entscheidungsschritte darstellt, die in Verfahren der vorliegenden Erfindung benutzt werden können;
  • 10 ein schematisches Diagramm eines akustischen Oberflächenwellen-Berührungseingabefelds ist;
  • 11A ein sich zeitlich veränderndes Signal für die X-Koordinate darstellt, wie es in einem Berührungseingabefeld auf der Basis akustischer Oberflächenwellen auf Grund der zwei gemäß den Angaben von 10 berührten Stellen erkannt wird;
  • 11B ein sich zeitlich veränderndes Signal für die Y-Koordinate darstellt, wie es in einem Berührungseingabefeld auf der Basis akustischer Oberflächenwellen auf Grund der zwei gemäß den Angaben von 10 erkannt wird;
  • 11C die Hüllkurven eines Signals wie das in 11A dargestellte zeigt, so wie es bei aufeinanderfolgenden Zeitintervallen entnommen wird;
  • 12 ist ein Ablaufdiagramm, das Entscheidungsschritte darstellt, die in Verfahren der vorliegenden Erfindung benutzt werden können;
  • 13 ist ein Ablaufdiagramm, das Entscheidungsschritte darstellt, die in Verfahren der vorliegenden Erfindung benutzt werden können.
  • Obwohl die Erfindung für verschiedenartige Abwandlungen und alternative Formen empfänglich ist, werden in den Zeichnungen Besonderheiten als Beispiel dargestellt und im Folgenden näher beschrieben. Es versteht sich aber, dass dies nicht mit dem Ziel geschieht, die Erfindung auf die beschriebenen besonderen Ausführungsformen zu beschränken. Es geht im Gegenteil darum, alle Abwandlungen, Entsprechungen und Alternativen, die in den Rahmen der Erfindung fallen, zu erfassen.
  • NÄHERE BESCHREIBUNG
  • Die vorliegende Erfindung ist im Allgemeinen auf Berührungssystemen und insbesondere auf Berührungssystemen, wo zwei oder mehr Berührungen durch einen oder mehr Benutzer ausgeführt werden können, anwendbar. Insbesondere ist die vorliegende Erfindung für ein Berührungssystem geeignet, wo irgendein Anteil von zwei oder mehr Berührungseingaben gleichzeitig auftreten oder anderweitig zeitlich überlappen können. Zum Beispiel kann die vorliegende Erfindung für den Einsatz in einem elektronischen Spielsystem geeignet sein, das von einem oder mehr Spielern gespielt werden soll, wobei, während das Spiel gespielt wird, die Spieler Berührungseingaben ausführen können, um eine Antwort im Spiel zu erzeugen und wobei zwei oder mehr Berührungen gleichzeitig starten und/oder gleichzeitig enden und/oder sich mindestens zum Teil innerhalb der Zeit, während welcher, die Berührung ausgeführt wird, überlappen. Solche Berührungseingaben können als überlappende Berührungen, doppelte Berührungen oder gleichzeitige Berührungen bezeichnet werden.
  • In einem Berührungsbildschirmsystem wird die Stelle einer durch einen Benutzer ausgeführten Berührung im Allgemeinen durch Messen getrennter Signale, die durch die Berührungseingabe erzeugt werden, und durch Vergleichen der Signale oder Verhältnisse der Signale bestimmt, um die Position der Berührung zu berechnen. Die Positionsdaten können dann beispielsweise zu einer besonderen Aktion oder Anweisung korreliert werden. Gemessene Signale weisen elektrischen Strom, elektrische Spannung, elektromagnetische Energie, Beschleunigung, Kraft per Flächeneinheit und dergleichen auf. In der Annahme, dass ein Berührungssystem genau kalibriert ist, sollte die berechnete Position einer Berührung ausreichend nahe an der durch den Benutzer berührten wirklichen Stelle sein, damit vorgesehene Anweisung des Benutzers vollzogen werden kann. Wie nahe die gemeldete Stelle zur wirklichen Berührungsstelle sein sollte, um ausreichend nahe zu sein, wird zum Teil durch die Auflösung des Berührungssystems bestimmt. Eine gemeldete Berührungsstelle, die ausreichend nahe ist, entspricht einer durch einen Benutzer berührten wirklichen Stelle, die als gültige Berührung bezeichnet wird. So wie in dieser Druckschrift verwendet, betrifft das Melden einer Berührungsstelle die berechnete Berührungsstelle, welche vom Berührungssystem auf eine geeignete Weise, zum Beispiel durch die Anwendungssoftware, benutzt wird, um die Eingabeanweisungen des Benutzers zu bestimmen. Das Melden könnte Übertragungen von einer Berührungsbildschirm-Steuerung zu einer Zentraleinheit aufweisen oder mag in einem mehr integrierten System einfach das Berechnen und Benutzen von Berührungspositionsdaten, wie zum Beispiel von der Anwendung in Erwägung gezogen, mit sich bringen.
  • Im Allgemeinen kann eine auf einem Berührungsbildschirm ausgeführte Berührung als eine Zeitfolge, die drei Schritte aufweist, insbesondere den Berührungskontakt, das Verweilen und Abheben, vorgesehen sein. Die zur Berechnung der Stelle einer Berührung gemessenen Signale, werden in Abhängigkeit von einem Hintergrundwert bestimmt, welcher der vorhandene Restsignalwert ist, wenn keine Berührung ausgeführt wird. Wenn eine Berührung ausgeführt wird, steigt das Signal von seinem Hintergrundwert auf einen neuen Wert an, der als Verweilwert bezeichnet wird, welcher sich messbar vom Hintergrundwert unterscheidet. Der Wechsel von einem Hintergrund- auf einen Verweilwert wird Berührungskontakt genannt. Die ausgeführte Berührung wird im Allgemeinen für eine endliche Zeit gehalten, die als Verweilzeit bezeichnet wird, welche dem Verweilschritt entspricht, während dessen das Verweilsignal idealerweise relativ konstant bleibt oder zweckmäßiger innerhalb eines Bereichs schwankt, wobei alle Werte im Bereich im Wesentlichen größer als der Hintergrundwert sind. Die Verweilzeit dauert im Allgemeinen lang genug, damit eine Berührungsstelle gemessen werden kann. Sie wird anschließend berechnet und gemeldet. Am Ende der Verweilzeit und während der Benutzer die ausgeführte Berührung ausführt, fällt der Wert des erzeugten Signals von seinem Verweilwert auf einen Hintergrundwert ab. Dies wird als Abheben bezeichnet.
  • Eine auf einem Berührungsbildschirm an einer ersten Stelle ausgeführte Berührung hat die Erzeugung einer ersten Menge von Signalen oder Positionsdaten zur Folge, die zur Bestimmung der Stelle einer ersten Berührung, die im Allgemeinen sehr nahe zur wirklichen Stelle der ersten Berührung ist, benutzt werden. Durch das vom Benutzer ausgeführte Abheben von der ersten Berührungsstelle und Ausführen einer Berührung an einer zweiten Stelle wird eine zweite Menge von Signalen erzeugt, die zur Bestimmung der Stelle einer zweiten Berührung, die im Allgemeinen sehr nahe der wirklichen Stelle der zweiten Berührung ist, benutzt werden. Falls während eines gegebenen Zeitintervalls die erste und zweite Berührungsstelle beide gedrückt werden (d.h., dass sich die erste und zweite Berührung zeitlich überlappen), dann sind die ersten und zweiten Signalmengen für dieses Zeitintervall überlagert, was eine dritte Signalmenge zur Folge hat. Die Art und Weise wie die Signalmengen in der Überlagerung kombiniert sind, hängt von einer Anzahl von Faktoren ab, dazu gehören die Erkennungstechnologie des Berührungseingabefelds (bspw. resistive, kapazitive, kraftabhängige, akustische Oberflächenwellen, IR-Technologie), der Aufbau des Berührungseingabefelds und der im Berührungssystem zum Berechnen und Melden ausgeführter Berührungsstellen benutzte Erkennungsalgorithmus. Im Allgemeinen kann die dritte Signalmenge, falls sie zum Berechnen einer Berührungsstelle benutzt wird, das Melden einer Berührungsstelle, die nicht wirklich berührte wurde und oft an einem Punkt zwischen der ersten und zweiten Berührungsstelle liegt, zur Folge haben. Die aus der Überlappung von Berührungseingaben resultierende Berührungsstelle und die keiner gültigen oder beabsichtigten Berührungsstelle entspricht, kann als Phantomberührung bezeichnet werden. Das Melden einer Phantomberührung kann zur Folge haben, dass fehlerhafte Benutzereingabeanweisungen gegeben werden. Es besteht ein Risiko, dass Phantomberührungen da gemeldet werden, wo gleichzeitige Berührungskontakte, gleichzeitige Abhebvorgänge oder sonstige überlappende Verweilintervalle getrennter Berührungen bestehen.
  • Der Einsatz eines Berührungssystems, das Phantomberührungen meldet, kann den Einsatz des Berührungsbildschirmsystems in manchen Anwendungen einschränken oder verhindern wie in jenen Anwendungen, wo zwei oder mehr gleichzeitige oder überlappende Berührungen voraussehbar oder sogar wünschenswert durch einen oder mehr Benutzer ausgeführt werden können. Es kann zum Beispiel wünschenswert sein, Berührungsbildschirme in elektronischen Spielen, die von zwei oder mehr Spielern gespielt werden, einzusetzen, wo die Spieler einen einzigen Berührungsbildschirm zur Eingabe von Information gleichzeitig benutzen können. Selbst wenn jeder Spieler einen getrennten und vorgegebenen Abschnitt des Berührungsbildschirms beim Spielen des Spiels benutzen möchte, können während des Spiels viele überlappende Berührungsvorgänge auftreten, während jeder Spieler seinen Abschnitt des Berührungsbildschirms berührt. Das Melden von Phantomberührungen kann Spielantworten zur Folge haben, die nicht von einem oder mehr Spielern beabsichtigt waren. Obwohl mehrere Spielerpartien einen getrennten und dedizierten Berührungsbildschirm für jeden Spieler zusammen mit dedizierter Hardware und/oder Software einsetzen könnten, mag solch eine Lösung auf Grund von Kostenerwägungen, begrenzter Räumlichkeit, der Funktionsweise, des Designs und sonstiger Faktoren nicht wünschenswert sein. Auch mehrere Berührungsbildschirme dürften für Spiele mit mehreren Spielern oder sonstige Anwendungen, wo außerdem eine Spielart mit einem einzigen Spieler ins Auge gefasst wird, nicht wünschenswert sein. Andere Beispiele, bei welchen es wünschenswert sein mag, zeitlich überlappende Berührungseingaben unterscheiden zu können, weisen Anwendungen wie die Datenerfassung auf, wo ein Berührungsbildschirm zur Erfassung von Information mit einer schnellen Übertragungsgeschwindigkeit und von mehr als einer Stelle auf dem Bildschirm, sei es durch einen Benutzer oder mehrere Benutzer, benutzt wird. Im obigen und vielen anderen Beispielen und Anwendungen kann das Melden einer Phantomberührung und einer anschließenden fehlerhaften Antwort auf der Basis einer solchen Erkennung unerwünscht sein und kann die Brauchbarkeit eines Berührungsbildschirms in solchen Anwendungen einschränken.
  • Die vorliegende Erfindung schafft Systeme und Verfahren zur Erkennung von Phantomberührungen auf Grund überlappender Berührungseingaben und zum Unterscheiden einziger Berührungen von doppelten (oder sonstigen mehreren) Berührungen. Ferner sieht die vorliegende Erfindung das Speichern der während einer Überlappung durch mehrere Berührungen gemessenen Signale in einer Weise vor, dass bei der Registrierung einer der gültigen Berührungen, die in die mehreren Berührungsvorgänge eingebunden sind, das System die Überlappungssignale wunschgemäß benutzen oder verwerfen kann. In einigen Ausführungsformen kann eine gültige Berührungsposition, die sonst nicht bestimmbar wäre, von überlappenden Berührungssignalen bestimmt werden, wenn eine der anderen gültigen Berührungspositionen zuerst bestimmt werden kann.
  • Obwohl hier in Erwägung gezogen wird, dass die Systeme und Verfahren der vorliegenden Erfindung für Situationen mit einem oder mehr Benutzern und jeglicher Anzahl überlappender Berührungen anwendbar ist, wird die vorliegende Erfindung am besten im Zusammenhang mit zwei eigenständigen Berührungseingabevorgängen, die sich überlappen können oder nicht und die durch einen Benutzer A und einen Benutzer B bereitgestellt werden, beschrieben.
  • In dieser Druckschrift werden verschiedene Arten und Weisen zur Erkennung einziger Berührungseingaben innerhalb eines doppelten Berührungsvorgangs beschrieben. Eines dieser Verfahren bedingt das Vergleichen von Signalgrößen mit vorgegebenen Schwellenwerten, um eine einzige Berührung von überlappenden Berührungen zu unterscheiden. Die mit den Schwellenwerten verglichenen Signale zum Unterscheiden einziger von doppelten Berührungen können von denselben Signaldaten abgeleitetet sein, die zum Berechnen der Berührungsstellen benutzt werden oder können andere Signaldaten sein. Während einer Kalibrierphase oder während des normalen Ablaufs zur Erlangung von Berührungseingaben kann ein Bereich für wahrscheinliche Signalwerte während der Verweilphase für eine einzige Berührung festgelegt werden. Dieser Bereich kann benutzerspezifisch oder nicht sein. Diese Information kann benutzt werden, um einen minimalen Wert zur Registrierung einer einzigen Berührung und einen maximalen einzigen Berührungswert, oberhalb dessen Signale als doppelte (oder sonstige mehrere) Berührungsvorgänge ausgewertet werden, einzustellen. Neben der Einstellung von Schwellenwerten ab einem Kalibrierschritt können Schwellenwerte vor dem Einsatz voreingestellt werden und so wie eingestellt verbleiben oder können im Zeitablauf berichtigt werden (beispielsweise periodisch während des normalen Einsatzes, wenn ein dedizierter Bereich durch einen Benutzer berührt wird und dergleichen). Schwellenwerte können für jeden Benutzer allgemeingültig oder für jeden Benutzer wie gewünscht spezifisch sein. Gemäß der vorliegenden Erfindung wird eine Phantomberührungsstelle von überlappenden Berührungen berechnet, welche größere Signale als der Schwellenwertbereich für eine einzige Berührung verursachen, nicht gemeldet, sondern eher wird die aus der Erzeugung solcher großen Signale resultierende Information gespeichert und zur Erkennung einer Stelle der zweiten Berührung benutzt oder kann für andere Zwecke benutzt werden.
  • Ein andere Verfahren zum Unterscheiden überlappender Berührungseingaben bedingt das Bestimmen und Überwachen der Änderungsrate von Berührungssignalgrößen. Die Änderungsrate eines Signals kann zur Erkennung der Berührungskontakt-, Verweil- und Abhebanteile eines Berührungsvorgangs sowie jeglicher Zwischenberührungskontakte, -abhebungen oder dergleichen auf Grund überlappender Berührungen benutzt werden. Im Allgemeinen deuten positive Änderungsraten einen Berührungskontakt an, negative Änderungsraten deuten ein Abheben an und Größenraten in der Nähe von null oder die vergleichsweise gering sind, deuten ein Verweilen an. Minimale und maximale Schwellenwerte können benutzt werden, um zu bestimmen, ob eine Änderungsrate ein Verweilen, einen Berührungskontakt oder Abheben oder gleichzeitige Berührungskontakte oder Abhebungen mehrerer Berührungen andeuten. Zum Beispiel kann während der Ausführung einer ersten Berührung eine im Wesentlichen positive Änderungsrate des Signals während des Berührungskontakts erkannt werden. Falls, während die erste Berührung in einer Verweilphase ist, eine zweite Berührung an einer anderen Stelle auf dem Berührungsbildschirm ausgeführt wird, kann eine zweite im Wesentlichen positive Signaländerungsrate erkannt werden, die eine neue Berührung andeutet. Die erste im Wesentlichen positive Änderungsrate eines Signals, die von einer zweiten im Wesentlichen positiven Änderungsrate des Signals ohne eine im Wesentlichen negative Zwischenänderungsrate des Signals gefolgt wird, deutet folglich die Ausführung einer zweiten Berührung an, während eine erste Berührung in der Verweilphase ist. Gemäß der vorliegenden Erfindung wird eine Phantomberührungsstelle, die aus den nach einer zweiten Berührung erzeugten Signalen berechnet und verursacht wird, ausgeführt, während eine erste Berührung, die in der Verweilphase ist, nicht gemeldet wird, sondern die Signale werden eher gespeichert und zur Lokalisierung der Position der zweiten Berührung benutzt oder können für andere Zwecke benutzt werden.
  • Ein weiteres Verfahren zur Erkennung einer Phantomberührung gemäß der vorliegenden Erfindung bedingt das Überwachen der Änderung in der Stelle einer erkannten Berührung in Abhängigkeit von der Zeit. Wenn eine Berührung ausgeführt wird und lang genug an einer relativ festen Position verweilt, damit eine Stelle erkannt werden kann, wird die Stelle gemeldet, wobei die gemeldete Stelle im Allgemeinen sehr nahe an der durch den Benutzer berührten wirklichen Stelle ist. Je nach der Dauer des Verweilens können mehrere Berührungsstellen berechnet werden, die alle im Allgemeinen sehr nahe an der wirklich berührten Stelle sind. Sollte während des Verweilens einer ersten Berührung eine zweite Berührung an einer anderen Stelle auf dem Berührungsbildschirm ausgeführt werden und lange genug in der Verweilphase bleiben, würde die erkannte Stelle einer Phantomberührung entsprechen, die irgendwo zwischen der ersten und zweiten berührten Stelle positioniert ist, und in vielen Anwendungen hat diese Position wahrscheinlich einen wesentlicher Abstand von einer der berührten Stellen. Wenn folglich kein Abheben erkannt wird, deutet eine Änderungsrate der Stelle einer erkannten Berührung, die größer als ein vorgegebener Schwellenwert ist, die Wahrscheinlichkeit einer zweiten Berührung an, die zeitlich die erste überlappt. Der vorgegebene Schwellenwert wird zum Teil durch die Auflösung des Berührungsbildschirms bestimmt. Gemäß der vorliegenden Erfindung wird eine Phantomberührung unter diesen Umständen nicht gemeldet, sondern die erzeugten Signale, die zur Bestimmung der Stelle der Phantomberührung benutzt wurden, werden eher gespeichert und zur Bestimmung einer Position einer zweiten Berührung benutzt oder können für andere Zwecke benutzt werden.
  • Gemäß einem anderen Aspekt der Erfindung, wo die erlaubten Berührungsbereiche auf eine endliche Anzahl deutlicher Bereiche beschränkt sind und wo eine erkannte Berührung ausreichend nahe eines solchen Bereichs ist, wird außerdem eine Berührung gemeldet. Ein beispielhafter Aspekt dieser Erfindung ist ein Berührungsbildschirm, bei dem mindestens ein Abschnitt des Berührungsbildschirms auf Symbole beschränkt ist. Falls eine Berührung als solche ausreichend nahe an einem Symbol erkannt wird, wird eine Berührung am Symbol gemeldet. Falls eine erkannte Berührungsstelle ausreichend entfernt von der Gesamtheit dieser Bereiche ist, dann wird keine Berührung gemeldet.
  • Gemäß einem noch anderen Aspekt der vorliegenden Erfindung kann ein Bereich des Berührungsbildschirms als mit einer größeren Wahrscheinlichkeit, eine gemeldete Phantomberührung auf Grund überlappender Berührungen aufzuweisen, bezeichnet werden. Falls zum Beispiel eine erkannte Berührungsstelle einem Mittelpunktbereich eines Berührungsbildschirms entspricht, der einem Bereich entspricht, welcher zwischen zwei Bereichen angeordnet ist, die durch verschiedene Benutzer berührt werden sollen, dann wird die erkannte Berührungsstelle weiteren Prüfungen unterzogen, weil der Mittelpunktbereich eine höhere Wahrscheinlichkeit als die Außenbereiche aufweist, Phantomberührungen zu haben. In diesem Fall kann eine erkannte Berührung, die sich im Mittelpunktbereich befindet, weiteren Prüfungen unterzogen werden, um zu bestimmen, ob die Berührung eine Phantomberührung ist, wobei die in den weiteren Prüfungen benutzten Variablen entsprechend angepasst werden. Je weiter entfernt eine erkannte Berührungsstelle beispielsweise vom Mittelpunktbereich ist, desto zwangloser sind die Prüfungsbedingungen, da ein hohe Wahrscheinlichkeit besteht, dass die Berührung eine einzige Berührung ist. Erkannte Berührungsstellen innerhalb des Mittelpunktbereichs können strengeren Bedingungen unterworfen werden.
  • Die Details der Ausführung und Anwendung der Verfahren der vorliegenden Erfindung können davon abhängen, welche Technologie zum Berechnen und Melden von Berührungsstellen benutzt wird. Die Umsetzung und Anwendung vieler Konzepte der vorliegenden Erfindung hinsichtlich kapazitiver, resistiver und kraftbasierter Berührungsbildschirme sind sich aber trotzdem hinreichend ähnlich, dass diese Technologien auf ähnliche Weise in der vorliegenden Erfindung behandelt werden können. Kurz gefasst wirken kapazitive Berührungsbildschirme durch Messen des Stroms aus jedem der verschiedenen Anschlüsse (die sich normalerweise an den vier Ecken des Berührungsbildschirms befinden), wenn ein Benutzer einen Berührungskontakt ausführt. Die Verhältnisse der Ströme können zur Lokalisierung, wo die Berührung auftrat, benutzt werden. Resistive Berührungsbildschirme wirken, wenn ein Benutzer eine Stelle des Berührungsbildschirms mit ausreichender Kraft in einer Weise berührt, dass zwei beabstandete leitende Folien an der Berührungsstelle in lokalen elektrischen Kontakt treten. Durch Messen der Widerstandswerte zwischen gegenüberliegenden Kanten und dem Berührungspunkt von einer leitenden Schicht und durch Messen ähnlicher Werte in der Orthogonalrichtung auf der anderen leitenden Schicht kann eine X-, Y-Position für die Berührungsstelle bestimmt werden. Kraftbasierte Berührungsbildschirme verwenden Sensoren, die sich an vorgegebenen Positionen befinden, wobei jeder eine Kraftkomponente auf Grund einer Berührung an einer Stelle auf dem Berührungsbildschirm misst. Durch Messen der verschiedenen Kräfte an strategischen Stellen (bspw. an den vier Ecken) kann die Stelle einer Berührung bestimmt werden. Beispiele von Sensoren, die sich für den Einsatz in kraftbasierten Berührungsbildschirmen eignen, weisen unter anderem Kondensatorelemente und piezoelektrische Vorrichtungen auf.
  • Während sich die Signale zur Bestimmung von Berührungsstellen für jede dieser drei Technologien unterscheiden, kann in jeder eine vollständige elektrische Strommessung als Signal zum Unterscheiden von einzigen Berührungen von mehreren Berührungen benutzt werden.
  • 1 zeigt ein veranschaulichendes Ablaufdiagramm, dass verschiedene Schritte festlegt, die in kapazitiven, resistiven und kraftbasierten Berührungsbildschirmsystemen zum Unterscheiden von einfachen Berührungen von mehreren Berührungen benutzt werden können. Nach dem Durchführen einer neuen Messung, aus der Positionsdaten und Signalgrößen berechnet werden können, lässt sich jegliche Anzahl von Prüfungen oder Entscheidungsschritten durchführen. Obwohl verschiedene dieser Entscheidungsschritte in 1 dargestellt sind, können Verfahren der vorliegenden Erfindung, die einen dieser Entscheidungsschritte ohne Anwendung der anderen aufweisen, die eine Kombination eines oder mehr dieser Entscheidungsschritte aufweisen und die sie in jeglicher Reihenfolge aufweisen, auf geeignete Weise umgesetzt werden. Auch andere Entscheidungsschritte, Algorithmen, Messungen und Berechnungen sind durchführbar.
  • Beim Durchführen einer neuen Messung kann es vorteilhaft sein, zu bestimmen, ob die berechnete X-, Y-Position in einen Mittelpunktbereich oder anderen Bereich fällt, wo sich Phantomberührungen auf Grund von doppelten Berührungsvorgängen am wahrscheinlichsten befinden. Diese Information kann zur Straffung oder Lockerung verschiedener Prüfungsparameter, die in anschließenden Entscheidungsschritten benutzt werden, von Nutzen sein.
  • In einem weiteren Entscheidungsschritt kann das geeignete Signal (zum Beispiel der vollständige Strom, der durch einen bestimmten Punkt oder bestimmte Punkte fließt) in Abhängigkeit vom minimalen Schwellenwert für eine einzige Berührung verglichen werden. So lange das Signal nicht diesen minimalen Schwellenwert übersteigt, wird keine Berührung registriert. Falls das Signal den minimalen Schwellenwert übersteigt, wird es in Abhängigkeit vom maximalen Schwellenwert für eine einzige Berührung verglichen. Falls das Signal kleiner als der maximale Schwellenwert der einzigen Berührung ist, kann die Position der Berührung aus der geeigneten Menge von Messungen berechnet und gemeldet werden. Falls das Signal den maximalen Schwellenwert der einzigen Berührung überschreitet, wird das Signal als doppelte Berührung ausgewertet, und die Positionsdaten für die Berührung werden nicht gemeldet. Daten von nicht gemeldeten doppelten Berührungen lassen sich jedoch speichern, und eine neue Messung kann durchgeführt werden. Falls das Signal später unter den maximalen Schwellenwert abfällt, aber oberhalb des minimalen Schwellenwerts bleibt, kann eine neue Berührungsposition gemeldet werden. Zu diesem Zeitpunkt kann das System bestimmen, was mit den gespeicherten Daten von dem überlappenden doppelten Berührungsvorgang gemacht werden soll. Das Speichern und Verwenden ungemeldeter doppelter Berührungsdaten ist ein wahlweiser Schritt, der nach jeglichem Entscheidungsschritt, bei dem eine überlappende Berührung angedeutet wurde, durchgeführt werden kann.
  • In 1, auf die wieder Bezug genommen wird, weist ein anderer Schritt das Überwachen der Änderungsrate einer Signalgröße auf. Falls die Änderungsrate der Größe einen Schwellenwert überschreitet, kann dies eine doppelte Berührung oder instabile Berührung andeuten.
  • Falls die Berührung stabil ist und die Änderungsrate kleiner als der Schwellenwert ist, kann eine Position gemeldet werden. Auf ähnliche Weise kann die Änderungsrate der berechneten Position von einer Messung zur nächsten überwacht werden, um zu bestimmen, ob eine doppelte Berührung wahrscheinlich aufgetreten ist. Als anderer Schritt kann bestimmt werden, ob die berechnete X-, V-Position ausreichend genau mit einem vorgegebenen aktiven Bereich wie einem Symbol übereinstimmt. Wenn ja können die gültigen Berührungskoordinaten gemeldet werden. Falls mehr als einer der in 1 gezeigten Entscheidungsschritte in einem Verfahren der vorliegenden Erfindung benutzt werden, kann eine höhere Aussagewahrscheinlichkeit bereitgestellt werden, dass gemeldete Berührungsstellen gültig sind.
  • So wie zuvor angesprochen, lassen sich Messdaten von überlappenden Berührungen speichern, selbst wenn keine gültige Berührungsstelle gemeldet werden konnte. Die gespeicherten Daten von der doppelten Berührung können später benutzt werden. Wenn zum Beispiel eine neue Messung als doppelte Berührung bestimmt wird, wird keine Berührung gemeldet, aber die Messdaten können gespeichert werden. Falls der doppelten Berührung unmittelbar eine gemeldete einzige Berührung vorausging, die einer der Berührungen der doppelten Berührung zugeordnet werden kann, lassen sich die Messdaten von der vorher gemeldeten Berührungsstelle aus den Messdaten der doppelten Berührung in einer Weise abziehen, dass eine zweite Berührungsposition berechnet und gemeldet werden kann, wobei im Wesentlichen eine gültige Berührungsstelle, die sonst in den doppelten Berührungsdaten verborgen war, zurückgezogen wird. Falls keine gemeldete einzige Berührung in der vorausgehenden Messung war, dann können die doppelten Berührungsdaten gespeichert bleiben, und eine neue Messung kann durchgeführt werden. Falls die neue Messung eine gemeldete einzige Berührung ist, kann das System nachprüfen, ob die unmittelbar vorausgehende Messung eine ungemeldete, aber gespeicherte doppelte Berührung war. Wenn ja können die neuen Daten der einzigen Berührung aus den gespeicherten Daten der doppelten Berührung abgezogen werden, um die vorhergehende ungemeldete einzige Berührung, die mit der neu gemeldeten einzigen Berührung überlappte, zu berechnen.
  • Die neuen Positionsdaten, die durch Abziehen bekannter gültiger Signale von benachbarten Signalen der doppelten Berührung errechnet wurden, können wahlweise auf Nähe mit bekannten Symbolpositionen (oder sonstigen aktiven Bereichspositionen des Berührungsbildschirms) nachgeprüft werden. Dies kann die Wahrscheinlichkeit, dass die zurückgezogene Position gültig ist, weiter unterstützen, insbesondere in Situationen, wo die gemessenen Signalpegel im Zeitablauf ein wenig zu Schwankungen neigen.
  • 2 veranschaulicht einen Entscheidungsbaum, der verwendet werden kann, wenn die Änderungsrate der Signalgröße zur Bestimmung des Vorhandenseins und der Folge von Berührungskontakten und Abhebungen sequentieller Berührungsvorgänge benutzt wird. Sobald eine Berührung auf Grund eines von einer Verweilphase gefolgten Berührungskontakts erkannt wird, kann das System die Schwellenwertdaten nachprüfen, um zu bestimmen, ob die Größe des Verweilsignals einer einzigen Berührung entspricht. Handelt es sich um eine einzige Berührung, kann die Position berechnet und gemeldet werden. Falls der Berührungskontakt ein gleichzeitiger doppelter Berührungskontakt ist, dann ist er keine einzige Berührung, und das System wartet, um Abhebvorgänge zu erkennen, um jegliche Position zu berechnen und zu melden. Wiederum, falls der ursprüngliche Berührungskontakt auf einer einzigen Berührung beruht, wird die Position gemeldet. Das System prüft dann nach, ob der nächste Vorgang eine Abhebung ist (was das Ende der einzigen Berührung und folglich keine überlappenden Berührungen andeutet) oder ob der nächste Vorgang ein anderer Berührungskontakt ist (was überlappende Berührungen andeutet). Falls der nächste Vorgang ein anderer Berührungskontakt ist, dann schleift das System bis eine Abhebung erkannt ist. Falls der nächste Vorgang eine Abhebung ist und ein Verweilsignal nach der Abhebung verbleibt, bedeutet dies, dass noch eine andere Berührung besteht, die sich nicht abgehoben hat, und die Position dieser verbleibenden Berührung kann berechnet werden. Falls kein Verweilsignal verbleibt, dann bestanden gleichzeitige Abhebungen.
  • Diese allgemeinen Schritte können wie erörtert oder in verschiedenen Kombinationen oder mit anderen nicht in 1 oder 2 gezeigten Schritten in einem Berührungssystem oder -verfahren der vorliegenden Erfindung benutzt werden, um mehrere Berührungsvorgänge von einzigen Berührungsvorgängen zu unterscheiden. Spezifische Beispiele der Umsetzung dieser und anderer Schritte werden näher im Folgenden beschrieben.
  • Wie zuvor angesprochen, kann der vollständig gemessene Strom als Signal zum Unterscheiden zwischen einzigen und doppelten Berührungen in kapazitiven, resistiven und kraftbasierten Berührungseingabefeldern benutzt werden. In diesem Sinne ist es aufschlussreich, die in 3A bis 3G dargestellten Szenarien zu betrachten, die schematisch Schaubilder eines vollständig gemessenen Stroms ΣI im Vergleich zur Zeit für sieben verschiedene Situationen veranschaulicht, bei denen ein oder zwei Benutzer einen Sensor in verschiedenartigen Sequenzen berühren. Auf gleichbedeutende Weise kommt 3 zur Anwendung, wenn ein einziger Benutzer ein oder zwei Berührungen gemäß den verschiedenartigen Sequenzen ausführt.
  • In 3A berührt der Benutzer A zuerst, und ΣI ist von einer größeren Größe als ΣITH, der minimale Schwellenwert zur Messung einer Berührungsstelle, aber unterhalb von ΣIAMAX, wobei ΣIAMAX größer als ein vorgegebener maximaler Strom ist, der wahrscheinlich durch eine einzige Berührung von einem Benutzer A erzeugt wird. TTOUCH ist die Zeitdauer, während welcher ΣI zwischen den Schwellenwerten ΣITH und ΣIAMAX ist. Wenn die Dauer von TTOUCH lang genug für mindestens S vorzunehmende Abtastungen ist (mindestens für eine Zeit TS), dann kann As Berührungsposition zur Zeit T1 gemeldet werden. B nimmt einen Berührungskontakt zur Zeit TTOUCH vor, und ΣI übersteigt ΣIAMAX für eine Dauer TOL, was zwei überlappende Berührungen andeutet. Der Benutzer A hebt dann ab, und ΣI kehrt zu einem Pegel zwischen ΣITH und ΣIAMAX für eine Dauer TLIFT zurück. Dann hebt B ab, und ΣI kehrt zu einem Pegel unterhalb von ΣITH zurück. Falls TLIFT > TS kann eine gültige einzige Berührung gemessen werden, und Bs Berührungsposition kann zur Zeit T2 gemeldet werden. Folglich können die beiden Berührungspositionen von A und B genau gemeldet werden. Beispielhafte Werte der Zeit TS sind im Bereich von etwa 4 bis 20 Millisekunden. Für eine typische Anwendung, wo eine virtuelle Schaltfläche oder ein Symbol berührt werden, ist eine Gesamtberührungszeit für einen einzigen Benutzer normalerweise in einem Bereich von etwa 20 bis 80 Millisekunden.
  • 3B zeigt schematisch eine Sequenz, wo B zuerst berührt, dann berührt A, dann hebt A ab, dann hebt B ab. Die Dauern von TTOUCH und TLIFT sind derart lang genug, dass S Abtastungen vorgenommen werden können, wenn einzig B berührt. Gültige Berührungen von Bs Stelle können als solche zu beiden T1 und T2 gemeldet werden. Die Phantomstelle wird nicht gemeldet.
  • 3C zeigt schematisch eine Sequenz, wo A und B gleichzeitig einen Berührungskontakt ausführen, dann hebt A ab, dann hebt B ab. Die Dauer von TLIFT ist derart lang genug, dass S Abtastungen vorgenommen werden können, wenn einzig B berührt, damit eine gültige Berührung von Bs Stelle T2 gemeldet werden kann. Die Phantomstelle wird nicht gemeldet, da, während A berührt, ΣI größer als der maximale Wert für eine gültige einzige Berührung ist.
  • 3D veranschaulicht schematisch das Gegenteil der in 3C gezeigten Sequenz. In 3D berührt der Benutzer B zuerst mit ausreichender TTOUCH-Zeit, um die Position von Bs Berührung zu messen, die zur Zeit T1 gemeldet werden kann. Dann berührt A, dann heben A und B beinahe gleichzeitig ab. Es besteht eine unzureichende TLIFT-Zeit für eine zweite zu erzeugende gültige Position, und die Phantomstelle wird nicht gemeldet.
  • 3E zeigt eine Sequenz, wo A zuerst berührt, dann berührt B und A hebt fast gleichzeitig ab, dann hebt B ab. TTOUCH und TLIFT sind derart lang genug, dass S Abtastungen vorgenommen werden können, wenn A und B jeweils allein berühren, daher können gültige Berührungen für A zur Zeit T1 und dann für B zur Zeit T2 gemeldet werden.
  • 3F zeigt A und B, die einen Berührungskontakt fast gleichzeitig ausführen, dann fast gleichzeitig abheben. In diesem Sonderfall wird ΣI als oberhalb des Schwellenwerts ΣITH, aber als unterhalb des vorgegebenen maximalen Stroms für eine einzige Berührung gezeigt. Demzufolge kann eine gültige Berührung zu den Zeiten T1 und T2 gemeldet werden, die beide fehlerhaft wären, weil Phantompositionen, die sich irgendwo zwischen As Berührung und Bs Berührung befinden, gemeldet würden. Solch eine Situation kann auf verschiedene Weisen berücksichtigt werden, zum Beispiel, indem bestimmt wird, ob die gemeldete Berührungsposition in einem inaktiven Bereich liegt oder in einem Bereich, in dem doppelte Berührungen wahrscheinlicher sind. Wenn ja kann das Melden des Berührungspunkts davon abhängig sein, dass die Messungen weiteren Prüfungen unterworfen werden oder kann gänzlich vermieden werden. Falls aus weiteren Prüfungen oder sonst bestimmt wird, dass eine derartige Situation eine andere Berührung darstellt, kann dies dem System als Hinweis dienen, Schwellenwerte neu zu kalibrieren.
  • 3G zeigt einen Fall, wo einzig der Benutzer A berührt, aber die Größe ΣI von As Berührung ist derart oberhalb des Schwellenwerts ΣIAMAX, da keine gültige Berührung gemeldet wird. Das hat einen Fehler zur Folge, da einzig A berührt wird. Dieser Fehlerfall kann durch die Addition von weiterer Logik abgeschwächt werden. Falls zum Beispiel zwei sequentielle Berührungsvorgänge, wie in 3G gezeigt, erkannt werden, dann kann die Position des zweiten Berührungsvorgangs mit einem hohen Maß an Gewissheit, dass es eine wirkliche Berührung und keine Phantomberührung auf Grund überlappender Signale ist, berechnet und registriert werden. Dies beruht auf der Annahme, dass die Wahrscheinlichkeit, dass zwei Berührungen fast genau gleichzeitig zweimal in einer Reihe als Berührungskontakt-, Verweil- und Abhebvorgang auftreten, geringfügig ist. Zusätzlich zur Registrierung des zweiten solcher sequentiellen Vorgänge kann die Messung zur Änderung der Schwellenwerte benutzt werden. Dieses Szenario wird noch einmal näher im Folgenden in Verbindung mit den 6 und 7 betrachtet.
  • Die in 3F und 3G schematisch gezeigten Fälle können verursacht werden, wenn sich ΣI maßgeblich und schnell ändert, zum Beispiel auf Grund erheblicher Änderungen in der Berührungskraft, erheblicher Änderungen in der Berührungsimpedanz eines Benutzers und/oder eines Benutzerkörpers zur Erdungsimpedanz oder dergleichen. Häufige Neukalibrierungen der Schwellenwerte kann das Auftreten von Situationen der Art von 3F und 3G minimieren.
  • Die Verfahren und Systeme der vorliegenden Erfindung werden im Folgenden näher beschrieben und mit Bezugnahme auf spezifische Berührungssensor-Technologien.
  • 4 veranschaulicht schematisch ein kapazitives Berührungssystem, das einen Sensor 11, eine Stromversorgung 14 und unterstützende Elektronik 15 aufweist. Die Stromversorgung 14 ist mit einer gemeinsamen Erdung verbunden. Wenn ein einziger Benutzer 25A den Sensor 11 an der Stelle A berührt, fließen die Ströme von der Stromversorgung 14 durch jede der vier Ecken des Sensors, durch den Benutzer und in die Erde, wobei die Summe der Ströme als ΣI bezeichnet wird. Die Berührungsposition kann durch Berechnen der Verhältnisse der Ströme, die durch jede der vier Ecken des Sensors fließen, bestimmt werden. Im Allgemeinen ist die gemessene Berührungsposition weitgehend unabhängig von dem Gesamtstrom, der durch die Stromversorgung fließt, und der Größe der Stromversorgung. Die Berührungsstelle ist im Allgemeinen und weitgehend nur von den Verhältnissen der Ströme abhängig, die durch die vier Ecken des Sensors 11 fließen.
  • Wenn eine zweite Person 25B den Sensor an einer Stelle B berührt, während die Person 25A in der Verweilphase ist, dann nehmen der Gesamtstrom, der durch die Stromversorgung fließt sowie die vier Ströme, die durch die vier Ecken fließen, zu. Wenn der zum Berechnen der Position einer einzigen Berührung benutzte Algorithmus zur Messung der Berührungsstelle des doppelten Berührungssignals benutzt wird, ist die erkannte Berührungsstelle eine Phantomberührung, die irgendwo zwischen den Stellen A und B positioniert ist. Wenn folglich zwei Benutzer gleichzeitig berühren, ist die gemessene Berührungsposition ungenau, weil das System effektiv den Durchschnitt von den zwei Berührungspositionen berechnet. Die gemessene Berührungsstelle ist im Allgemeinen von den einzelnen Strömen abhängig, die durch jeden Benutzer fließen und den verschiedenen Impedanzen, die in der Schaltung vorhanden sind einschließlich der Kontaktimpedanz für jeden Benutzer. Als Folge davon ist die gemessene Berührungsposition im Allgemeinen instabil, da sie sich mit typischen Impedanzschwankungen und dem Berührungsstrom ändert. Die Instabilität kann wesentlich sein, da sich der Gesamtstrom um mehr als einen Faktor von 10 während des Berührungskontakts und der Abhebung ändern kann.
  • Gemäß der vorliegenden Erfindung kann das Vorhandensein von zwei gleichzeitigen oder überlappenden Berührungen durch Messen von Berührungsparametern erkannt werden. Speziell kann gemäß der vorliegende Erfindung die Größe des Gesamtstroms ΣI, der durch die Stromversorgung fließt, zur Erkennung des Vorhandenseins von überlappenden Berührungen benutzt werden. Da sich verschiedene Benutzer wesentlich in ihrem Berührungsstrom unterscheiden können, ist es hilfreich, wenn jeder Benutzer seine Berührungssignalgröße durch Berühren des Sensors 11 vor dem normalen Einsatz kalibriert. Diese Information kann dann zum Einstellen von Schwellenwerten benutzt werden, um einzige Berührungen von doppelten Berührungen zu unterscheiden. Alternativ lassen sich Strompegel einziger Berührer während des normalen Einsatzes gemessen werden, und die Schwellenwerte können folglich im Zeitverlauf aktualisiert werden.
  • Die Bestimmung der Stelle einer gültigen Berührung kann auch vom Bildformat, das durch einen Berührungsbildschirm angezeigt wird, abhängig sein. Zum Beispiel kann, wie schematisch in 5 veranschaulicht, ein auf einer Anzeige gezeigtes Bild, das sich hinter einem transparenten Berührungsbildschirm 69 befindet, zwei Spalten virtueller Schaltflächensymbole 67 und 68 darstellen, die sich jeweils im Bereich 62A und im Bereich 62B befinden. Da wo die Berührungseingabe in Bereichen des Berührungsbildschirms 69 ausgeführt werden soll, die den Symbolen 67 oder 88 entsprechen, kann jegliche ausgeführte Berührung oder die anderswo gemessen wird, wie beispielsweise in den Bereichen 64A, 64B oder 66, eine ungültige Berührung oder eine Phantomberührung andeuten. Infolgedessen hat jegliche Berührung, die in den Bereichen 64A, 64B oder 66 gemessen wird, eine höhere Wahrscheinlichkeit, eine falsche Berührung zu sein. Solch eine falsche Berührung kann eine Phantomberührung sein, die durch zwei gleichzeitige oder überlappende Berührungen verursacht wird, wobei eine auf dem Symbol 67 und die andere auf dem Symbol 68 jeweils in den Bereichen 62A und 62B ausgeführt wird. Die Nähe berechneter Berührungsstellen mit festen Bereichen der Berührungsbildschirmfläche oder mit beweglich angezeigten Symbolen kann zum Unterscheiden gültiger Berührungen als eigenständiges Verfahren oder als mit anderen Unterscheidungsverfahren kombiniertes Verfahren benutzt werden, wie beispielsweise jene, die Schwellenwerte von Signalgrößen und/oder Schwellenwerte von Änderungsraten einsetzen. Beim Einsatz in Kombination mit anderen Verfahren kann die Symbolnähe zur Änderung der Auswertung von anderen Berührungsparametern benutzt werden, zum Beispiel zur Feinabstimmung mehrerer Berührungsunterscheidungsfähigkeit, so wie näher im Folgenden beschrieben.
  • Zusätzlich zum Vergleichen berechneter Symbolanordnungen für Berührungsstellen (oder sonstiger aktiver Bereiche) kann die Stelle einer offensichtlichen Berührung bezogen auf „inaktive" Bereiche auf dem Berührungsbildschirm nützliche Information zur Unterscheidung mehrerer Berührungen bereitstellen. Ein kapazitiver, resistiver oder kraftabhängiger Berührungssensor, der während überlappender Perioden in zwei Stellen berührt, wird eine einzige offensichtliche Berührung erkennen, die zwischen zwei berührten Punkten liegt. Ein Algorithmus, der auf der Anordnung in 5 basiert, benutzt diese Eigenschaft vorteilhaft in Fällen, wo die zwei Berührungen auf gegenüberliegende Hälften des Berührungsbildschirms beschränkt sind. Zum Beispiel wird ein kapazitiver, resistiver oder kraftabhängiger Berührungsbildschirm 69, der im Bereich 62A und auch im Bereich 62B berührt wird einen gemessene Berührung von etwa halbwegs zwischen den zwei Berührungen, zum Beispiel im Bereich 66, ergeben. Daher kann eine im Bereich 66 gemessene Berührung weiter mittels anderer Parameter überprüft werden, um zu bestimmen, ob ein oder zwei Benutzer berühren. Von einer im Bereich 62A (oder 62B) gemessenen Berührung ist es jedoch unwahrscheinlich, dass sie die Folge von zwei Benutzern, die auf gegenüberliegenden Seiten des Berührungsbildschirms 69 berühren, sind, da die Berührung eines zweiten Benutzers irgendwo auf der rechten Seite des Bildschirms 69 wahrscheinlich verursachen würde, dass der kombinierte gemessene Berührungspunkt außerhalb des Bereichs 62A ist. Es ist ebenfalls möglich, eine offensichtliche Berührungsstelle in Bereichen 64A oder 64B zu haben.
  • 6 veranschaulicht ein beispielhaftes Ablaufdiagramm eines Algorithmus 100 gemäß einem Aspekt der vorliegenden Erfindung. Der Algorithmus 100 unterscheidet das Vorhandensein von einer Berührung im Vergleich zu zwei zeitlich überlappenden Berührungen, die an einem Berührungssensor ausgeführt werden, und meldet eine gültige Berührungsstelle, wenn befunden wird, dass eine einzige Berührung an den Berührungssensor ausgeführt wurde. In Schritt 106 wird ΣI, der Gesamtstrom, der durch die vier Ecken des Berührungsbildschirms fließt, berechnet. In Schritt 101 wird ΣI mit einem vorgegebenen minimalen Schwellenwert ΣITH verglichen, um zu bestimmen, ob das Berührungssignal eine ausreichende Größe hat, um die Messung der Berührungsposition zu gewährleisten. Wenn ΣI groß genug ist, wird eine Berührungsposition berechnet, und die resultierende Position wird, wie in Schritt 102 behandelt, gespeichert. Die Mess- und Berechnungsschritte 106, 101 und 102 werden dann zusätzliche Male (S-1) wiederholt, wobei S ein vorgegebener Wert, zum Beispiel 4, ist. Wenn ein Anzeigewert von ΣI in Schritt 101 nicht größer als ΣITH ist, wird die Größe vorhergehender S Abtastungen in Schritt 104 nachgeprüft, um zu bestimmen, ob alle größer als ΣITH waren. Wenn sie es waren, wird ein Abhebzustand angezeigt, und die letzte Messung (d.h. die Messung, die kleiner als ΣITH war) wird verworfen. Die vorhergehenden S Abtastungen können dann benutzt werden, um S neue Berührungspositionen, so sie in Schritt 105 behandelt, zu berechnen. Der Schritt 110 kann dann ausgeführt werden, wobei der Durchschnitt der S Positionen ausgewertet wird, um zu bestimmen, ob die gemessene Berührungsstelle in der Nähe zu jeglichem von einem oder mehr vorbestimmten Bereichen des Berührungsbildschirms ist (bspw. Symbolbereiche wie in 5 gezeigt) oder ob die gemessene berührte Stelle innerhalb anderer Bereiche (bspw. inaktive Bereiche) fällt. Der Wert bestimmter Auswertungsparameter in Schritt 110 kann zum Teil auf der Stelle der gemessenen Berührung basierend eingestellt werden.
  • Die Parameter MA und MB sind Prozentanteile, die den vorgemessenen Werten von ΣIA oder ΣIB zugerechnet werden, um jeweils den Wert ΣIMAX zu erzeugen, dem Schwellenwert oberhalb dessen eine Messung als auf überlappenden Berührungseingaben basierend gedeutet wird. ΣIMAX kann für einen Benutzer A anders als für einen Benutzer B sein. Z ist ein Prozentanteil der X, Y-Gesamtabmessungen des Berührungsbildschirms. X kann eine Koordinatenachse entlang der Länge des Berührungsbildschirms sein und kann in der Mitte des Berührungsbildschirms zentriert sein. Y kann einen Koordinatenachse entlang der Breite des Berührungsbildschirms sein und kann in der Mitte des Berührungsbildschirms zentriert sein. Falls sich die X- und/oder Y-Koordinate der gemessenen Berührungsposition um mehr als Z Prozent während der S Berührungsstellenmessung ändert, wird auf der Basis der Positionsänderungsrate angenommen, dass der Berührungsvorgang instabil oder ungültig ist, und es wird keine Positionsmessung wird gemeldet. M% ist ein maximal zulässiger Prozentanteil der ΣI-Parameteränderung. Falls ΣI sich um mehr als M% während der S Messabtastungen ändert, wird angenommen, dass der Berührungsvorgang instabil oder ungültig ist, und es wird keine Messposition gemeldet. Die in Schritt 110 gezeigten Parameterwerte sind zur Veranschaulichung gegeben, und es können beliebige Werte, die sich für eine besondere Anwendung eignen, benutzt werden. In Schritt 112 wird der Durchschnitt von S Positionen benutzt, um zu bestimmen, ob die Berührung auf der Hälfte des Berührungsbildschirms ausschließlich durch den Benutzer A verwendet wird oder auf der Hälfte des Berührungsbildschirms ausschließlich durch den Benutzer B benutzt wird. Je nachdem, welche Hälfte auf dem Sensor berührt wird, wird ΣI als ΣIA oder ΣIB bezeichnet, und in Schritt 114 oder Schritt 116 wird eine Berechnung durchgeführt, um zu bestimmen, ob ΣIA größer als ΣIAMAX ist oder ob ΣIB größer als ΣIB ist.
  • Als Beispiel können ΣIAMAX und ΣIBMAX mittels folgender Gleichungen bestimmt werden: ΣIAMAX = ΣIACAL + MA% (1) ΣIBMAX = ΣIBCAL + MB% (2)
  • ΣIACAL und ΣIBCAL sind vorher gemessene und gespeicherte Kalibrierwerte einer einzigen Berührung, die jeweils durch den Benutzer A und den Benutzer B ausgeführt werden. Wenn ΣIA und ΣIB oberhalb des anwendbaren Schwellenwerts liegt, wurden zwei überlappende Berührungen erkannt. Als solche kann die gemessene Position als Phantomberührung gedeutet werden in einer Weise, dass keine Berührungsposition gemeldet wird und neue Messungen durchgeführt werden. Falls der Wert unterhalb dieses Schwellenwerts liegt, werden die S Positionen geprüft, um zu bestimmen, ob eine von ihnen mehr als Z% von einer anderen entfernt ist. Wenn ja wird befunden, dass sich die Messgröße zu sehr bewegt, um eine stabile oder gültige Position zu ergeben, und es wird, wie in Schritt 118 behandelt, keine Berührung gemeldet. Wenn die S Abtastungen positionsweise stabil sind, wird ihre Größenänderungsrate in Schritt 120 ausgewertet, wo die S Abtastungen von ΣI geprüft werden, um zu bestimmen ob sich ΣI um mehr als M% unter den S Messungen geändert hat. Falls sich ΣI um mehr als M% geändert hat, wird befunden, dass sich die Signalgröße zu sehr ändert, um eine stabile Position zu ergeben, und es wird keine gültige Berührung gemeldet. Schritt 122 kann durchgeführt werden, um zu bestimmen, ob die Berührungsposition auf der Basis ihrer Nähe zu einer bekannten Symbolstelle gültig ist. Ein gemessene Berührungsposition und die als nahe genug an einem Symbol gemeldet wird, kann als gültig angesehen werden, während eine gemessene Berührungsposition, die sich relativ weit von allen Symbolen befindet, als ungültig betrachtet werden kann. In Schritt 124 wird eine gültige Berührungsposition gemeldet und kann als Software-Anwendung benutzt werden.
  • Mit dem Algorithmus 100 von 6, wo die Entscheidung getroffen wird, keine Berührung zu melden, kann die ungemeldete Berührung gemeinsam mit den Parametern der ungemeldeten Berührung einer Softwareanwendung zwecks weiterer Auswertung durch die Softwareanwendung gemeldet werden. Es mag Fälle geben, wo der Algorithmus 100 keine gültige oder wirklich Berührung erkennen kann, aber mit zusätzlicher Information kann die Softwareanwendung in der Lage sein, zu entscheiden, ob die ungemeldete Berührung nützliche Information enthält, die eine Entkopplung der überlappenden Berührungssignale verursachen kann, damit die gültigen Berührungspositionen gemeldet werden können.
  • 7 veranschaulicht ein beispielhaftes Ablaufdiagramm von einem Algorithmus 125 gemäß einem anderen Aspekts der vorliegenden Erfindung. Der Algorithmus 125 führt im Allgemeinen viele Schritte aus, die im Algorithmus 100 von 6 behandelt werden. Mit dem Algorithmus 125 wird zusätzlich der Akzent auf die Änderungsrate der Berührungsgröße ΣI und auf Positionsänderungen gesetzt. Mit dem Algorithmus 125 wird ΣI für jede neue Abtastung, wie in Schritt 106 behandelt, berechnet, dann geprüft, um zu bestimmen, ob ein Schwellenwert, wie in Schritt 101 behandelt, überschritten wird. Wenn der Schwellenwert nicht überschritten wird, wird die vorherige Abtastung geprüft und, falls sie oberhalb des Berührungsschwellenwerts ist, wird sie, wie in den Schritten 126 und 128 behandelt, weiter benutzt. Falls der Berührungsschwellenwert durch die neue Abtastung überschritten wird, wird ΣI berechnet, und X-, Y-Koordinaten einer neuen Berührungsposition werden, wie in Schritt 102 behandelt, berechnet. Dann werden die Werte bestimmten Variablen auf der Basis der berechneten Stelle der neuen Berührung, wie in Schritt 110 behandelt, zugewiesen. Die Parameterwerte in Schritt 110 sind zur Veranschaulichung gegeben, und es können beliebige Werte, die sich für eine besondere Anwendung eignen, benutzt werden.
  • Dann wird der neue ΣI mit dem ΣI von der vorherigen Abtastung verglichen, um zu bestimmen, ob die ΣI-Änderung kleiner als eine bestimmte Änderungswertrate M, wie in Schritt 130 behandelt, ist. Falls die ΣI-Änderung größer als M ist, werden zusätzliche S Abtastungen verarbeitet, bevor eine gültige Berührung, wie in Schritt 138 behandelt, gemeldet wird. Falls die ΣI-Änderung kleiner als M ist, dann wird Schritt 132 ausgeführt, wobei die X-, Y-Positionen der berechneten Berührungsabtastung mit vorgegebenen Werten verglichen werden, um zu bestimmen, ob sich die berechnete Berührungsposition um mehr als eine spezifische Größe, die Z% genannt wird, bewegt hat. Falls sich die Berührungsposition um mehr als Z% bewegt hat, wird der Schritt 138 durchgeführt, und der Ablauf startet erneut ab Schritt 106. Falls sich die Berührungsposition um weniger als Z% bewegt hat, wird die Bildschirmhälfte in Schritt 134 bestimmt, wobei die berechnete X-, Y-Position benutzt wird, um zu bestimmen, ob die Berührungseingabe von der Hälfte des Berührungsbildschirms, der ausschließlich durch den Benutzer A benutzt wird, stammt, oder der Hälfte des Bildschirms, die ausschließlich durch den Benutzer B benutzt wird. Je nachdem, welche Hälfte des Sensors berührt wird, ist ΣI als ΣIA oder ΣIB gekennzeichnet. In Schritt 135 oder Schritt 136 wird eine Berechnung durchgeführt, um zu bestimmen, ob ΣIA größer als ΣIA ist oder ob ΣIB größer als ΣIBMAX ist, was jeweils aus Gleichung 1 oder 2 abgeleitet wird. Falls der geeignete ΣIA- oder ΣIB-Wert oberhalb seines jeweiligen Schwellenwerts ist, wurden zwei gleichzeitige oder überlappende Berührungen erkannt, und es wird keine gültige Position gemeldet, und keine neuen Messungen werden durchgeführt. Falls der geeignete ΣIA- oder ΣIB-Wert unterhalb seines Schwellenwerts ist, wird die berechnete Position auf Nähe zu einem angezeigten Symbol (oder sonstigem spezifizierten aktiven Bereich), wie in Schritt 122 behandelt, geprüft. Falls eine Übereinstimmung mit einem aktiven Bereich gefunden wird, wird eine gültige Berührung gemeldet. Andernfalls startet der Ablauf erneut in Schritt 106.
  • Es ist möglich, eine gültige Berührungsposition zu messen und Berührungseingaben von einem oder zwei Benutzern zu unterscheiden, ohne alle Schritte, die mit dem Algorithmus 100 von 6 oder dem Algorithmus 125 von 7 behandelt werden, auszuführen. In Bezug auf 6 und 7 kann Schritt 110 beispielsweise durch feste Parameterwerten MA, MB, Z und M ersetzt werden. Als weiteres Beispiel kann Schritt 118 oder 132 ausgelassen werden, damit der Parameter Z nicht benutzt wird, oder Schritt 120 oder 130 kann ausgelassen werden, damit der Parameter M nicht benutzt wird. Als weiteres Beispiel kann Schritt 112, 114 und 116 des Algorithmus 100 oder Schritt 134, 135 und 136 des Algorithmus 125 ausgelassen werden. Als weiteres Beispiel kann Schritt 122 ausgelassen werden. Als noch weiteres Beispiel kann ein Algorithmus gemäß einem Aspekt der vorliegenden Erfindung aus Schritt 118 und 122 oder Schritt 130 und 132 bestehen, um eine einzige Berührung im Vergleich zu zwei gleichzeitigen oder überlappenden Berührungen zu unterscheiden.
  • Betrachten wir erneut die in 3G dargestellte Situation, wo ein einziger Berührungsvorgang durchgeführt wird, aber das Signal den einzigen Berührungsschwellenwert übersteigt. Die Fehlermöglichkeit auf Grund eines solchen Szenarios kann mittels der Algorithmen 100 von 6 und 125 von 7 abgeschwächt werden. Wenn mit dem Algorithmus 100 von 6 S Abtastungen auf der Basis der Kriterien ΣIA > ΣIAMAX oder ΣIB > ΣIBMAX für zwei sequentielle Berührungsvorgänge, die durch eine Zeitperiode von ΣI < ΣITH getrennt sind, abgelehnt werden, dann wird der zweite sequentielle Vorgang der Art von 3G als gültige Berührung gemeldet. Alternativ kann der zweite sequentielle Vorgang weiter geprüft werden. Falls beispielsweise Schritt 120 findet, dass ΣI um mehr als eine spezifische Größe (M%) geändert wurde, dann kann Schritt 118 mit dem Wert des beispielsweise um die Hälfte reduzierten Z wiederholt werden. Falls sich die Position der letzten S Positionen um mehr als Z/2 geändert hat (geänderter Schritt 118), dann wird keine gültige Berührung gemeldet. Andernfalls kann es sein, dass bei der Positionsstabilitätsprüfung die Instabilitätsgröße nicht berücksichtigt wird und eine gültige Berührung gemeldet wird. Diese Prüfung nutzt die allgemeine Tendenz, dass im Fall von zwei gleichzeitigen Berührungen eine ΣI_Änderung von einer der Berührungen eine merkliche positionsabhängige Änderung in der gemessenen Berührungsposition verursacht, während im Fall einer einzigen Berührung eine ΣI_Änderung im Allgemeinen eine unbedeutende Änderung in der gemessenen Berührungsposition verursacht. Beide der zwei oben beschriebenen beispielhaften Alternativen können zur Behandlung des Sonderfalls, wo ein Benutzer einen Berührungsbildschirm mit einem Berührungssignal großer Größe berührt, dass die gleiche Stelle wieder berührt, weil das Berührungssystem die erste Berührung nicht registriert hat.
  • Obwohl die Algorithmen 100 von 6 und 250 von 7 hauptsächlich in Verbindung mit einem kapazitiven Berührungssensor beschrieben sind, können ähnliche Algorithmen zur Erkennung des Auftretens von einer oder mehr gleichzeitigen oder überlappenden Berührungen in Berührungsbildschirmsystemen, die andere Technologien als die nachstehend beschriebene kapazitive Technologie einsetzen, benutzt werden.
  • Ein Aspekt der vorliegenden Erfindung ist ferner in Bezug auf einen resistiven Berührungssensor beschrieben, der schematisch in 8 gezeigt ist. In 8 weist ein resistives 4-Draht-Berührungssystem 160 eine Oberfolie 150 und ein Trägermaterial 152 auf. Die Oberfolie und das Trägermaterial haben resistive Beschichtungen auf ihren sich gegenüberliegenden Seiten. Die Oberfolie 150 ist als auseinandergezogene Ansicht gezeigt, die vom Trägermaterial 152 zur leichteren Veranschaulichung und ohne Beschränkung der Allgemeinheit getrennt ist. Leitende Elektroden 142 und 144 stellen den elektrischen Kontakt mit der resistiven Fläche der Oberfolie 150 her. Elektrische Leiter 160 und 161 verbinden die von der Signalquelle 154 stammenden Signale mit der Oberfolie 150. Leitende Elektroden 146 und 148 stellen den elektrischen Kontakt mit der resistiven Fläche des Trägermaterials 152 her, und Leiter 162 und 163 verbinden die Signale mit dem Trägermaterial 152. Wenn eine Person 25A die Oberfolie 150 berührt, stellt die resistive Beschichtung auf der Oberfolie 150 einen elektrischen Kontakt mit der resistiven Beschichtung auf dem Trägermaterial 152 her. Die horizontale Koordinate der resultierenden Berührungsposition wird durch Anlegen eines Spannungsgradienten zwischen den Elektroden 142 und 144 gemessen und durch Messen der Spannung auf mindestens einer der Elektroden 146 und 148. Die vertikale Koordinate der Berührungsposition wird durch Anlegen eines Spannungsgradienten zwischen den Elektroden 146 und 148 auf ähnliche Weise gemessen und durch Messen der Spannung auf mindestens einer der Elektroden 142 und 144.
  • Gemäß der vorliegenden Erfindung kann das Vorhandensein von einer einzigen Berührung oder mehreren gleichzeitigen oder überlappenden Berührungspunkten durch Messen des Gesamtstroms von der Oberfolie 150 zum Trägermaterial 152 bis zu jedem der Berührungspunkte bestimmt werden. Strommessungen lassen sich mit Positionsmessungen abwechseln. Im Beispiel von 8 wird angenommen, dass da, wo zwei Benutzer 25A und 25B Berührungen am Berührungssystem 160 ausführen, der Benutzer 25A die linke Hälfte der Oberfolie 150 und der Benutzer 25B die rechte Hälfte der Oberfolie berührt. Der Strom kann zum Beispiel durch Anlegen einer Spannungsquelle 154 gemessen werden und durch Messen des resultierenden Stroms mittels der Strommessschaltung 155. Eine durch den Benutzer 25A ausgeführte einzige Berührung verursacht einen Gesamtstrom ΣIRA, der durch den Stromzähler 155 fließt. ΣIRA schwankt im Allgemeinen je nach der Stelle und Oberfläche der Berührung, fällt aber normalerweise innerhalb eines übereinstimmenden Bereichs. Wenn zwei Berührungen gleichzeitig ausgeführt werden, beide von zwei einzigen Benutzern 25A und 25B, die jeweils eine einzige Berührung ausführen oder von einem einzigen Benutzer, der Berührungen an zwei verschiedenen Stellen betätigt, wird ein Gesamtstrom ΣIR erzeugt, der zum Stromzähler 155 fließt. Im Allgemeinen ist ΣIR wesentlich höher als ΣIRA. Gemäß der vorliegenden Erfindung lassen sich zwei gleichzeitige oder überlappende Berührungen von einer einzigen Berührung unterscheiden, indem der erzeugte Gesamtstrom mit dem erwarteten Strom, der aus einer einzigen Berührung resultiert, verglichen wird, wobei es sich im Allgemeinen versteht, dass der Gesamtstrom ΣIR höher ist, wenn zwei oder mehr Berührungen ausgeführt werden. Der ΣIR kann je nach auf der Oberfolie 150 berührten Stelle oder berührten Stellen schwanken, aber es besteht im Allgemeinen ein wesentlicher Unterschied zwischen ΣI für eine im Vergleich zu zwei Berührungen.
  • Somit kann ein Schwellenwert ΣIRTH festgesetzt werden, oberhalb dessen ein gemessenes Berührungssignals als aus zwei oder mehr Berührungen resultierend, welche in einer zeitlich überlappenden Weise ausgeführt werden, gedeutet werden kann.
  • 9 veranschaulicht ein beispielhaftes Flussdiagramm eines Algorithmus 200 gemäß einem Aspekt der Erfindung. Der Algorithmus 200 ist in vieler Hinsicht dem Algorithmus 100 von 6 ähnlich. Ein Unterschied zwischen den zwei Algorithmen besteht darin, dass gemäß des Algorithmus 200 der Gesamtstrom ΣIR der Gesamtstrom ist, der zwischen der Oberfolie 150 und dem Trägermaterial 152 von 8 durch alle Berührungspunkten fließt. Andere Parameter in 9 werden auf ähnliche Art und Weise wie jene im Algorithmus 100 von 6 definiert. Während ein Algorithmus 200 in Verbindung mit dem resistiven Vierdraht-Berührungseingabefeld 160 von 8 beschrieben wird, kann der gleiche oder ein ähnlicher Algorithmus beispielsweise für resistive Vierdraht-, Sechsdraht- oder Achtdraht-Berührungsbildschirme zur Anwendung kommen. Eine gültige Berührungsposition kann gemessen und ein oder zwei Benutzer lassen sich, ohne dass alle im Algorithmus 200 behandelten Schritte ausgeführt werden, unterscheiden. Schritt 210 kann beispielsweise durch feste Parameterwerten MA, MB, Z und M ersetzt werden. Als weiteres Beispiel kann Schritt 218 ausgelassen werden, damit der Parameter Z nicht benutzt wird, oder Schritt 220 kann ausgelassen werden, damit der Parameter M nicht benutzt wird. Als weiteres Beispiel kann Schritt 212, 214 und 216 ausgelassen werden, damit die Parameter MA und MB nicht benutzt werden. Als weiteres Beispiel kann Schritt 222 ausgelassen werden. Als noch weiteres Beispiel unter gewissen Bedingungen kann Schritt 206, 218, 220 und 222 benutzt werden, um eine überlappende Berührung zu erkennen oder eine gültige Berührungsposition zu melden.
  • Die vorliegende Erfindung kann ferner für ein kraftabhängiges Berührungssystem in einer Weise angewandt werden, die dem Verfahren der oben beschriebenen kapazitiven und resistiven Berührungssysteme ähnlich ist. Der Algorithmus 100 von 6 oder 125 von 7 können zum Unterscheiden von zwei oder mehr überlappenden Berührungen in einem kraftabhängigen Berührungsbildschirm zur Anwendung kommen. Die gemeinsame US-Patentanmeldung Nr. 09/835,040 mit dem Titel „Improved Method and Apparatus for Force Based Touch Input" offenbart einen kraftabhängigen Berührungsbildschirmsystem, bei dem die Art des Messens berührungsbasierter Kräfte den Einsatz kapazitiver Sensoren aufweist, die an den Ecken einer starren Deckschicht angeordnet sind. Gemäß der vorliegenden Erfindung kann der Gesamtstrom ΣI, der durch die kraftempfindlichen kapazitiven Sensoren fließt, benutzt werden, um eine einzige Berührung im Vergleich zu zwei oder mehr überlappenden Berührungen zu unterscheiden. Die Parameter MA, MB, Z, M und angezeigten Symbolpositionen können ebenfalls gemäß den Algorithmen 100 oder 125 benutzt werden, um zwei oder mehr überlappende Berührungen zu unterscheiden und eine gültige Position in einem kraftabhängigen Berührungsbildschirm zu melden.
  • Mit der Beschreibung der Verfahren und Berührungssysteme der vorliegenden Erfindung wurden verschiedenartige Konzepte geschaffen, die sich jeweils auf die Unterscheidung zwischen einzigen Berührungsvorgängen und mehreren Berührungsvorgängen beziehen. Obwohl sie auf einigermaßen verschiedene Art und Weise angewandt werden, sind alle diese Konzepte für eine ähnliche Umsetzung in einer Vielfalt von geeigneten Arten und Weisen für resistive, kapazitive und kraftabhängige Berührungssysteme geeignet. Bestimmte dieser Konzepte lassen sich auch in anderen Berührungsbildschirm-Technologien wie SAW (Oberflächenwellentechnik) umsetzen. Zum Beispiel kann Information zur Änderungsrate der Signalgröße und Positionsinformation benutzt werden, um gültige Berührungen von Phantomberührungen zu unterscheiden, wenn zeitlich überlappende Berührungen in einem SAW-Berührungssystem erkannt werden.
  • Die Betriebsprinzipien von SAW-Berührungsbildschirmen sind zum Beispiel in der US-Patentschrift Nr. 6,225,965 offenbart. 10 zeigt ein Diagramm eines SAW-Berührungsbildschirms 250. Gestrichelte Linien 270 stellen die Wege akustischer Wellen dar, die vom Geber 252 ausgesendet werden, dann über die Fläche des Berührungsbildschirms 250 durch ein reflektierendes Feld 260 verteilt werden, dann zum Empfänger 253 durch ein anderes reflektierendes Feld 274 reflektiert werden. Horizontale Wellen (nicht gezeigt) werden zu getrennten Zeiten durch den Geber 254 ausgesendet, dann über die Bildschirmfläche 250 durch ein reflektierendes Feld 272 verteilt, dann zum Empfänger 255 durch ein anderes reflektierendes Feld 258 reflektiert. Die Punkte 262 und 264, die durch ein akustisch absorbierendes Medium wie einen Finger berührt werden, schwächen den Anteil der Wellen 270, die unter den berührten Punkten durchlaufen.
  • 11A zeigt schematisch ein Schaubild eines wie vom Empfänger 253 empfangenen, dann verstärkten und gleichgerichteten Signals 302. Vor einer ausgeführten Berührung wird eine Basislinien-Hüllkurve 304 des Signals 302 gemessen, digitalisiert und in einem Computerspeicher gespeichert. Anschließende Abweichungen wie 306 und 308 von der Basislinien-Hüllkurve 304 werden ausgewertet, und wenn ihre Tiefe Vx oder Vy oberhalb eines vorgegebenen Schwellenwerts Vth liegt, wird eine Berührungsposition auf der Basis des Zeitverzugs vom Beginn zum Mittelpunkt einer gemessenen Abweichung berechnet. Da die Größe der Basislinie 304 wesentlich im Zeitverlauf schwanken kann, können Vx und Vy als Prozentanteil des Basislinienpegels 304 am Berührungspunkt ausgedrückt werden. 11A stellt zwei Abweichungen verschiedener Größe, 306 und 308, dar, die zwei Berührungen in der X-Dimension andeuten. 11B zeigt schematisch zwei Abweichungen in der Wellenform in der V-Dimension, 310 und 312, welche den zwei Abweichungen von 11A entsprechen.
  • Durch die Art des Erkennungsmechanismus kann ein SAW-Berührungsbildschirm einen doppelten Berührungsvorgang leicht andeuten. Allerdings ist nicht so leicht erkennbar, welche X-Koordinate mit welcher Y-Koordinate wirkt. Als solche gibt es zwei gültige Berührungen und zwei Phantomberührungen, die nach wie vor unterschieden werden müssen. Dies kann anhand der Signalgröße und der Information zur Signaländerungsrate gemäß der vorliegenden Erfindung geschehen. Das Basisprinzip der Unterscheidung ist, dass die X- und Y-Signale für einen gültigen Berührungspunkt in ihren Größen und Änderungsraten ähnlich sein werden, während Phantompunkte die X-Signalmerkmale von der Berührung eines Benutzers und Y-Signalmerkmale vom anderen Benutzer aufweisen, welche wahrscheinlich nicht zusammenpassen.
  • Etliche Parameter lassen sich zur Unterscheidung gültiger Berührungspunkte von Phantompunkten benutzen. Die gemessenen Tiefen Vx1, Vy1, Vx2 und Vy2 und Breiten Wx1, Wx2, Wy1 und Wy2 von jeweiligen Abweichungen 306, 310, 308 und 312 und die Parameter der Änderungsrate Vx1/t, Vx2/t, Vy1/t, Vy2/t, Wx1/t, Wx2/t, Wy1/t und Wy2/t können benutzt werden, um gültige Punkte von ihren entsprechenden Phantomberührungspunkten zu unterscheiden.
  • 11C zeigt schematisch ein Beispiel einer Hüllkurve des Signals Vx(t), wo Vx1 und Wx1 hinsichtlich der Größe über vier sequentielle Abtastungen schwanken, was auftreten kann, wenn eine Person anfangs den Berührungskontakt auf dem Berührungsbildschirm 250 von 10 ausführt. Die vier sequentiellen Hüllkurven der Signale 314, 315, 316 und 317 können auf einem Benutzer beruhen, der den Berührungsbildschirm 250 von 10 mit erhöhtem Druck berührt. Die Hüllkurve 314 wird gerade vor dem Berührungskontakt empfangen. Die Hüllkurven 314, 315, 316 und 317 werden gemessen, wenn der Berührungsfinger auf die Fläche des Berührungsbildschirms 250 von 10 gedrückt wird. Man kann sehen, dass die Tiefenmessung Vx und Breitenmessung Wx ab null zunehmen entsprechend der Hüllkurve 314, bis Vx1t1 und Wx1t1 entsprechend der Hüllkurve 315, dann bis Vx1t2 und Wx1t2 entsprechend der Hüllkurve 316, dann bis Vx1t3 und Wx1t3 entsprechend der Hüllkurve 317.
  • Die Parameter der Änderungsrate Vx/t, Vy/t, Wx/t und Wy/t werden durch Vergleichen jeder neuen Abtastung der Parameter mit den vorherigen Abtastungen mittels folgender Gleichungen bestimmt: Vx/t = Vx/t(neu) – Vx/t (bisherig) (3) Vy/t = Vy/t(neu) – Vy/t (bisherig) (4) Wx/t = Wx/t (neu) – Wx/t(bisherig) (5) Wy/t = Wy/t (neu) – Wy/t(bisherig) (6)
  • Für die in 11C gezeigte Sequenz weisen die Werte von Vx/t und Wx/t auf: Vx/t1 = Vxt2 – Vxt1, Vx/t2 = Vxt3 – Vxt2, Vx/t3 = Vxt4 – Vxt3 und,(7) Wx/t1 = Wxt2 – Wxt1, Wx/t2 = Wxt3 – Wxt2, Wx/t3 = Wxt4 – Wxt3;(8)wo im Allgemeinen Vx/t3 > Vx/t2 > Vxt1 und Wx/t3 > Wx/t2 > Wxt1.
  • Normalerweise sind Vx und Vy eines berührten Punkts wie Wx und Wy hinsichtlich der Größe proportional: |Vxn – Vyn| = Vc < Vmin (9) |Wxn – Wyn| = Wc < Vmin (10)
  • Ferner sind die Änderungsraten von den mit jedem berührten Punkt assoziierten Signalen normalerweise etwa dieselben in einer Weise, dass: |Vxn/t – Vyn/t| ≈ O < V/tmin (11) |Wxn/t – Wyn/t| ≈ O < W/tmin (12),wo Vmin, Wmin, V/tmin und W/tmin vorbestimmte Werte sind. Die Werte Vx, Vy, Wx, Wy, Vx/t, Vy/t, Wx/t und Wy/t für einen Phantompunkt bestehen aus Vx, Wx, Vx/t und Wx/t, die von einem der berührten Punkte gemessen werden und Vy, Wy, Vy/t und Wy/t, die vom anderen gemessen werden. Falls sich irgendwelche der gemessenen Parameter, die aus den zwei berührten Punkten 262 und 264 resultieren, ausreichend voneinander unterscheiden (d.h. falls der Unterschied die Werte Vmin, Wmin, V/tmin oder W/tmin überschreitet), dann können die Berührungspunkte 262 und 264 von Phantompunkten 266 und 268 unterschieden werden, indem diese Parameter gemäß dem in 12 gezeigten Algorithmus 350 verglichen werden.
  • 12 und 13 veranschaulichen ein beispielhaftes Ablaufdiagramm eines Algorithmus 350 gemäß einem Aspekt der Erfindung. Der Algorithmus 350 benutzt Parameter Vx, Vy, Wx, Wy und Änderungsraten dieser Parameter Vx/t, Vy/t, Wx/t und Wy/t und prüft ferner auf Nähe der gemessenen Punkte zu Symbolstellen (oder sonstigen eigenständigen aktiven Bereichen) nach, um unter mehreren Berührungspunkten zu unterscheiden. Zuerst werden Messungen von X- und Y-Hüllkurven im Vergleich zu einer im Speicher gespeicherten Basislinie, wie in Schritt 352 behandelt, durchgeführt. Dann werden Änderungen in den neuesten Messungen bezogen auf die vorherige Basislinie berechnet, und wo Parameter Vx, Vy oberhalb eines vorgegebenen Schwellenwertes Vth ermittelt werden, werden Parameter Wx, Wy, Tx und Ty eines berührten Punkts, wie in Schritt 354 veranschaulicht, berechnet. In Schritt 356 wird die Anzahl der Punkte berechnet, wo Vx und Vy größer als Vth sind und wo die Bedingungen Wmin < Wx < Wmax und Wmin < Wy < Wmax erfüllt sind (Wmin und Wmax sind vorgegebene Werte). Falls ein Punkt ermittelt wird, dann können die Zeiten Tx und Ty, die den gemessenen Abweichungen entsprechen, zur Berechnung der Koordinaten X und Y des berührten Punkts in Schritt 358 benutzt werden, und der Ablauf beginnt wieder ab Schritt 352. Falls mehr als zwei Punkte ermittelt werden, ist keine Unterscheidung möglich, und der Ablauf beginnt wieder ab Schritt 352. Falls zwei berührte Punkte in Schritt 356 ermittelt werden, dann werden Parameter Vx und Vy mit entsprechenden Pnn-Werten in Schritt 360 gleichgesetzt für den Einsatz im Unterscheidungsalgorithmus 320 von 13. In Schritt 362 wird der Algorithmus 320 ausgeführt.
  • 13 zeigt einen Algorithmus 320, wobei X- und Y-Komponenten von verschiedenartigen Parametern verglichen werden, um gültige Berührungspunkte von Phantomberührungspunkten zu unterscheiden. In Schritt 322 wird die Größe eines Parameters der ersten X-Abweichung (306 in 11A) mit Y-Abweichungen 310 und 312 verglichen. Der kleinere Unterschied wird als Psm bezeichnet. In Schritt 324 wird der größere der Unterschiede zwischen den Abweichungen als Plg bezeichnet. Falls in Schritt 326 (Plg – Psm) > Pmin, dann besteht die Möglichkeit, die Phantompunkte von den gültigen Punkten auf der Basis des Unterschieds zu unterscheiden, und es wird Schritt 328 ausgeführt. Andernfalls deutet Schritt 330 an, dass Berührungspunkte nicht auf der Basis des geprüften Parameters unterschieden werden können. In Schritt 328 werden die Unterschiede in Parametergrößen zwischen der ersten X-Abweichung 306 und den Y-Abweichungen 310 und 312 benutzt, um die beste Übereinstimmung auszuwählen, die andeutet, welche von 310 oder 312 die übereinstimmende Y-Koordinate für die X-Abweichung 306 ist. Falls die Parameter der Abweichungen 304 und 310 größenmäßig übereinstimmen, deutet Schritt 332 an, dass ein Berührungspunkt Koordinaten auf der Basis von Abweichungen aufweist, die zu den Zeiten Tx1 und Ty1 auftraten, und die zweiten Koordinaten werden auf der Basis von Abweichungen zu den Zeiten Tx2 und Ty2 sein. Andernfalls deutet Schritt 334 an, dass ein Berührungspunkt Koordinaten auf der Basis der Zeiten Tx1 und Ty2 aufweist, und der andere entspricht den Zeiten Tx2, Ty1.
  • Falls Schritt 364 bestimmt, dass Berührungspunkte durch den auf den Vx- und Vy–Parametern in Schritt 362 wirkenden Algorithmus 320 unterschieden wurden, dann wird Schritt 386 ausgeführt, um X- und Y-Koordinaten von zwei Berührungspunkten aus den geeigneten Zeitmessungen Tx1, Tx2, Ty1 und Ty2 zu berechnen, und die resultierenden Koordinaten werden gemeldet. Falls die Unterscheidung missglückte, dann werden in Schritt 366 die Parameter Wx und Wy mit entsprechenden Pnn-Werten für den Einsatz im Unterscheidungsalgorithmus 320 gleichgesetzt, und in Schritt 368 wird der Algorithmus 320 erneut mit den Wx- und Wy-Parametern ausgeführt. Falls Schritt 370 bestimmt, dass Berührungspunkte durch den auf den Wx- und Wy-Parametern wirkenden Schritt 368 unterschieden wurden, dann wird Schritt 386 ausgeführt. Falls die Unterscheidung missglückte, dann werden in Schritt 372 die Parameter Vx/t, Vy/t, Wx/t und Wy/t berechnet. In Schritt 374 werden die Vx/t- und Vy/t-Parameter dann mit entsprechenden Pnn-Werten für den Einsatz im Unterscheidungsalgorithmus 320 gleichgesetzt, und in Schritt 376 wird der Algorithmus 320 ausgeführt. Falls Schritt 378 bestimmt, dass Berührungspunkte durch den auf den Vx/t- und Vy/t-Parametern wirkenden Schritt 376 unterschieden wurden, dann wird Schritt 386 ausgeführt. Falls die Unterscheidung missglückte, dann werden Wx/t- und Wy/t-Parameter in Schritt 380 mit entsprechenden Pnn-Werten für den Einsatz im Unterscheidungsalgorithmus 320 gleichgesetzt, und der Algorithmus 320 wird in Schritt 382 ausgeführt. Falls Schritt 384 bestimmt, dass Berührungspunkte durch den auf den Wx/t- und Wy/t-Parametern wirkenden Schritt 382 unterschieden wurden, dann wird Schritt 386 ausgeführt. Andernfalls versagt die auf Signalparametern basierte Unterscheidung, und Schritt 360 wird ausgeführt, wobei die X- und Y-Koordinaten der vier möglichen Berührungspunkte 262, 264, 266 und 268 berechnet werden. Dann, falls ermittelt wird, dass Positionen von zwei diagonal verschobenen Berührungspunkten mit Symbolpositionen korrelieren und die anderen zwei Stellen nicht, können die zwei symbol-korrelierten Stellen als gültige Berührungspunkte gemeldet werden.
  • Dieser Ablauf wird ferner in Bezug auf 10 beschrieben, wo eine Spalte von fünf virtuellen Schaltflächensymbolen 251 auf der linken Seite des Berührungsbildschirms 250 angeordnet ist, und eine Spalte von virtuellen Schaltflächensymbolen 253 auf der rechte Seite angeordnet ist. Die Symbole 251 und 253 werden durch den transparente Berührungsbildschirm 250 angezeigt, der für den gleichzeitigen Einsatz durch zwei Benutzer oder für doppelte Berührungen durch einen einzigen Benutzer bestimmt ist. Die Symbole 251 sind vertikal von den Schaltflächen 253 in einer Weise versetzt, dass ein Berührungspunkt auf einem Symbol in Spalte 251 nicht mit den Symbolen von Spalte 253 ausgerichtet wird. Daher können gültige Berührungen 262 und 264 am unteren linken Symbol beziehungsweise oberen rechten Symbol von jeweiligen Phantomberührungen 266 und 268 durch die Tatsache unterschieden werden, dass die Phantompunkte nicht in der Nähe eines Symbols sind. Dieses Unterscheidungsverfahren kann sowohl in horizontalen als auch in vertikalen Dimensionen oder in beiden Dimensionen gleichzeitig zur Anwendung kommen. Die folgende Ausführung von Schritt 360, Schritt 352 wird ausgeführt, um den Ablauf wieder zu starten.
  • Die vorliegende Erfindung sollte nicht als auf die oben beschriebenen besonderen Beispiele beschränkt angesehen werden, sondern eher als alle Aspekte der Erfindung umfassend verstanden werden, so wie es auf angemessene Weise in den beiliegenden Ansprüchen dargelegt ist. Für Fachkundige, auf welche die vorliegende Erfindung ausgerichtet ist, werden beim Überblick der vorliegenden Beschreibung die verschiedenen Abwandlungen, gleichwertigen Abläufe sowie zahlreiche Strukturen, für welche die vorliegende Erfindung anwendbar sein kann, leicht deutlich. Die Erfindung ist in den beigefügten Ansprüchen definiert.

Claims (13)

  1. verfahren zum Unterscheiden zwischen zwei oder mehr zeitlich überlappten Berührungseingaben in ein Berührungsbildschirmsystem mit: (a) Messsignalen, die durch die zwei oder mehr Berührungseingaben verursacht werden, (b) Bestimmen von Positionsdaten für die Berührungseingaben, (c) Bestimmen, ob eines der Signale einen minimalen Schwellenwert für eine einzige Berührungseingabe überschreitet, (d) Bestimmen, ob eines der Signale einen maximalen Schwellenwert für eine einzige Berührungseingabe überschreitet, (e) Berechnen und Melden an das Berührungsbildschirmsystem einer Berührungsstelle anhand von Positionsdaten, die jeglichem der Signale entsprechen, das den minimalen Schwellenwert überschreitet, aber nicht den maximalen Schwellenwert überschreitet, und gekennzeichnet durch (f) Abziehen der gemessenen Signale, die zum Bestimmen der in Schritt (e) benutzten Positionsdaten eingesetzt werden, von vorher oder anschließend gemessenen Signalen, die sich auf Positionsdaten beziehen, welche jeglichem der Signale, das den maximalen Schwellenwert überschreitet, entsprechen, um eine nicht durch Schritt (e) gemeldete Berührungsstelle zu berechnen.
  2. Verfahren nach Anspruch 1, ferner aufweisend das Bestimmen, welche Anteile der Gesamtsignale den Berührungskontakt-, Verweil- und Abhebvorgängen der zwei oder mehr überlappenden Berührungseingaben entsprechen.
  3. Verfahren nach Anspruch 1, ferner aufweisend den Schritt des Berechnens und Meldens einer Berührungsstelle, wenn von zwei sequentiellen Schrittfunktionen (a) bis (e) beide eine berührungsfreie Stelle ergeben, die auf Grund der Signale, die den maximalen Schwellenwert überschreiten, gemeldet wird.
  4. Verfahren nach Anspruch 1, wobei mindestes einer der minimalen und maximalen Schwellenwerte von einem Kalibrierschritt bestimmt wird.
  5. Verfahren nach Anspruch 1, wobei der minimale und maximale Schwellenwert vorgegebene Werte aufweist.
  6. Verfahren nach Anspruch 1, wobei mindestens einer der minimalen und maximalen Schwellenwerte während des normalen Einsatzes des Berührungsbildschirmsystems aktualisiert wird.
  7. Verfahren nach Anspruch 1, wobei mindestens einer der minimalen und maximalen Schwellenwerte auf der Basis von Benutzerberührungen innerhalb eines bestimmten Bereichs aktualisiert werden.
  8. Verfahren nach Anspruch 1, wobei verschiedene minimale und maximale Schwellenwerte verschiedenen Benutzern zugewiesen werden können.
  9. Verfahren nach Anspruch 1, wobei das Gesamtsignal eine vollständige elektrische Strommessung ist.
  10. Verfahren nach Anspruch 1, wobei das Berührungsbildschirmsystem einen kapazitiven Berührungsbildschirm aufweist.
  11. Verfahren nach Anspruch 1, wobei das Berührungsbildschirmsystem einen resistiven Berührungsbildschirm aufweist.
  12. Verfahren nach Anspruch 1, wobei das Berührungsbildschirmsystem einen kraftbasierten Berührungsbildschirm aufweist.
  13. Verfahren nach Anspruch 1, wobei eine Berührungsstelle in Schritt (e) nur gemeldet wird, wenn die in Schritt (e) errechnete Berührungsstelle innerhalb eines Bereichs des Berührungsbildschirms, der als gültiger Berührungsbereich bestimmt ist, enthalten ist.
DE60220933T 2001-10-03 2002-08-13 Verfahren zum unterscheiden von gleichzeitigen berührungseingaben Expired - Lifetime DE60220933T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US970474 2001-10-03
US09/970,474 US7254775B2 (en) 2001-10-03 2001-10-03 Touch panel system and method for distinguishing multiple touch inputs
PCT/US2002/025604 WO2003030091A1 (en) 2001-10-03 2002-08-13 Touch panel system and method for distinguishing multiple touch inputs

Publications (2)

Publication Number Publication Date
DE60220933D1 DE60220933D1 (de) 2007-08-09
DE60220933T2 true DE60220933T2 (de) 2008-04-03

Family

ID=25516999

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60220933T Expired - Lifetime DE60220933T2 (de) 2001-10-03 2002-08-13 Verfahren zum unterscheiden von gleichzeitigen berührungseingaben

Country Status (9)

Country Link
US (3) US7254775B2 (de)
EP (2) EP1436772B1 (de)
JP (1) JP4044522B2 (de)
KR (1) KR20040037247A (de)
CN (1) CN100359452C (de)
AT (1) ATE365940T1 (de)
CA (1) CA2461287A1 (de)
DE (1) DE60220933T2 (de)
WO (1) WO2003030091A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023137A1 (de) 2009-05-28 2010-12-02 Volkswagen Ag Verfahren zum Bedienen eines Kraftfahrzeuges
DE102009030791A1 (de) 2009-06-27 2010-12-30 Volkswagen Ag Navigationssystem, insbesondere für ein Kraftfahrzeug
DE102010056160A1 (de) 2010-12-24 2012-06-28 Volkswagen Ag Verfahren zum Bedienen eines Gerätes, insbesondere eines Kraftfahrzeuges
DE102011009152A1 (de) 2011-01-22 2012-07-26 Volkswagen Ag Verfahren zum Bedienen eines Matrix-Touchscreens, insbesondere eines in einem Kraftfahrzeug angeordneten Touchscreens
DE102011009710A1 (de) 2011-01-29 2012-08-02 Volkswagen Ag Verfahren zum Bedienen eines Matrix-Touchscreens, insbesondere eines in einem Kraftfahrzeug angeordneten Touchscreens

Families Citing this family (636)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7629969B2 (en) * 1996-08-12 2009-12-08 Tyco Electronics Corporation Acoustic condition sensor employing a plurality of mutually non-orthogonal waves
US8421776B2 (en) 1996-08-12 2013-04-16 Elo Touch Solutions, Inc. Acoustic condition sensor employing a plurality of mutually non-orthogonal waves
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
ATE453147T1 (de) * 2000-07-05 2010-01-15 Smart Technologies Ulc Verfahren für ein kamerabasiertes berührungssystem
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US9778794B2 (en) 2001-11-02 2017-10-03 Neonode Inc. Light-based touch screen
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US9052777B2 (en) 2001-11-02 2015-06-09 Neonode Inc. Optical elements with alternating reflective lens facets
US8674966B2 (en) 2001-11-02 2014-03-18 Neonode Inc. ASIC controller for light-based touch screen
US6977646B1 (en) * 2001-11-30 2005-12-20 3M Innovative Properties Co. Touch screen calibration system and method
US7250939B2 (en) 2002-03-19 2007-07-31 Aol Llc Display motion multiplier
US7461356B2 (en) * 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
US7499033B2 (en) * 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US7023427B2 (en) * 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US8125459B2 (en) 2007-10-01 2012-02-28 Igt Multi-user input systems and processing techniques for serving multiple users
US7221358B2 (en) * 2002-09-24 2007-05-22 Fujitsu Ten Limited In-vehicle digital broadcast reception apparatus
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
KR100456155B1 (ko) * 2002-11-13 2004-11-09 엘지.필립스 엘시디 주식회사 터치패널장치 및 그 제어 방법
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
KR100469358B1 (ko) * 2002-12-23 2005-02-02 엘지.필립스 엘시디 주식회사 터치 패널의 구동 방법
US7362313B2 (en) * 2003-01-17 2008-04-22 3M Innovative Properties Company Touch simulation system and method
GB2397833B (en) * 2003-01-22 2005-09-14 Weatherford Lamb Control apparatus for automated downhole tools
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
EP1658551A1 (de) * 2003-08-29 2006-05-24 Nokia Corporation Verfahren und einrichtung zum erkennen einer dual-point-benutzereingabe auf einem benutzereingabegerät auf berührungsbasis
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
NZ529518A (en) * 2003-11-13 2005-03-24 Andy Zheng Song Input method, system and device
US20050183035A1 (en) * 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP4046078B2 (ja) * 2003-12-10 2008-02-13 ソニー株式会社 入力装置及び入力方法、並びに電子機器
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
JP4127536B2 (ja) * 2004-01-20 2008-07-30 任天堂株式会社 ゲーム装置及びゲームプログラム
JP4141389B2 (ja) * 2004-01-20 2008-08-27 任天堂株式会社 ゲーム装置及びゲームプログラム
JP2005208991A (ja) * 2004-01-23 2005-08-04 Canon Inc 位置情報出力装置及び信号処理方法
US6856259B1 (en) 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
US7180506B2 (en) * 2004-02-12 2007-02-20 Sentelic Corporation Method for identifying a movement of single tap on a touch device
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
JP2005276139A (ja) * 2004-02-23 2005-10-06 Aruze Corp 情報入力装置
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US7982724B2 (en) * 2004-05-20 2011-07-19 3M Innovative Properties Company Multiple region vibration-sensing touch sensor
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US20060007175A1 (en) * 2004-07-06 2006-01-12 Chung-Yi Shen Touch control method of single tap and control module thereof
US7184031B2 (en) * 2004-07-06 2007-02-27 Sentelic Corporation Method and controller for identifying a drag gesture
JP4405335B2 (ja) * 2004-07-27 2010-01-27 株式会社ワコム 位置検出装置、及び、入力システム
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
EP1621989A3 (de) * 2004-07-30 2006-05-17 Apple Computer, Inc. Berührungsempfindlicher Bildschirm für Mediaanwendungen, und Verfahren dafür
US20080105470A1 (en) * 2004-08-02 2008-05-08 Koninklijke Philips Electronics, N.V. Touch Screen Slider for Setting Floating Point Value
US20080094367A1 (en) * 2004-08-02 2008-04-24 Koninklijke Philips Electronics, N.V. Pressure-Controlled Navigating in a Touch Screen
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
DE102004040886A1 (de) * 2004-08-24 2006-03-02 Volkswagen Ag Bedienvorrichtung für ein Kraftfahrzeug
US20060077182A1 (en) * 2004-10-08 2006-04-13 Studt Peter C Methods and systems for providing user selectable touch screen functionality
US7711681B2 (en) 2004-11-05 2010-05-04 Accenture Global Services Gmbh System for distributed information presentation and interaction
WO2006066097A2 (en) * 2004-12-17 2006-06-22 Stoneridge Control Devices, Inc. Touch sensor system and method
US7952564B2 (en) * 2005-02-17 2011-05-31 Hurst G Samuel Multiple-touch sensor
JP4505740B2 (ja) * 2005-05-16 2010-07-21 ソニー株式会社 撮像装置及びその起動方法
US7567240B2 (en) * 2005-05-31 2009-07-28 3M Innovative Properties Company Detection of and compensation for stray capacitance in capacitive touch sensors
TWI269214B (en) * 2005-06-08 2006-12-21 Elan Microelectronics Corp Object-detecting method of capacitive touch panel
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
GB2428153A (en) * 2005-07-08 2007-01-17 Sharp Kk Interactive multiple view display
US8542196B2 (en) * 2005-07-22 2013-09-24 Move Mobile Systems, Inc. System and method for a thumb-optimized touch-screen user interface
US20070024591A1 (en) * 2005-07-27 2007-02-01 Tyco Electronics Corporation Retrofit touch sensor controls
AT502349B1 (de) * 2005-08-29 2008-07-15 Frequentis Gmbh Verfahren zur auswertung von touch-signalen und touch-einheit
TWI268692B (en) * 2005-09-05 2006-12-11 Inventec Appliances Corp Light spot control system and method thereof
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20070152980A1 (en) * 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
JP4416724B2 (ja) * 2005-11-07 2010-02-17 キヤノン株式会社 画像処理方法およびその装置
JP4769552B2 (ja) * 2005-11-14 2011-09-07 株式会社エヌ・ティ・ティ・ドコモ 端末及び端末の制御プログラム
US20070109280A1 (en) * 2005-11-15 2007-05-17 Tyco Electronics Raychem Gmbh Apparatus and method for reporting tie events in a system that responds to multiple touches
US20070109279A1 (en) * 2005-11-15 2007-05-17 Tyco Electronics Raychem Gmbh Method and apparatus for identifying locations of ambiguous multiple touch events
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US7821501B2 (en) * 2005-12-14 2010-10-26 Sigmatel, Inc. Touch screen driver and methods for use therewith
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
AU2016238971B2 (en) * 2006-01-30 2018-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8013846B2 (en) * 2006-02-10 2011-09-06 Tpk Holding Co., Ltd. Touch detection
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
US8144125B2 (en) 2006-03-30 2012-03-27 Cypress Semiconductor Corporation Apparatus and method for reducing average scan rate to detect a conductive object on a sensing device
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
DE112007002544A1 (de) 2006-06-09 2010-07-22 Apple Inc., Cupertino Flüssigkristallanzeige mit Berührungsbildschirm
US8243027B2 (en) 2006-06-09 2012-08-14 Apple Inc. Touch screen liquid crystal display
US8269725B2 (en) * 2006-06-28 2012-09-18 Microsoft Corporation Input simulation system for touch based devices
US9507465B2 (en) 2006-07-25 2016-11-29 Cypress Semiconductor Corporation Technique for increasing the sensitivity of capacitive sensor arrays
KR100866485B1 (ko) * 2006-08-22 2008-11-03 삼성전자주식회사 다접점 위치 변화 감지 장치, 방법, 및 이를 이용한 모바일기기
US20090303196A1 (en) * 2006-08-31 2009-12-10 Pioneer Corporation Matrix touch panel device
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP4820250B2 (ja) * 2006-09-19 2011-11-24 株式会社リコー 表示入力装置、方法およびプログラム
KR100782431B1 (ko) * 2006-09-29 2007-12-05 주식회사 넥시오 적외선 터치스크린의 다점 좌표인식방법 및 접점면적인식방법
WO2008045464A2 (en) 2006-10-10 2008-04-17 Wms Gaming Inc. Multi-player, multi-touch table for use in wagering game systems
KR20080032901A (ko) 2006-10-11 2008-04-16 삼성전자주식회사 멀티 터치 판단 장치 및 방법
US7856605B2 (en) * 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US20080100586A1 (en) * 2006-10-26 2008-05-01 Deere & Company Method and system for calibrating a touch screen
US8570278B2 (en) * 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US8547114B2 (en) 2006-11-14 2013-10-01 Cypress Semiconductor Corporation Capacitance to code converter with sigma-delta modulator
US8089288B1 (en) 2006-11-16 2012-01-03 Cypress Semiconductor Corporation Charge accumulation capacitance sensor with linear transfer characteristic
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
KR20080051459A (ko) * 2006-12-05 2008-06-11 삼성전자주식회사 스크롤 처리 방법 및 장치
KR100845792B1 (ko) * 2006-12-14 2008-07-11 한국과학기술연구원 다중 인터랙션용 테이블
US8072429B2 (en) * 2006-12-22 2011-12-06 Cypress Semiconductor Corporation Multi-axial touch-sensor device with multi-touch resolution
KR100794928B1 (ko) * 2006-12-29 2008-01-15 주식회사 켐트로닉스 연속 터치의 인식이 가능한 터치 감지 장치 및 방법
US8493330B2 (en) 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
US8094128B2 (en) 2007-01-03 2012-01-10 Apple Inc. Channel scan logic
US7643011B2 (en) * 2007-01-03 2010-01-05 Apple Inc. Noise detection in multi-touch sensors
US8125456B2 (en) 2007-01-03 2012-02-28 Apple Inc. Multi-touch auto scanning
US7812827B2 (en) 2007-01-03 2010-10-12 Apple Inc. Simultaneous sensing arrangement
KR100881186B1 (ko) 2007-01-04 2009-02-05 삼성전자주식회사 터치 스크린 디스플레이 장치
US7889185B2 (en) * 2007-01-05 2011-02-15 Apple Inc. Method, system, and graphical user interface for activating hyperlinks
US7889184B2 (en) * 2007-01-05 2011-02-15 Apple Inc. Method, system and graphical user interface for displaying hyperlink information
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080196945A1 (en) * 2007-02-21 2008-08-21 Jason Konstas Preventing unintentional activation of a sensor element of a sensing device
US20080235627A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Natural interaction by flower-like navigation
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
KR101420419B1 (ko) * 2007-04-20 2014-07-30 엘지전자 주식회사 전자기기와 그 데이터 편집방법 및 이동통신단말기
US8144126B2 (en) 2007-05-07 2012-03-27 Cypress Semiconductor Corporation Reducing sleep current in a capacitance sensing system
CN100590579C (zh) * 2007-05-16 2010-02-17 广东威创视讯科技股份有限公司 一种多点触摸定位方法
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US8493331B2 (en) 2007-06-13 2013-07-23 Apple Inc. Touch detection using multiple simultaneous frequencies
US7916126B2 (en) * 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
KR101383715B1 (ko) * 2007-06-21 2014-04-09 삼성디스플레이 주식회사 접촉 감지 기능이 있는 표시 장치 및 그 구동 방법
WO2009000289A1 (en) 2007-06-25 2008-12-31 Nokia Corporation Improvements in or relating to user interfaces and associated apparatus and methods
US20090002328A1 (en) 2007-06-26 2009-01-01 Immersion Corporation, A Delaware Corporation Method and apparatus for multi-touch tactile touch panel actuator mechanisms
US9500686B1 (en) 2007-06-29 2016-11-22 Cypress Semiconductor Corporation Capacitance measurement system and methods
US8570053B1 (en) 2007-07-03 2013-10-29 Cypress Semiconductor Corporation Capacitive field sensor with sigma-delta modulator
US8169238B1 (en) 2007-07-03 2012-05-01 Cypress Semiconductor Corporation Capacitance to frequency converter
WO2009008161A1 (ja) * 2007-07-11 2009-01-15 Access Co., Ltd. 携帯情報端末
CN101689089B (zh) * 2007-07-12 2012-05-23 爱特梅尔公司 二维触摸面板
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20090014579A (ko) * 2007-08-06 2009-02-11 삼성전자주식회사 터치 패널 일체형 표시 장치와 그 에러 보정 방법 및디스플레이 시스템
KR101386958B1 (ko) 2007-08-21 2014-04-18 삼성디스플레이 주식회사 터치위치 판별방법 및 이를 수행하기 위한 터치패널
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
KR20100075460A (ko) 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US9110590B2 (en) 2007-09-19 2015-08-18 Typesoft Technologies, Inc. Dynamically located onscreen keyboard
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
US10203873B2 (en) 2007-09-19 2019-02-12 Apple Inc. Systems and methods for adaptively presenting a keyboard on a touch-sensitive display
US20100179864A1 (en) * 2007-09-19 2010-07-15 Feldman Michael R Multimedia, multiuser system and associated methods
US8583491B2 (en) * 2007-09-19 2013-11-12 T1visions, Inc. Multimedia display, multimedia system including the display and associated methods
US9965067B2 (en) 2007-09-19 2018-05-08 T1V, Inc. Multimedia, multiuser system and associated methods
US9489086B1 (en) 2013-04-29 2016-11-08 Apple Inc. Finger hover detection for improved typing
US9953392B2 (en) 2007-09-19 2018-04-24 T1V, Inc. Multimedia system and associated methods
US10126942B2 (en) * 2007-09-19 2018-11-13 Apple Inc. Systems and methods for detecting a press on a touch-sensitive surface
EP2191353A4 (de) * 2007-09-19 2012-04-18 Madentec Ltd Reinigbare berührungs- und abtastemfpindliche oberfläche
US20120075193A1 (en) * 2007-09-19 2012-03-29 Cleankeys Inc. Multiplexed numeric keypad and touchpad
US9454270B2 (en) * 2008-09-19 2016-09-27 Apple Inc. Systems and methods for detecting a press on a touch-sensitive surface
US9335869B2 (en) * 2007-10-01 2016-05-10 Igt Method and apparatus for detecting lift off on a touchscreen
US8106892B2 (en) * 2007-10-29 2012-01-31 Sigmatel, Inc. Touch screen driver for resolving plural contemporaneous touches and methods for use therewith
US9851800B1 (en) 2007-11-05 2017-12-26 Sprint Communications Company L.P. Executing computing tasks based on force levels
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
TWI379227B (en) * 2007-11-16 2012-12-11 Asustek Comp Inc Touch display device and a method of determining a plurality of touch points thereof
US8059103B2 (en) * 2007-11-21 2011-11-15 3M Innovative Properties Company System and method for determining touch positions based on position-dependent electrical charges
US8502800B1 (en) 2007-11-30 2013-08-06 Motion Computing, Inc. Method for improving sensitivity of capacitive touch sensors in an electronic device
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
TWI353546B (en) * 2007-12-19 2011-12-01 Asustek Comp Inc Touch panel
TWI368161B (en) * 2007-12-21 2012-07-11 Htc Corp Electronic apparatus and input interface thereof
TWI400930B (zh) * 2007-12-28 2013-07-01 Htc Corp 手持電子裝置及其螢幕鎖定方法
US7830158B2 (en) * 2007-12-28 2010-11-09 3M Innovative Properties Company Time-sloped capacitance measuring circuits and methods
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
KR101469034B1 (ko) 2008-01-07 2014-12-05 삼성디스플레이 주식회사 디스플레이장치 및 그 제어방법
US20090174675A1 (en) * 2008-01-09 2009-07-09 Dave Gillespie Locating multiple objects on a capacitive touch pad
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
US8525798B2 (en) 2008-01-28 2013-09-03 Cypress Semiconductor Corporation Touch sensing
US10969917B2 (en) 2008-01-30 2021-04-06 Apple Inc. Auto scanning for multiple frequency stimulation multi-touch sensor panels
US8358142B2 (en) 2008-02-27 2013-01-22 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US8319505B1 (en) 2008-10-24 2012-11-27 Cypress Semiconductor Corporation Methods and circuits for measuring mutual and self capacitance
US9007310B1 (en) * 2008-02-29 2015-04-14 Cypress Semiconductor Corporation Single layer touch sensor with improved sensitivity and accuracy
US9104273B1 (en) 2008-02-29 2015-08-11 Cypress Semiconductor Corporation Multi-touch sensing method
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
EP2104027B1 (de) * 2008-03-19 2013-10-23 BlackBerry Limited Elektronische Vorrichtung mit berührungsempfindlicher Eingabeoberfläche und Verfahren zur Bestimmung einer benutzerseitig ausgewählten Eingabe
US8169332B2 (en) * 2008-03-30 2012-05-01 Pressure Profile Systems Corporation Tactile device with force sensitive touch input surface
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
EP2300899A4 (de) * 2008-05-14 2012-11-07 3M Innovative Properties Co Systeme und verfahren zum bewerten von orten von mehrfachberührungseingaben
KR101077854B1 (ko) * 2008-05-22 2011-10-31 (주)멜파스 복수의 접촉 입력을 감지하는 방법 및 장치
WO2009150285A1 (en) * 2008-06-10 2009-12-17 Nokia Corporation Touch button false activation suppression
CA2728410C (en) 2008-06-20 2014-05-06 Mattel, Inc. Capacitive touchpad and toy incorporating the same
TW201005606A (en) * 2008-06-23 2010-02-01 Flatfrog Lab Ab Detecting the locations of a plurality of objects on a touch surface
TW201007530A (en) * 2008-06-23 2010-02-16 Flatfrog Lab Ab Detecting the location of an object on a touch surface
TW201013492A (en) * 2008-06-23 2010-04-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
TW201001258A (en) * 2008-06-23 2010-01-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
US20090322700A1 (en) * 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
US20090322701A1 (en) * 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
KR101495559B1 (ko) * 2008-07-21 2015-02-27 삼성전자주식회사 사용자 명령 입력 방법 및 그 장치
US8228306B2 (en) 2008-07-23 2012-07-24 Flextronics Ap, Llc Integration design for capacitive touch panels and liquid crystal displays
US9128568B2 (en) 2008-07-30 2015-09-08 New Vision Display (Shenzhen) Co., Limited Capacitive touch panel with FPC connector electrically coupled to conductive traces of face-to-face ITO pattern structure in single plane
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US20110019875A1 (en) * 2008-08-11 2011-01-27 Konica Minolta Holdings, Inc. Image display device
US20100060588A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Temporally separate touch input
US9606663B2 (en) 2008-09-10 2017-03-28 Apple Inc. Multiple stimulation phase determination
US9348451B2 (en) 2008-09-10 2016-05-24 Apple Inc. Channel scan architecture for multiple stimulus multi-touch sensor panels
US8592697B2 (en) 2008-09-10 2013-11-26 Apple Inc. Single-chip multi-stimulus sensor controller
GB2467110A (en) * 2008-09-11 2010-07-28 Customer Res Technology Ltd Assessing the validity of responses to a touch screen survey
KR100982282B1 (ko) * 2008-09-19 2010-09-15 주식회사 애트랩 센서, 센서의 센싱 방법, 및 센서의 필터
TWI375169B (en) * 2008-09-22 2012-10-21 Htc Corp Display device
US9317159B2 (en) * 2008-09-26 2016-04-19 Hewlett-Packard Development Company, L.P. Identifying actual touch points using spatial dimension information obtained from light transceivers
US8321174B1 (en) 2008-09-26 2012-11-27 Cypress Semiconductor Corporation System and method to measure capacitance of capacitive sensor array
US20100079382A1 (en) * 2008-09-26 2010-04-01 Suggs Bradley N Touch-screen monitoring
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
KR100975869B1 (ko) * 2008-10-17 2010-08-13 삼성모바일디스플레이주식회사 터치 포인트 검출 방법 및 장치
WO2010047994A2 (en) 2008-10-20 2010-04-29 3M Innovative Properties Company Touch systems and methods utilizing customized sensors and genericized controllers
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
TWI470528B (zh) * 2008-11-10 2015-01-21 Asustek Comp Inc 電阻式觸控面板
TW201019203A (en) * 2008-11-10 2010-05-16 Asustek Comp Inc Resistive touch panel
TWI389023B (zh) * 2008-11-10 2013-03-11 Asustek Comp Inc 電阻式觸控面板及其接觸點偵測方法
TWI460646B (zh) * 2008-11-10 2014-11-11 Asustek Comp Inc 電阻式觸控面板
EP2368170B1 (de) * 2008-11-26 2017-11-01 BlackBerry Limited Berührungsempfindliches anzeigeverfahren und vorrichtung
US8183875B2 (en) * 2008-11-26 2012-05-22 3M Innovative Properties Company System and method for determining touch positions based on passively-induced position-dependent electrical charges
US20100171711A1 (en) * 2008-11-28 2010-07-08 Research In Motion Limited Portable electronic device with touch-sensitive display and method of controlling same
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
US8209861B2 (en) 2008-12-05 2012-07-03 Flextronics Ap, Llc Method for manufacturing a touch screen sensor assembly
US8274486B2 (en) 2008-12-22 2012-09-25 Flextronics Ap, Llc Diamond pattern on a single layer
JP5262703B2 (ja) * 2008-12-26 2013-08-14 ぺんてる株式会社 座標入力システム
EP2214082B1 (de) * 2009-01-29 2012-08-15 Tyco Electronics Services GmbH Berührungserfassungsvorrichtung mit einer Berührungshaltefunktion und einem zugehörigen Verfahren
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US8345019B2 (en) * 2009-02-20 2013-01-01 Elo Touch Solutions, Inc. Method and apparatus for two-finger touch coordinate recognition and rotation gesture recognition
WO2010095783A1 (ko) * 2009-02-23 2010-08-26 한국과학기술원 터치 스크린 제어 방법 및 이를 이용하는 터치 스크린 장치
KR100901106B1 (ko) * 2009-02-23 2009-06-08 한국과학기술원 터치 스크린 제어 방법, 터치 스크린 장치 및 휴대용 소형 전자 장치
JP5734546B2 (ja) * 2009-02-25 2015-06-17 京セラ株式会社 オブジェクト表示装置
US8432366B2 (en) 2009-03-03 2013-04-30 Microsoft Corporation Touch discrimination
EP2404229A1 (de) * 2009-03-06 2012-01-11 Cirque Corporation Oberflächenkapazität mit bereichsgesten
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8756534B2 (en) 2009-03-16 2014-06-17 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
EP2411898A4 (de) * 2009-03-25 2013-07-10 Alsentis Llc Vorrichtung und verfahren zur festlegung einer berührungseingabe
KR101035967B1 (ko) * 2009-04-01 2011-05-23 주식회사 애트랩 접촉센서 장치
KR20100116058A (ko) * 2009-04-21 2010-10-29 삼성전자주식회사 휴대단말에서 멀티터치 입력 처리 방법
US8294688B2 (en) 2009-04-29 2012-10-23 Nokia Corporation Resistive touch screen apparatus, a method and a computer program
TW201040822A (en) * 2009-05-11 2010-11-16 Jeffson Chang Panel module and detection method
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
TWI505168B (zh) * 2009-06-29 2015-10-21 Asustek Comp Inc 電阻式觸控面板及其接觸點型態的偵測方法
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
CN101943971B (zh) * 2009-07-08 2012-09-19 广达电脑股份有限公司 多触控点辨识系统及方法
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
US9632622B2 (en) 2009-07-16 2017-04-25 Apple Inc. Ground detection for touch sensitive device
TWI503730B (zh) * 2009-07-20 2015-10-11 Asustek Comp Inc 電阻式觸控面板及其接觸點型態的偵測方法
US8723827B2 (en) 2009-07-28 2014-05-13 Cypress Semiconductor Corporation Predictive touch surface scanning
US8334849B2 (en) * 2009-08-25 2012-12-18 Pixart Imaging Inc. Firmware methods and devices for a mutual capacitance touch sensing device
TWI393043B (zh) * 2009-08-27 2013-04-11 Elan Microelectronics Corp Detection Circuit and Method of Capacitive Touchpad
US8325160B2 (en) * 2009-09-11 2012-12-04 3M Innovative Properties Company Contact sensitive device for detecting temporally overlapping traces
JP5325060B2 (ja) * 2009-09-18 2013-10-23 株式会社バンダイナムコゲームス プログラム、情報記憶媒体および画像制御システム
US8799775B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for displaying emphasis animations for an electronic document in a presentation mode
US9696856B2 (en) 2009-09-29 2017-07-04 Elo Touch Solutions, Inc. Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen
TWI441049B (zh) 2009-10-09 2014-06-11 Egalax Empia Technology Inc 分辨單觸或雙觸的方法與裝置
WO2011041941A1 (zh) 2009-10-09 2011-04-14 禾瑞亚科技股份有限公司 转换感测资讯的方法与装置
WO2011041948A1 (zh) * 2009-10-09 2011-04-14 禾瑞亚科技股份有限公司 分析位置的方法与装置
TWI446232B (zh) 2009-10-09 2014-07-21 Egalax Empia Technology Inc 二維度感測資訊分析的方法與裝置
CN102043557B (zh) 2009-10-09 2013-04-24 禾瑞亚科技股份有限公司 位置侦测的方法与装置
CN102043513B (zh) * 2009-10-09 2013-02-27 禾瑞亚科技股份有限公司 分辨单触或多触的方法与装置
TWI437479B (zh) * 2009-10-09 2014-05-11 Egalax Empia Technology Inc 電容式位置偵測的方法與裝置
US9864471B2 (en) 2009-10-09 2018-01-09 Egalax_Empia Technology Inc. Method and processor for analyzing two-dimension information
TWI464624B (zh) 2009-10-09 2014-12-11 Egalax Empia Technology Inc 分析位置的方法與裝置
TWI464634B (zh) * 2009-10-09 2014-12-11 Egalax Empia Technology Inc 雙差動感測的方法與裝置
US9383847B2 (en) * 2009-10-13 2016-07-05 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
CN102782616A (zh) * 2009-10-16 2012-11-14 Rpo有限公司 用于检测和跟踪触摸对象的方法
KR101103825B1 (ko) * 2009-10-19 2012-01-06 주식회사 애트랩 멀티 터치를 감지할 수 있는 터치 패널 및 이 장치의 멀티 터치 감지 방법
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
KR101640464B1 (ko) * 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
CN102043501B (zh) 2009-10-26 2016-03-23 宸鸿光电科技股份有限公司 力感测器的集成排线模块及压感式触控荧幕
CN102081487B (zh) * 2009-11-28 2013-04-10 比亚迪股份有限公司 一种电阻式触摸屏的检测方法及装置
US9120010B2 (en) * 2009-12-03 2015-09-01 Megatouch, Llc Touchscreen game allowing simultaneous movement of multiple rows and/or columns
EP2511871B1 (de) 2009-12-09 2018-05-09 Fujitsu Limited Kapazitiver sensor und verfahren zur erzeugung eines biologischen bildes
US8358281B2 (en) * 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
KR101666580B1 (ko) * 2009-12-23 2016-10-14 엘지디스플레이 주식회사 터치 검출방법
JP5523090B2 (ja) * 2009-12-25 2014-06-18 キヤノン株式会社 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
US8427451B2 (en) * 2009-12-30 2013-04-23 Wacom Co., Ltd. Multi-touch sensor apparatus and method
US8806362B2 (en) 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
US20110167350A1 (en) * 2010-01-06 2011-07-07 Apple Inc. Assist Features For Content Display Device
US8118680B2 (en) * 2010-01-08 2012-02-21 Ami Entertainment Network, Inc. Multi-touchscreen module for amusement device
US9390578B2 (en) 2010-01-08 2016-07-12 Ami Entertainment Network, Llc Multi-touchscreen module for amusement device
US20110173533A1 (en) * 2010-01-09 2011-07-14 Au Optronics Corp. Touch Operation Method and Operation Method of Electronic Device
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9164605B1 (en) * 2010-02-03 2015-10-20 Cypress Semiconductor Corporation Force sensor baseline calibration
US8669963B2 (en) * 2010-02-03 2014-03-11 Interlink Electronics, Inc. Sensor system
WO2011096203A1 (ja) 2010-02-03 2011-08-11 任天堂株式会社 ゲームシステム、操作装置、およびゲーム処理方法
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8416215B2 (en) 2010-02-07 2013-04-09 Itay Sherman Implementation of multi-touch gestures using a resistive touch display
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
WO2011111302A1 (ja) 2010-03-10 2011-09-15 パナソニック株式会社 押し込み位置制御装置、押し込み位置制御方法及びタッチセンサシステム
JP5486977B2 (ja) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ 座標入力装置及びプログラム
US10191609B1 (en) 2010-03-26 2019-01-29 Open Invention Network Llc Method and apparatus of providing a customized user interface
US9223529B1 (en) 2010-03-26 2015-12-29 Open Invention Network, Llc Method and apparatus of processing information in an environment with multiple devices and limited resources
US9798518B1 (en) * 2010-03-26 2017-10-24 Open Invention Network Llc Method and apparatus for processing data based on touch events on a touch sensitive device
EP2372509A1 (de) * 2010-03-29 2011-10-05 Tyco Electronics Services GmbH Verfahren zur Detektion eines anhaltenden Kontakts und zugehörige Vorrichtung
US9285929B2 (en) 2010-03-30 2016-03-15 New Vision Display (Shenzhen) Co., Limited Touchscreen system with simplified mechanical touchscreen design using capacitance and acoustic sensing technologies, and method therefor
TWI400645B (zh) * 2010-04-01 2013-07-01 Mstar Semiconductor Inc 觸碰判斷方法及相關之觸控手勢判斷方法
JP2011238125A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
US8283800B2 (en) 2010-05-27 2012-10-09 Ford Global Technologies, Llc Vehicle control system with proximity switch and method thereof
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US8892594B1 (en) 2010-06-28 2014-11-18 Open Invention Network, Llc System and method for search with the aid of images associated with product categories
US9134843B2 (en) * 2010-06-30 2015-09-15 Synaptics Incorporated System and method for distinguishing input objects
CN102314295A (zh) * 2010-07-08 2012-01-11 富泰华工业(深圳)有限公司 屏幕解锁装置及方法
US20120013565A1 (en) 2010-07-16 2012-01-19 Perceptive Pixel Inc. Techniques for Locally Improving Signal to Noise in a Capacitive Touch Sensor
EP2407866B1 (de) * 2010-07-16 2018-11-28 BlackBerry Limited Tragbare elektronische Vorrichtung und Verfahren zur Ortsbestimmung einer Berührung
US8766931B2 (en) 2010-07-16 2014-07-01 Perceptive Pixel Inc. Capacitive touch sensor having code-divided and time-divided transmit waveforms
US8519970B2 (en) * 2010-07-16 2013-08-27 Perceptive Pixel Inc. Capacitive touch sensor having correlation with a receiver
US8902179B1 (en) * 2010-07-26 2014-12-02 Life Labo Corp. Method and device for inputting text using a touch screen
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8599165B2 (en) 2010-08-16 2013-12-03 Perceptive Pixel Inc. Force and true capacitive touch measurement techniques for capacitive touch sensors
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
US8454181B2 (en) 2010-08-25 2013-06-04 Ford Global Technologies, Llc Light bar proximity switch
US8575949B2 (en) 2010-08-25 2013-11-05 Ford Global Technologies, Llc Proximity sensor with enhanced activation
US9465457B2 (en) * 2010-08-30 2016-10-11 Vmware, Inc. Multi-touch interface gestures for keyboard and/or mouse inputs
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
TWI456441B (zh) * 2010-09-14 2014-10-11 United Win China Technology Ltd 觸控裝置及其控制方法
US8692785B2 (en) * 2010-09-29 2014-04-08 Byd Company Limited Method and system for detecting one or more objects
JP2012088762A (ja) 2010-10-15 2012-05-10 Touch Panel Systems Kk タッチパネル入力装置およびジェスチャ検出方法
CN102446013A (zh) * 2010-10-15 2012-05-09 联建(中国)科技有限公司 触控装置及其控制方法
JP5757080B2 (ja) * 2010-10-22 2015-07-29 ソニー株式会社 操作端末装置、表示装置、および表示装置の操作方法
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
US9122341B2 (en) 2010-11-08 2015-09-01 Microsoft Technology Licensing, Llc Resolving merged touch contacts
JP5745265B2 (ja) 2010-12-22 2015-07-08 株式会社ソニー・コンピュータエンタテインメント 信号処理装置、タッチパネルユニット、情報処理装置および信号処理方法
US8804056B2 (en) 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
TWI530847B (zh) * 2010-12-27 2016-04-21 聯詠科技股份有限公司 單擊手勢判斷方法、觸控感應控制晶片、觸控系統及電腦系統
US20120161791A1 (en) * 2010-12-28 2012-06-28 Synaptics Incorporated Methods and apparatus for determining input objects associated with proximity events
TWM422117U (en) * 2010-12-30 2012-02-01 Egalax Empia Technology Inc Capacitive touch screen
TWI584181B (zh) * 2011-01-07 2017-05-21 禾瑞亞科技股份有限公司 電容式感測器及其偵測方法
TWI475451B (zh) * 2011-01-07 2015-03-01 Egalax Empia Technology Inc 電容式感測器及其偵測方法
CN102594328B (zh) * 2011-01-14 2015-05-20 禾瑞亚科技股份有限公司 电容式感测器及其侦测方法
CN104506178B (zh) * 2011-01-14 2018-06-05 禾瑞亚科技股份有限公司 电容式感测器及其侦测方法
WO2012098469A2 (en) 2011-01-20 2012-07-26 Cleankeys Inc. Systems and methods for monitoring surface sanitation
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
JP5780771B2 (ja) * 2011-02-02 2015-09-16 株式会社東芝 入力装置
US8619047B2 (en) 2011-02-04 2013-12-31 Perceptive Pixel Inc. Techniques for disambiguating touch data
US8658917B2 (en) 2011-02-04 2014-02-25 Perceptive Pixel Inc. Techniques for disambiguating touch data using user devices
US20120206399A1 (en) * 2011-02-10 2012-08-16 Alcor Micro, Corp. Method and System for Processing Signals of Touch Panel
US8982061B2 (en) 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
EP2679074A4 (de) * 2011-02-25 2017-06-07 LG Electronics Inc. Mobiles endgerät und steuerungsverfahren dafür
EP2681643B1 (de) 2011-03-02 2022-01-19 Microsoft Technology Licensing, LLC Rauschreduzierung in touchsensoren
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
US9244566B2 (en) 2011-03-08 2016-01-26 Synaptics Incorporated Baseline management for input devices
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
TWI483162B (zh) * 2011-03-30 2015-05-01 Edamak Corp 近接暨觸控面板之多物件偵測方法
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
US20140028624A1 (en) * 2011-04-07 2014-01-30 Cleankeys Inc. Systems and methods for detecting a press on a touch-sensitive surface
US10198097B2 (en) * 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US8773374B2 (en) * 2011-05-13 2014-07-08 Blackberry Limited Identification of touch point on touch screen device
US8786561B2 (en) 2011-05-18 2014-07-22 Microsoft Corporation Disambiguating intentional and incidental contact and motion in multi-touch pointing devices
US9092130B2 (en) 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8928336B2 (en) 2011-06-09 2015-01-06 Ford Global Technologies, Llc Proximity switch having sensitivity control and method therefor
US8975903B2 (en) 2011-06-09 2015-03-10 Ford Global Technologies, Llc Proximity switch having learned sensitivity and method therefor
EP2721607A1 (de) * 2011-06-15 2014-04-23 Bone Tone Communications (Israel) Ltd. Spracherkennungssystem, -vorrichtung und -verfahren
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
KR101260341B1 (ko) * 2011-07-01 2013-05-06 주식회사 알엔디플러스 멀티 터치 인식 장치
JP2013016114A (ja) * 2011-07-06 2013-01-24 Denso Corp タッチパネルディスプレイのタッチ位置検出装置
TWI463361B (zh) * 2011-07-13 2014-12-01 Compal Electronics Inc 觸控面板之局部控制方法與系統
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
US20130016129A1 (en) * 2011-07-14 2013-01-17 Google Inc. Region-Specific User Input
US8199126B1 (en) 2011-07-18 2012-06-12 Google Inc. Use of potential-touch detection to improve responsiveness of devices
US8487909B2 (en) * 2011-07-27 2013-07-16 Cypress Semiconductor Corporation Method and apparatus for parallel scanning and data processing for touch sense arrays
TW201308169A (zh) * 2011-08-02 2013-02-16 Raydium Semiconductor Corp 觸控感測裝置及觸控感測方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US10004286B2 (en) 2011-08-08 2018-06-26 Ford Global Technologies, Llc Glove having conductive ink and method of interacting with proximity sensor
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
US8976128B2 (en) * 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9507454B1 (en) * 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
US9143126B2 (en) 2011-09-22 2015-09-22 Ford Global Technologies, Llc Proximity switch having lockout control for controlling movable panel
EP2581814A1 (de) * 2011-10-14 2013-04-17 Elo Touch Solutions, Inc. Verfahren zum Erkennen eines Touch-and-Hold-Berührungsereignisses und entsprechende Vorrichtung
US8994228B2 (en) 2011-11-03 2015-03-31 Ford Global Technologies, Llc Proximity switch having wrong touch feedback
US10112556B2 (en) 2011-11-03 2018-10-30 Ford Global Technologies, Llc Proximity switch having wrong touch adaptive learning and method
US8878438B2 (en) 2011-11-04 2014-11-04 Ford Global Technologies, Llc Lamp and proximity switch assembly and method
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
KR101850680B1 (ko) 2011-11-18 2018-04-20 센톤스 아이엔씨. 터치 입력 힘 검출
US11262253B2 (en) 2017-08-14 2022-03-01 Sentons Inc. Touch input detection using a piezoresistive sensor
KR101652744B1 (ko) 2011-11-18 2016-09-09 센톤스 아이엔씨. 국소형 햅틱 피드백
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
US9524097B2 (en) * 2011-12-22 2016-12-20 International Business Machines Corporation Touchscreen gestures for selecting a graphical object
CN103186262B (zh) * 2011-12-27 2015-12-02 联想(北京)有限公司 一种识别多触摸信息的方法及装置
TWI474250B (zh) * 2012-01-18 2015-02-21 Univ Nat Taiwan Science Tech 四線式電阻式觸控面板之控制電路及其兩點觸控方法
US8791913B2 (en) 2012-01-26 2014-07-29 Honeywell International Inc. Adaptive gesture recognition system and method for unstable work environments
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
US8525955B2 (en) 2012-01-31 2013-09-03 Multek Display (Hong Kong) Limited Heater for liquid crystal display
EP2816448B1 (de) * 2012-02-14 2018-05-09 NEC Corporation Informationsverarbeitungsvorrichtung
US8294687B1 (en) * 2012-02-23 2012-10-23 Cypress Semiconductor Corporation False touch filtering for capacitance sensing systems
TWI598773B (zh) * 2012-03-01 2017-09-11 A touch input device and method capable of changing cursor moving speed
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9104260B2 (en) 2012-04-10 2015-08-11 Typesoft Technologies, Inc. Systems and methods for detecting a press on a touch-sensitive surface
US9831870B2 (en) 2012-04-11 2017-11-28 Ford Global Technologies, Llc Proximity switch assembly and method of tuning same
US9184745B2 (en) * 2012-04-11 2015-11-10 Ford Global Technologies, Llc Proximity switch assembly and method of sensing user input based on signal rate of change
US8933708B2 (en) 2012-04-11 2015-01-13 Ford Global Technologies, Llc Proximity switch assembly and activation method with exploration mode
US9568527B2 (en) 2012-04-11 2017-02-14 Ford Global Technologies, Llc Proximity switch assembly and activation method having virtual button mode
US9520875B2 (en) 2012-04-11 2016-12-13 Ford Global Technologies, Llc Pliable proximity switch assembly and activation method
US9197206B2 (en) 2012-04-11 2015-11-24 Ford Global Technologies, Llc Proximity switch having differential contact surface
US9287864B2 (en) 2012-04-11 2016-03-15 Ford Global Technologies, Llc Proximity switch assembly and calibration method therefor
US9559688B2 (en) 2012-04-11 2017-01-31 Ford Global Technologies, Llc Proximity switch assembly having pliable surface and depression
US9531379B2 (en) 2012-04-11 2016-12-27 Ford Global Technologies, Llc Proximity switch assembly having groove between adjacent proximity sensors
US9944237B2 (en) 2012-04-11 2018-04-17 Ford Global Technologies, Llc Proximity switch assembly with signal drift rejection and method
US9065447B2 (en) 2012-04-11 2015-06-23 Ford Global Technologies, Llc Proximity switch assembly and method having adaptive time delay
US9219472B2 (en) 2012-04-11 2015-12-22 Ford Global Technologies, Llc Proximity switch assembly and activation method using rate monitoring
US9660644B2 (en) 2012-04-11 2017-05-23 Ford Global Technologies, Llc Proximity switch assembly and activation method
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US9494973B2 (en) 2012-05-09 2016-11-15 Blackberry Limited Display system with image sensor based display orientation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9136840B2 (en) 2012-05-17 2015-09-15 Ford Global Technologies, Llc Proximity switch assembly having dynamic tuned threshold
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
JP5377709B2 (ja) * 2012-05-23 2013-12-25 株式会社スクウェア・エニックス 情報処理装置,情報処理方法,及びゲーム装置
US8981602B2 (en) 2012-05-29 2015-03-17 Ford Global Technologies, Llc Proximity switch assembly having non-switch contact and method
US9337832B2 (en) 2012-06-06 2016-05-10 Ford Global Technologies, Llc Proximity switch and method of adjusting sensitivity therefor
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9641172B2 (en) 2012-06-27 2017-05-02 Ford Global Technologies, Llc Proximity switch assembly having varying size electrode fingers
US8994661B2 (en) * 2012-06-29 2015-03-31 Google Technology Holdings LLC User interface device having capacitive trackball assembly
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
KR101363876B1 (ko) * 2012-07-06 2014-02-18 (주)멜파스 멀티 터치 입력 처리 방법 및 장치
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
US9021387B2 (en) * 2012-07-31 2015-04-28 Hewlett-Packard Development Company, L.P. Re-sizing user interface object on touch sensitive display
TWI467420B (zh) * 2012-08-20 2015-01-01 Asustek Comp Inc 虛擬滑鼠及其操作方法
US8922340B2 (en) 2012-09-11 2014-12-30 Ford Global Technologies, Llc Proximity switch based door latch release
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014062730A1 (en) 2012-10-15 2014-04-24 Famous Industries, Inc. Efficient manipulation of surfaces in multi-dimensional space using energy agents
US9772889B2 (en) 2012-10-15 2017-09-26 Famous Industries, Inc. Expedited processing and handling of events
US10877780B2 (en) 2012-10-15 2020-12-29 Famous Industries, Inc. Visibility detection using gesture fingerprinting
US9501171B1 (en) 2012-10-15 2016-11-22 Famous Industries, Inc. Gesture fingerprinting
US10908929B2 (en) 2012-10-15 2021-02-02 Famous Industries, Inc. Human versus bot detection using gesture fingerprinting
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
US8796575B2 (en) 2012-10-31 2014-08-05 Ford Global Technologies, Llc Proximity switch assembly having ground layer
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
CN103869952B (zh) * 2012-12-17 2018-06-26 富泰华工业(深圳)有限公司 触感反馈系统及提供触感反馈的方法
US9035752B2 (en) 2013-03-11 2015-05-19 Amazon Technologies, Inc. Force sensing input device under an unbroken exterior portion of a device
US9311204B2 (en) 2013-03-13 2016-04-12 Ford Global Technologies, Llc Proximity interface development system having replicator and method
US8922516B2 (en) * 2013-03-27 2014-12-30 Tianjin Funayuanchuang Technology Co., Ltd. Touch panel and multi-points detecting method
WO2014168567A1 (en) 2013-04-11 2014-10-16 Flatfrog Laboratories Ab Tomographic processing for touch detection
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
CN109582150A (zh) 2013-04-26 2019-04-05 意美森公司 利用触觉单元阵列模拟有形用户界面交互和手势
KR101411927B1 (ko) 2013-05-10 2014-06-26 모젼스랩(주) 터치 궤적을 이용한 멀티 터치 식별 방법
KR102052639B1 (ko) 2013-05-28 2019-12-05 삼성전자주식회사 객체를 식별하기 위한 방법 및 그 전자 장치
CN104395870B (zh) * 2013-06-05 2017-05-24 展讯通信(上海)有限公司 触摸检测方法及装置
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3008641A1 (de) 2013-06-09 2016-04-20 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitaler assistenten
EP3019938B1 (de) 2013-07-08 2018-08-22 Elo Touch Solutions, Inc. Kapazitiver mehrbenutzer- und mehrfachberührungssensor
US9874978B2 (en) 2013-07-12 2018-01-23 Flatfrog Laboratories Ab Partial detect mode
US9086749B2 (en) * 2013-08-30 2015-07-21 Qualcomm Incorporated System and method for improved processing of touch sensor data
US10289302B1 (en) 2013-09-09 2019-05-14 Apple Inc. Virtual keyboard animation
US9851834B2 (en) 2013-09-10 2017-12-26 Alsentis, Llc Time domain differential techniques to characterize various stimuli
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
CN103941937A (zh) * 2013-12-11 2014-07-23 上海中航光电子有限公司 触摸屏及触摸屏中触摸位置的确定方法
JP6369805B2 (ja) 2013-12-24 2018-08-08 Tianma Japan株式会社 タッチセンサ装置及び電子機器並びにタッチジェスチャー検知プログラム
JP2015132888A (ja) * 2014-01-09 2015-07-23 キヤノン株式会社 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
US10126882B2 (en) 2014-01-16 2018-11-13 Flatfrog Laboratories Ab TIR-based optical touch systems of projection-type
US10146376B2 (en) 2014-01-16 2018-12-04 Flatfrog Laboratories Ab Light coupling in TIR-based optical touch systems
JP6495573B2 (ja) 2014-02-25 2019-04-03 富士通コンポーネント株式会社 タッチパネル
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
TWI509499B (zh) * 2014-05-08 2015-11-21 Pegatron Corp 用於觸控面板上的翻頁方法及具有翻頁功能的顯示裝置
US20150343310A1 (en) * 2014-05-28 2015-12-03 King.Com Limited Apparatus and methods for computer implemented game
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
WO2015199602A1 (en) 2014-06-27 2015-12-30 Flatfrog Laboratories Ab Detection of surface contamination
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10037185B2 (en) * 2014-08-18 2018-07-31 Nightlight Systems Llc Digital media message generation
US20160048313A1 (en) 2014-08-18 2016-02-18 KnowMe Systems, Inc. Scripted digital media message generation
US10038657B2 (en) 2014-08-18 2018-07-31 Nightlight Systems Llc Unscripted digital media message generation
US9973459B2 (en) 2014-08-18 2018-05-15 Nightlight Systems Llc Digital media message generation
US20160226806A1 (en) 2014-08-18 2016-08-04 KnowMe Systems, Inc. Digital media messages and files
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10671275B2 (en) 2014-09-04 2020-06-02 Apple Inc. User interfaces for improving single-handed operation of devices
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
EP3195097B1 (de) * 2014-09-16 2020-07-29 Hewlett-Packard Development Company, L.P. Erzeugung einer berührungseingabesignatur für diskrete cursorbewegung
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10038443B2 (en) 2014-10-20 2018-07-31 Ford Global Technologies, Llc Directional proximity switch assembly
KR101625304B1 (ko) * 2014-11-18 2016-05-27 경희대학교 산학협력단 음향 정보에 기초한 사용자 다수 행위 인식 방법
JP6425514B2 (ja) * 2014-11-27 2018-11-21 富士通コンポーネント株式会社 タッチパネル装置及びタッチパネル装置における位置検出方法
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
CN104635984B (zh) * 2015-01-21 2018-08-07 北京大学 一种单表面位置传感器及其定位方法
KR101655196B1 (ko) * 2015-01-26 2016-09-07 주식회사 하이딥 자동 모드 전환 방법
CN107209608A (zh) 2015-01-28 2017-09-26 平蛙实验室股份公司 动态触摸隔离帧
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
EP3256936A4 (de) 2015-02-09 2018-10-17 FlatFrog Laboratories AB Optisches berührungssystem mit mitteln zur projektion und detektion von lichtstrahlen über und in einer durchlässigen platte
CN107250855A (zh) 2015-03-02 2017-10-13 平蛙实验室股份公司 用于光耦合的光学部件
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9654103B2 (en) 2015-03-18 2017-05-16 Ford Global Technologies, Llc Proximity switch assembly having haptic feedback and method
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9746975B2 (en) * 2015-03-27 2017-08-29 Synaptics Incorporated Capacitive measurement processing for mode changes
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
JP2016208342A (ja) * 2015-04-24 2016-12-08 信越ポリマー株式会社 静電容量型入力装置
US20160334912A1 (en) * 2015-05-15 2016-11-17 Microsoft Technology Licensing, Llc Force Curves and Inadvertent Input Control
US9548733B2 (en) 2015-05-20 2017-01-17 Ford Global Technologies, Llc Proximity sensor assembly having interleaved electrode configuration
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10222889B2 (en) 2015-06-03 2019-03-05 Microsoft Technology Licensing, Llc Force inputs and cursor control
US10416799B2 (en) 2015-06-03 2019-09-17 Microsoft Technology Licensing, Llc Force sensing and inadvertent input control of an input device
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9606662B2 (en) 2015-06-10 2017-03-28 International Business Machines Corporation Touch interface with person recognition
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN105653148A (zh) * 2015-10-08 2016-06-08 宇龙计算机通信科技(深圳)有限公司 触屏参数调节方法、装置和移动终端
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR102464280B1 (ko) * 2015-11-06 2022-11-08 삼성전자주식회사 입력 처리 방법 및 장치
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
CN108369470B (zh) 2015-12-09 2022-02-08 平蛙实验室股份公司 改进的触控笔识别
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US20170205795A1 (en) * 2016-01-15 2017-07-20 Yokogawa Electric Corporation Method for process operators to personalize settings for enabling detection of abnormal process behaviors
TWI638304B (zh) * 2016-03-10 2018-10-11 禾瑞亞科技股份有限公司 偵測觸碰或接近的方法與控制器
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10739972B2 (en) 2016-06-10 2020-08-11 Apple Inc. Device, method, and graphical user interface for managing electronic communications
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10401962B2 (en) 2016-06-21 2019-09-03 Immersion Corporation Haptically enabled overlay for a pressure sensitive surface
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10346020B2 (en) * 2016-10-20 2019-07-09 Adobe Inc. Relatively changing a parametric value using a pressure sensitive user interface element
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
EP3545392A4 (de) 2016-11-24 2020-07-29 FlatFrog Laboratories AB Automatische optimierung von berührungssignalen
KR102495467B1 (ko) 2016-12-07 2023-02-06 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
CN106775084B (zh) 2016-12-16 2019-04-16 Oppo广东移动通信有限公司 一种触摸屏的防误触方法、装置及移动终端
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US10963104B2 (en) 2017-02-06 2021-03-30 Flatfrog Laboratories Ab Optical coupling in touch-sensing systems
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
WO2018174786A1 (en) 2017-03-22 2018-09-27 Flatfrog Laboratories Pen differentiation for touch displays
EP4036697A1 (de) 2017-03-28 2022-08-03 FlatFrog Laboratories AB Optische berührungserfassungsvorrichtung
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
JP6976080B2 (ja) * 2017-05-22 2021-12-01 三菱パワー株式会社 状態分析装置、状態分析方法、およびプログラム
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
JP6908493B2 (ja) * 2017-10-11 2021-07-28 ローム株式会社 タッチパネルの制御回路、制御方法、それを用いたタッチ式入力装置、電子機器
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
EP3887192B1 (de) 2018-11-28 2023-06-07 Neonode Inc. Benutzerschnittstellensensor für fahrzeugführer
CN111443820B (zh) * 2019-01-17 2021-09-21 北京钛方科技有限责任公司 触控板的按压冲量识别方法及系统
US11537229B2 (en) 2019-01-17 2022-12-27 Beijing Taifang Technology Co., Ltd. Touch pad pressure detection method and apparatus, storage medium and computer device
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US10990236B2 (en) 2019-02-07 2021-04-27 1004335 Ontario Inc. Methods for two-touch detection with resistive touch sensor and related apparatuses and systems
TWI742405B (zh) * 2019-07-19 2021-10-11 聯陽半導體股份有限公司 觸摸偵測裝置及觸摸偵測方法
US11301099B1 (en) 2019-09-27 2022-04-12 Apple Inc. Methods and apparatus for finger detection and separation on a touch sensor panel using machine learning models
JP7377066B2 (ja) * 2019-10-29 2023-11-09 株式会社デンソーテン 制御装置および補正方法
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
CN116420125A (zh) 2020-09-30 2023-07-11 内奥诺德公司 光学触摸传感器
US11269457B1 (en) 2021-02-03 2022-03-08 Apple Inc. Systems and methods for improved touch screen selectivity and sensitivity
CN114103845B (zh) * 2022-01-25 2022-04-15 星河智联汽车科技有限公司 一种车辆中控屏操作者身份识别方法、装置及车辆

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4686332A (en) 1986-06-26 1987-08-11 International Business Machines Corporation Combined finger touch and stylus detection system for use on the viewing surface of a visual display device
US4707845A (en) 1986-08-26 1987-11-17 Tektronix, Inc. Touch panel with automatic nulling
US4868912A (en) * 1986-11-26 1989-09-19 Digital Electronics Infrared touch panel
FR2615941B1 (fr) * 1987-05-25 1991-12-06 Sfena Dispositif de detection de position d'un organe de commande sur une tablette tactile
JPS6484325A (en) 1987-09-28 1989-03-29 Oki Electric Ind Co Ltd Multiplex input detecting system in pressure sensitive type input device
JPH01269120A (ja) 1988-04-21 1989-10-26 Omron Tateisi Electron Co タッチパネル入力装置
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
EP0421025B1 (de) * 1989-10-02 1999-05-06 Koninklijke Philips Electronics N.V. Datenverarbeitungssystem mit einer Berührungsanzeige und einem Digitalisiertablett, beide integriert in einer Eingabevorrichtung
US5402151A (en) 1989-10-02 1995-03-28 U.S. Philips Corporation Data processing system with a touch screen and a digitizing tablet, both integrated in an input device
US5241308A (en) * 1990-02-22 1993-08-31 Paragon Systems, Inc. Force sensitive touch panel
US5153572A (en) 1990-06-08 1992-10-06 Donnelly Corporation Touch-sensitive control circuit
US5119079A (en) * 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US5539427A (en) * 1992-02-10 1996-07-23 Compaq Computer Corporation Graphic indexing system
US5757358A (en) * 1992-03-31 1998-05-26 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
JP3230539B2 (ja) 1992-10-01 2001-11-19 キヤノン株式会社 座標入力装置
JP2986047B2 (ja) 1993-04-29 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション ディジタル入力用表示装置並びに入力処理装置および方法
US5412161A (en) * 1993-06-21 1995-05-02 At&T Global Information Solutions Company Handwriting capture system with segmented digitizer
JPH0883144A (ja) 1994-09-14 1996-03-26 Tamura Electric Works Ltd タッチパネル装置
JPH08190453A (ja) 1995-01-11 1996-07-23 Niles Parts Co Ltd アナログタッチパネル装置
US6236391B1 (en) 1995-01-24 2001-05-22 Elo Touchsystems, Inc. Acoustic touch position sensor using a low acoustic loss transparent substrate
JPH08241161A (ja) 1995-03-01 1996-09-17 Ricoh Co Ltd タッチパネル装置
US5591945A (en) * 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
US6255604B1 (en) 1995-05-31 2001-07-03 Canon Kabushiki Kaisha Coordinate detecting device for outputting coordinate data when two points are simultaneously depressed, method therefor and computer control device
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
WO1997018547A1 (en) * 1995-11-16 1997-05-22 Ure Michael J Multi-touch input device, method and system that minimize the need for memorization
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
GB9603330D0 (en) 1996-02-16 1996-04-17 Thomson Training & Simulation A method and system for determining the point of contact of an object with a screen
US5815141A (en) 1996-04-12 1998-09-29 Elo Touch Systems, Inc. Resistive touchscreen having multiple selectable regions for pressure discrimination
JPH09292952A (ja) 1996-04-24 1997-11-11 Nippon Signal Co Ltd:The 入力装置
JPH09325851A (ja) 1996-06-05 1997-12-16 Fujitsu Takamizawa Component Kk 座標検出方法および座標検出装置
US6067079A (en) * 1996-06-13 2000-05-23 International Business Machines Corporation Virtual pointing device for touchscreens
US6208329B1 (en) * 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
KR100206998B1 (ko) * 1996-08-28 1999-07-01 이종수 매트릭스 방식 터치판넬의 누름 인식장치 및 제어방법
US6650319B1 (en) * 1996-10-29 2003-11-18 Elo Touchsystems, Inc. Touch screen based topological mapping with resistance framing design
JPH10224690A (ja) * 1996-12-06 1998-08-21 Nikon Corp 情報処理装置および記録媒体
JPH10293644A (ja) * 1997-04-18 1998-11-04 Idec Izumi Corp タッチパネル付表示装置
US5977957A (en) * 1997-05-22 1999-11-02 Ericsson Inc. Adaptive sampling of touch screen input
JP3394187B2 (ja) * 1997-08-08 2003-04-07 シャープ株式会社 座標入力装置および表示一体型座標入力装置
US6163313A (en) 1997-12-12 2000-12-19 Aroyan; James L. Touch sensitive screen and method
EP2256605B1 (de) * 1998-01-26 2017-12-06 Apple Inc. Verfahren und Vorrichtung zur Integration einer manuellen Eingabe
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
WO1999040562A1 (en) 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
US6639577B2 (en) * 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
JP2000010733A (ja) 1998-06-22 2000-01-14 Denso Corp タッチパネル
US6153313A (en) * 1998-10-06 2000-11-28 General Electric Company Nickel aluminide coating and coating systems formed therewith
US6246395B1 (en) 1998-12-17 2001-06-12 Hewlett-Packard Company Palm pressure rejection method and apparatus for touchscreens
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
JP3484092B2 (ja) * 1999-01-25 2004-01-06 日本アイ・ビー・エム株式会社 ポインティングシステム
US6483498B1 (en) * 1999-03-17 2002-11-19 International Business Machines Corporation Liquid crystal display with integrated resistive touch sensor
US6225985B1 (en) 1999-03-26 2001-05-01 Elo Touchsystems, Inc. Acoustic touchscreen constructed directly on a cathode ray tube
US6297811B1 (en) * 1999-06-02 2001-10-02 Elo Touchsystems, Inc. Projective capacitive touchscreen
JP4316733B2 (ja) * 1999-06-30 2009-08-19 富士通コンポーネント株式会社 座標入力装置及び記憶媒体
US7030860B1 (en) * 1999-10-08 2006-04-18 Synaptics Incorporated Flexible transparent touch sensing system for electronic devices
MXPA02005430A (es) * 1999-12-06 2004-04-21 Elo Touchsystems Inc Pantalla tactil mejorada con rejilla relativamente conductora.
US7157649B2 (en) * 1999-12-23 2007-01-02 New Transducers Limited Contact sensitive device
US6738049B2 (en) * 2000-05-08 2004-05-18 Aquila Technologies Group, Inc. Image based touchscreen device
GB2364689B (en) * 2000-06-27 2004-03-03 Hozelock Ltd Hose reel having damper to prevent unwanted unwinding of hose
US20020050983A1 (en) * 2000-09-26 2002-05-02 Qianjun Liu Method and apparatus for a touch sensitive system employing spread spectrum technology for the operation of one or more input devices
US6819313B2 (en) * 2001-03-08 2004-11-16 International Business Machines Corporation User interactive cursor control in a computer controlled display system with supplemental mouse lighting to aid in cursor positioning
US20020149571A1 (en) * 2001-04-13 2002-10-17 Roberts Jerry B. Method and apparatus for force-based touch input
US6992659B2 (en) * 2001-05-22 2006-01-31 Palmone, Inc. High transparency integrated enclosure touch screen assembly for a portable hand held device
US6498590B1 (en) * 2001-05-24 2002-12-24 Mitsubishi Electric Research Laboratories, Inc. Multi-user touch surface
EP2261777A1 (de) * 2001-08-22 2010-12-15 Sharp Kabushiki Kaisha Anzeigevorrichtung mit Berührungssensor zur Erzeugung von Positionsdaten und Verfahren dazu
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US6977646B1 (en) * 2001-11-30 2005-12-20 3M Innovative Properties Co. Touch screen calibration system and method
US7746325B2 (en) * 2002-05-06 2010-06-29 3M Innovative Properties Company Method for improving positioned accuracy for a determined touch input
US7023427B2 (en) * 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US7158123B2 (en) * 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US9024884B2 (en) * 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US6856259B1 (en) * 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
US7719523B2 (en) * 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7567240B2 (en) * 2005-05-31 2009-07-28 3M Innovative Properties Company Detection of and compensation for stray capacitance in capacitive touch sensors
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
KR100866484B1 (ko) * 2006-05-17 2008-11-03 삼성전자주식회사 다접점 터치 센서를 이용한 손가락의 이동 감지 장치 및방법
DE112007002544A1 (de) * 2006-06-09 2010-07-22 Apple Inc., Cupertino Flüssigkristallanzeige mit Berührungsbildschirm

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023137A1 (de) 2009-05-28 2010-12-02 Volkswagen Ag Verfahren zum Bedienen eines Kraftfahrzeuges
DE102009030791A1 (de) 2009-06-27 2010-12-30 Volkswagen Ag Navigationssystem, insbesondere für ein Kraftfahrzeug
DE102010056160A1 (de) 2010-12-24 2012-06-28 Volkswagen Ag Verfahren zum Bedienen eines Gerätes, insbesondere eines Kraftfahrzeuges
DE102011009152A1 (de) 2011-01-22 2012-07-26 Volkswagen Ag Verfahren zum Bedienen eines Matrix-Touchscreens, insbesondere eines in einem Kraftfahrzeug angeordneten Touchscreens
DE102011009710A1 (de) 2011-01-29 2012-08-02 Volkswagen Ag Verfahren zum Bedienen eines Matrix-Touchscreens, insbesondere eines in einem Kraftfahrzeug angeordneten Touchscreens
WO2012100795A1 (de) 2011-01-29 2012-08-02 Volkswagen Aktiengesellschaft Verfahren zum bedienen eines matrix-touchscreens
US9069428B2 (en) 2011-01-29 2015-06-30 Volkswagen Ag Method for the operator control of a matrix touchscreen

Also Published As

Publication number Publication date
US20030063073A1 (en) 2003-04-03
JP4044522B2 (ja) 2008-02-06
US20060139340A1 (en) 2006-06-29
ATE365940T1 (de) 2007-07-15
CN100359452C (zh) 2008-01-02
US7254775B2 (en) 2007-08-07
CN1596412A (zh) 2005-03-16
EP1436772B1 (de) 2007-06-27
DE60220933D1 (de) 2007-08-09
JP2005505065A (ja) 2005-02-17
EP1843244A3 (de) 2007-12-12
EP1843244A2 (de) 2007-10-10
CA2461287A1 (en) 2003-04-10
KR20040037247A (ko) 2004-05-04
EP1436772A1 (de) 2004-07-14
US20070236478A1 (en) 2007-10-11
WO2003030091A1 (en) 2003-04-10

Similar Documents

Publication Publication Date Title
DE60220933T2 (de) Verfahren zum unterscheiden von gleichzeitigen berührungseingaben
DE102014215662B4 (de) Elektronisches Gerät und Koordinatenerfassungsverfahren
DE112018006617B4 (de) Berührungsfeldvorrichtung
DE69931005T2 (de) Vorrichtung und Verfahren zur absoluten und relativen Bestimmung eines graphischen Positionsanzeigers
DE4406668C2 (de) Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE102010007455B4 (de) System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum
DE602004000432T2 (de) Touchscreen
DE112011105171B4 (de) Blockieren von Benutzerinhalten basierend auf der Position
DE102010027732A1 (de) Zweidimensionaler Positionssensor
DE102011010919A1 (de) System und Verfahren zur Generierung eines mit einer manuellen Eingabeoperation korrelierenden Signales
DE112016006646T5 (de) Koordinatenkorrekturvorrichtung, koordinatenkorrekturverfahren und koordinatenkorrekturprogramm
DE102013224619A1 (de) Touchpanelvorrichtung
DE102009057439A1 (de) Vorrichtung und Verfahren zur fehlerfreien kapazitiven Messwerterfassung
DE112018006732B4 (de) Berührungsbildschirmvorrichtung
DE102018111725A1 (de) Steuerverfahren und elektronische vorrichtung
DE102016105817A1 (de) Elektronisches Gerät mit Fingerabdruckerkennung
CN108829336B (zh) 波形移动方法、装置及计算机可读存储介质
DE112019007585B4 (de) Touchpanel-gerät, vorgangsidentifizierungsverfahren und vorgangsidentifizierungsprogramm
DE102005056256A1 (de) Detektionsverfahren für ein Touch-Panel
DE102007058307A1 (de) Verfahren zum Steuern eines Eingabeteils sowie Eingabevorrichtung und elektronisches Gerät, die dieses Verfahren verwenden
DE112009002328T5 (de) Multiorientierungs-Handschriftspur-Eingabevorrichtung und Verfahren zum Drehen ihrer Koordinatenebene
DE102012025097A1 (de) Projiziert-kapazitive Berührtafel und ein Verfahren zur Koordinatenbestimmung in einer Berührtafel
EP3557397A1 (de) Steuer- und verarbeitungseinheit für einen berührungsempfindlichen bildschirm, system damit und verfahren zur verwendung
DE112018005555T5 (de) Minimale ansteuerung von sendern zur erhöhung der schwebeerkennung
DE102011075067A1 (de) Berührungsbildschirmeinheit und Verfahren zu deren Betrieb

Legal Events

Date Code Title Description
8364 No opposition during term of opposition