DE102011081527A1 - Berührungsverfolgung über mehrere Berührungsbildschirme - Google Patents

Berührungsverfolgung über mehrere Berührungsbildschirme Download PDF

Info

Publication number
DE102011081527A1
DE102011081527A1 DE102011081527A DE102011081527A DE102011081527A1 DE 102011081527 A1 DE102011081527 A1 DE 102011081527A1 DE 102011081527 A DE102011081527 A DE 102011081527A DE 102011081527 A DE102011081527 A DE 102011081527A DE 102011081527 A1 DE102011081527 A1 DE 102011081527A1
Authority
DE
Germany
Prior art keywords
touch
gesture
sensitive
sensitive screen
discontinuity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011081527A
Other languages
English (en)
Inventor
Martin Simmons
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atmel Corp
Original Assignee
Atmel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atmel Corp filed Critical Atmel Corp
Publication of DE102011081527A1 publication Critical patent/DE102011081527A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Beispiele ermöglichen die Verfolgung einer Berührungsgeste, die sich über eine Diskontinuität zwischen zwei oder mehr Berührungsbildschirmen eines Mobilgeräts oder dergleichen hinweg erstreckt.

Description

  • Hintergrund
  • Ein Positionssensor ist ein Gerät, das die Gegenwart und den Ort einer Berührung erfassen kann, die von dem Finger eines Benutzers oder eines Gegenstands, wie z. B. eines Stifts, herrührt. In manchen Fällen liegt der Positionssensor über einem Bildschirm; und der Sensor erfasst Berührungen innerhalb des Anzeigebereichs. In einer berührungsempfindlichen Anzeigeanwendung ermöglicht es der Positionssensor einem Benutzer, direkt mit dem auf den Bildschirm Dargestellten zu interagieren, und nicht nur indirekt unter Verwendung einer Maus oder eines Touchpads. Positionssensoren können beispielsweise Bestandteil sein von oder angebracht werden auf Computern, persönlichen digitalen Assistenten (PDA), Satellitennavigationsgeräten, Mobiltelefonen, tragbaren Medienabspielgeräten, tragbaren Spielekonsolen, öffentlichen Informationskiosks, Geldautomaten und Kassensystemen. Positionssensoren sind auch als Steuerpaneele auf verschiedenen Einrichtungen verwendet worden.
  • Es gibt eine Anzahl verschiedener Arten von Positionssensoren, die als Teil eines Berührungsbildschirms verwendet werden. Beispiele beinhalten, sind aber nicht beschränkt auf, resistive Berührungsbildschirme, Berührungsbildschirme mit akustischen Oberflächenwellen, und kapazitive Berührungsbildschirme. Ein kapazitiver Berührungsbildschirm kann z. B. einen Isolator beinhalten, der mit einem transparenten Leiter in einem bestimmten Muster beschichtet ist. Ein Objekt, wie z. B. ein Finger des Benutzers oder ein Stift, der die Oberfläche des Bildschirms berührt oder in dessen Nähe gebracht wird, verursacht eine detektierbare Änderung in der Kapazität. Diese Kapazitätsänderung wird erfasst und ihr Ort kann durch eine Steuereinheit bestimmt werden, die die erfasste Kapazitätsänderung verarbeitet.
  • In vielen Einrichtungen können der Berührungsbildschirm und die zugehörige Schaltung sowohl eine Berührungsgeste als auch eine Berührung an einem bestimmten Ort erfassen. Die Detektion einer Geste kann bestimmt werden, indem mehrere Berührungen über die Zeit überwacht werden. In den letzten Jahren wurden berührungsempfindliche Positionssensoren in mobilen Geräten verwendet, die oft zwei Berührungsbildschirme besitzen, die auseinander gleiten oder sich wie ein Buch öffnen. Die zwei oder mehr Bildschirme können als einziger großer Berührungsbildschirm zusammenarbeiten. In diesen Zweifachbildschirmgeräten geht die Erfassung einer Geste über den Spalt zwischen den beiden Bildschirmen verloren. Die Geste wird daher nicht als eine einzige Geste verfolgt. Der Verlust der Detektion führt dazu, dass die Geste als eine separate Geste auf jedem der Bildschirme interpretiert wird.
  • Zusammenfassung
  • Die folgende Offenbarung beschreibt Beispiele, die ein Verfolgen einer Berührungsgeste, die sich über eine Diskontinuität zwischen zwei oder mehr Berührungsbildschirmen auf einem mobilen Gerät oder dergleichen erstreckt.
  • Kurze Beschreibung der Zeichnungen
  • Die Zeichnungen zeigen eine oder mehrere Implementierungen in Übereinstimmung mit der vorliegenden Lehre in Form von nicht einschränkenden Beispielen. In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder ähnliche Elemente.
  • 1A illustriert schematisch ein mobiles Gerät mit zwei berührungsempfindlichen Bildschirmen.
  • 1B illustriert schematisch ein weiteres mobiles Gerät mit zwei berührungsempfindlichen Bildschirmen;
  • 2A illustriert schematisch ein weiteres mobiles Gerät mit zwei berührungsempfindlichen Bildschirmen;
  • 2B illustriert schematisch ein weiteres mobiles Gerät mit zwei berührungsempfindlichen Bildschirmen;
  • 3A illustriert schematisch eine Geste, die sich über zwei berührungsempfindliche Bildschirme erstreckt, die an einem mobilen Gerät vorgesehen sind, wie z. B. dem Gerät aus 1A;
  • 3B illustriert schematisch eine weitere Geste, die sich über zwei berührungsempfindliche Bildschirme erstreckt, die an einem mobilen Gerät vorgesehen sind, wie z. B. dem Gerät aus 1A;
  • 3C illustriert schematisch eine weitere Geste, die sich über zwei berührungsempfindliche Bildschirme erstreckt, die an einem mobilen Gerät vorgesehen sind, wie z. B. das Gerät aus 1A;
  • 4 ist ein Flussdiagramm eines Beispiels für einen Prozess zur Verfolgung einer Geste, die sich über zwei berührungsempfindliche Bildschirme erstreckt;
  • 5 illustriert schematisch eine Seitenansicht eines berührungsempfindlichen Bildschirms; und
  • 6 illustriert schematisch eine Vorrichtung zur Erfassung und Verarbeitung von Berührungen auf berührungsempfindlichen Bildschirmen, inklusive Berührungen einer Geste, die sich über zwei berührungsempfindliche Bildschirme erstrecken kann.
  • Detaillierte Beschreibung
  • In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Einzelheiten mit Hilfe von Beispielen dargelegt, um die relevante Lehre zu illustrieren. Um eine unnötige Verschleierung der Aspekte der vorliegenden Lehre zu vermeiden, werden diejenigen Verfahren, Prozeduren, Komponenten, und/oder Schaltungen, die dem Fachmann hinreichend geläufig sind, auf einem vergleichsweise hohen Niveau beschrieben.
  • Die Beispiele ermöglichen eine Verfolgung einer Geste, die sich über zwei oder mehr berührungsempfindliche Bildschirme erstreckt, selbst wenn die Bildschirme durch einen Zwischenraum getrennt sind. Eine Geste, die auf einem ersten Bildschirm beginnt, wird über die Diskontinuität, die durch den Zwischenraum zwischen den Bildschirmen verursacht wird, hinweg verfolgt und setzt sich als Geste auf dem zweiten Bildschirm fort.
  • Die gezeigten und beschriebenen Beispiele implementieren eine kapazitive Form der Berührungserfassung. In einer exemplarischen Konfiguration, die manchmal als Gegenkapazitätskonfiguration bezeichnet wird, kann ein Feld von leitfähigen Ansteuerelektroden oder Leitungen und leitfähigen Ausleseelektroden oder Leitungen verwendet werden, um einen berührungsempfindlichen Bildschirm zu bilden, der eine Anzahl von kapazitiven Knoten hat. Ein Knoten wird an jeder Kreuzungsstelle der Ansteuer- und Ausleseelektroden gebildet. Obwohl dies als Kreuzungsstelle bezeichnet wird, kreuzen sich die Elektroden, machen aber keinen elektrischen Kontakt. Stattdessen sind die Ausleseelektroden kapazitiv mit den Ansteuerelektroden an der Kreuzungsstelle verbunden. Obwohl eine kapazitive Auslesung gezeigt und beschrieben wird, können auch andere Arten der Auslesung verwendet werden.
  • Es wird nun im Folgenden im Detail auf die in den begleitenden Figuren gezeigten und untenstehend diskutierten Beispiele Bezug genommen. 1A illustriert schematisch ein mobiles Gerät 10, das zwei berührungsempfindliche Bildschirme 16, 18 hat, die jeweils in einem jeweiligen Gehäuse untergebracht sind. Das Mobilgerät 10 enthält einen ersten Abschnitt 12, der mit dem berührungsempfindlichen Bildschirm 16 versehen ist, und einen zweiten Abschnitt 14, der mit dem berührungsempfindlichen Bildschirm 18 versehen ist. Sowohl der erste als auch der zweite Abschnitt 12, 14 enthalten Tasten 20 und sind über einen Verbinder 22 verbunden. 1B illustriert schematisch ein weiteres Mobilgerät 10, das dem der 1A entspricht, aber um 90° gedreht ist. Der Verbinder 22 kann ein Scharnier sein, das es dem einen Abschnitt des Geräts ermöglicht, relativ zu dem anderen Abschnitt des Geräts zu rotieren, so dass das Mobilgerät 10 aus 1A und 1B in diesem Fall sich ganz ähnlich wie ein Buch öffnet und schließt.
  • 2A und 2B illustrieren schematisch ein weiteres Mobilgerät 30, das zwei berührungsempfindliche Bildschirme 36, 38 hat. Das Mobilgerät 30 enthält einen ersten Abschnitt 32, der mit dem ersten berührungsempfindlichen Bildschirm 36 versehen ist, und einen zweiten Abschnitt 34, der mit einem zweiten berührungsempfindlichen Bildschirm 38 versehen ist. Der erste Abschnitt 32 enthält auch eine Taste 40. In 2A und 2B können der erste und der zweite Abschnitt 32, 34 auseinandergeschoben werden (wie illustriert). Im zusammengeschobenen Zustand ist der zweite Abschnitt 34 hinter dem ersten Abschnitt 32 vorgesehen, so dass der zweite berührungsempfindliche Bildschirm 38 nicht länger sichtbar ist. In dem Beispiel aus 2B ist der zweite berührungsempfindliche Bildschirm 38 als ein Feld aus berührungsempfindlichen Tasten 42 vorgesehen.
  • Die zugehörige Elektronik erfasst mehrfache Berührungen und kann eine Menge von Berührungen auf mehr als einem Bildschirm zu einer einzigen Geste assoziieren. Wenn sich die Geste von einem Bildschirm auf einen anderen bewegt, sollte die unterstützende Elektronik die beiden Berührungsbildschirme als einen einzigen Berührungsbildschirm in dieser Art von Gestenerfassungsanwendung behandeln, obwohl die beiden Bildschirme durch den Zwischenraum D getrennt sind. Wie zuvor gesagt, resultiert die Geste aus der Detektion mehrerer Berührungen. Um daher die Geste über mehr als einen Bildschirm zu verfolgen, wird die Erfassung von Berührungen auf dem ersten Bildschirm mit der Erfassung von Berührungen auf dem zweiten Bildschirm kombiniert, um eine einzige Geste zu erfassen.
  • Im Einzelnen und unter Bezugnahme auf 3A wird eine Anzahl von Berührungen 54A, 54B, 54C und 54D über die Zeit erfasst und als zu einer Geste gehörig bestimmt. Die Geste 50 z. B., die eine Gleitbewegung in der Pfeilrichtung ist, wird als zwei oder mehrere Berührungen 54A bis 54D auf dem ersten berührungsempfindlichen Bildschirm 16 erfasst. Andere Arten von Gesten können ebenfalls verfolgt werden. 3B illustriert z. B. ein weiteres Beispiel, in dem die Gleitgeste 62, 60 von dem zweiten berührungsempfindlichen Bildschirm 18 zu dem ersten berührungsempfindlichen Bildschirm 16 wandert. 3C illustriert eine diagonale Gleitgeste 70, 72.
  • Wieder Bezug nehmend auf 3A werden in einem Beispiel die Berührungen 54A bis 54D an den Knoten des Berührungsbildschirms als eine Kapazitätsänderung erfasst. Jede Berührungserfassung wird durch die unterstützte Elektronik auch mit einem Zeitstempel versehen. Der ermittelte Ort von jeder Berührung zusammen mit der aufgezeichneten Zeit von jeder Berührung wird verwendet, um zu bestimmen, ob die Berührungen eine Geste darstellen. Ein Prozessor und ein zugehöriger Speicher (der im Einzelnen unten unter Bezugnahme auf 6 beschrieben wird) speichern beispielsweise vorübergehend die erfassten Berührungsdaten als historische Daten, so dass eine Geste verfolgt werden kann. Unter Verwendung dieser Informationen ist es auch möglich, eine Geschwindigkeit und eine Richtung der Geste 50 zu berechnen. In 3A wird die Gleitgeste 50 auf dem zweiten berührungsempfindlichen Bildschirm 18 als Gleitgeste 52 fortgesetzt. So wie die Gleitgeste 50 wird auch die Gleitgeste 52 als eine Anzahl von Berührungen über der Zeit erfasst, die Änderungen in der Berührungsposition darstellen.
  • Um das, was normalerweise als zwei getrennte Gesten erfasst wird, als eine einzige Geste zu behandeln, wird die Zeit zwischen der Detektion der letzten Berührung (z. B. Berührung 54D) auf dem ersten Berührungsbildschirm 16 und der Zeit der Detektion der ersten Berührung auf dem zweiten Berührungsbildschirm 18 ermittelt. Da auch der Zwischenraum „D” eine bekannte Größe ist, kann die Zeit, die ungefähr benötigt wird, um den Zwischenraum „D” zu überqueren, berechnet werden. Diese Parameter können verwendet werden, um zu bestimmen, ob die Geste eine einzige Geste ist oder mehr als eine Geste. Die historischen Daten können auch verwendet werden, um vorherzusagen, wo die nächste Berührung einer Geste auftreten wird, um die Entscheidung zu unterstützen, ob eine oder mehrere Gesten erfasst werden sollten. Die Daten ermöglichen eine Feststellung, ob eine Berührung auf dem zweiten Bildschirm Teil der gegenwärtigen Geste ist oder Teil einer neuen Geste. Wenn z. B. die letzte Berührung unten links auf dem ersten Berührungsbildschirm 16 und die erste Berührung auf dem zweiten Bildschirm 18 in der oberen rechten Ecke desselben erfasst wird, und die Zeit bis zur ersten Berührung auf dem zweiten Berührungsbildschirm 18 hinreichend genau der geschätzten Zeitdifferenz entspricht, ist es wahrscheinlich, dass die Erfassung auf den beiden Bildschirmen als zwei getrennte Gesten behandelt werden sollte.
  • Unter Bezugnahme auf 4 wird ein Prozess 100 zur Verfolgung einer Geste (wie z. B. der in 3A bis 3C illustrierten Gesten), die sich über zwei oder mehr berührungsempfindliche Bildschirme erstreckt, die durch einen Zwischenraum getrennt sind, dargestellt und beschrieben. Bestimmte Annahmen werden durch den Prozess getroffen. Z. B. ist der Abstand der Knoten im Falle eines Gegenkapazitätsberührungsbildschirms bekannt. Ebenfalls ist der Abstand „D” zwischen den beiden Berührungsbildschirmen bekannt. Der Prozess 100 beginnt im Schritt 105.
  • Im Schritt 110 werden zumindest zwei Positionen einer Berührung, die mit einem Objekt, wie z. B. einem Finger oder einem Stift assoziiert sind, auf einem ersten berührungsempfindlichen Bildschirm erfasst. In 3A wird z. B. die Position von jedem der Berührungen 54A bis 54D bestimmt. Die erfassten Berührungen können verwendet werden, um den ungefähren Ort eines Objekts auf dem Berührungsbildschirm zu bestimmen. Wie oben erwähnt wurde, wird sich der Ort der erfassten Berührung über die Zeit ändern, wenn sich das Objekt bewegt. Die zugehörige Elektronik kann den Ort der erfassten Berührungen verfolgen und bestimmen, ob eine Geste auftritt und ob die Berührungen als solche behandelt werden sollten. Eine bestimmte Geste kann z. B. das Mobilgerät 10 dazu veranlassen, eine Aktion, wie z. B. das Umblättern eines e-Books durchzuführen, oder einen Spielstein in eine bestimmte Richtung zu bewegen.
  • Die Geschwindigkeit, mit der sich das Objekt über den ersten Bildschirm bewegt, wird dann im Schritt 115 bestimmt. Es ist möglich, die Geschwindigkeit unter Verwendung einer Gleichung auf Basis der bestimmten Orte der Berührungen und der Zeit, an der die Berührungen aufgetreten sind, zu bestimmen. Die Geschwindigkeit (S) ist definiert als der zurückgelegte Abstand (d) in Metern (m), geteilt durch die Zeit (t) in Sekunden (s), die zur Zurücklegung dieses Abstands erforderlich war. S = d / t
  • Wenn sich z. B. das Objekt 0,025 m in 0,5 s von der Position 54A bis zur Position 54D in diesem Beispiel bewegt, wird im Schritt 115 festgestellt, dass sich das Objekt mit einer Geschwindigkeit von 0,05 m/s bewegt. Die durch das Objekt von der Position 54A bis zur Position 54D zurückgelegte Strecke kann bestimmt werden, da der Abstand zwischen den Knoten von jedem der Berührungsbildschirme bekannt ist. Der Abstand zwischen den Knoten von jedem Bildschirm kann von der Größe und der Auflösung des verwendeten Berührungsbildschirms abhängen.
  • Im Schritt 120 ist die Diskontinuität zwischen den berührungsempfindlichen Bildschirmen von jedem Gerät bekannt. In einem Beispiel wird die Diskontinuität als der Abstand „D” zwischen den beiden Bildschirmen betrachtet (in 3A der erste Bildschirm 16 und der zweite Bildschirm 18). Die Diskontinuität kann auch eine Komponente einer Berührungsbildschirmkante beinhalten. Eine Berührung, die an der Kante eines Bildschirms erfasst wird, ist nicht so genau, wie eine, die weiter weg von der Kante des Bildschirms erfasst wird, da an der Kante des Bildschirms nicht so viele Knoten vorhanden sind. Die Kantendiskontinuität eines jeden Bildschirms ist im Vorhinein bekannt, wie auch der Knotenabstand. Die Kantendiskontinuität kann verwendet werden, um die Genauigkeit der beschriebenen Gestenverfolgung zu verbessern. In einem Beispiel kann die Diskontinuität „D” 0,015 m betragen. In anderen Beispielen kann die Diskontinuität eines jeden Geräts von Gerät zu Gerät variieren.
  • In Schritt 125 wird eine Abschätzung der Zeit getroffen, die ein Objekt benötigt, um den Zwischenraum zwischen den beiden Berührungsbildschirmen (die Diskontinuität „D”) zu überqueren. Da die Geschwindigkeit, mit der sich das Objekt bewegt, und die Diskontinuität „D” des Zwischenraums beide bekannt sind, kann die zur Überquerung des Zwischenraums benötigte Zeit unter Verwendung von Gleichung 1, die zur untenstehenden Gleichung 2 umgeformt wurde, bestimmt werden. t = d / S
  • Wieder Bezug nehmend auf das oben stehende Beispiel, beträgt die zur Überquerung der Diskontinuität erforderliche Zeit 0,3 s, wenn sich das Objekt mit einer Geschwindigkeit von 0,05 m/s auf dem ersten berührungsempfindlichen Bildschirm 16 bewegt und die Diskontinuität „D” zwischen dem ersten und dem zweiten berührungsempfindlichen Bildschirm 16, 18 0,015 m beträgt. In Abhängigkeit von dem Winkel, mit dem sich das Objekt bewegt, kann diese Berechnung angepasst werden, um die geschätzte Überquerungszeit zu erhöhen.
  • Die Richtung der Bewegung des Objekts auf dem ersten berührungsempfindlichen Bildschirm ist ebenfalls von den erfassten Berührungen bekannt. Diese historische Information kann verwendet werden, um im Schritt 130 die Position zu bestimmen, an der das Objekt auf dem zweiten Berührungsbildschirm erscheinen wird.
  • Unter erneuter Bezugnahme auf 3A ist es z. B. möglich, dass, da die letzte erfasste Position des Objekts auf dem ersten berührungsempfindlichen Bildschirm 16, die Richtung der Bewegung des Fingers des Benutzers/Stifts und die Diskontinuität zwischen dem ersten und dem zweiten berührungsempfindlichen Bildschirm 16, 18 bekannt sind, die Position und die Zeit, zu der das Objekt auf dem zweiten berührungsempfindlichen Bildschirm 18 nach der Überquerung des Zwischenraums erfasst werden sollte, zu bestimmen.
  • Die tatsächliche Position des Objekts auf dem zweiten berührungsempfindlichen Bildschirm 18 wird im Schritt 135 bestimmt. Im Schritt 140 wird bestimmt, ob das Objekt an der geschätzten Position auf den zweiten berührungsempfindlichen Bildschirm (bestimmt im Schritt 130) erfasst wird, und ob das Objekt auf dem zweiten berührungsempfindlichen Bildschirm innerhalb der geschätzten Zeit zur Überquerung der Diskontinuität erfasst wird. Der Schritt 140 kann auch in zwei getrennten Schritten ausgeführt werden. Der erste Schritt bestimmt, ob das Objekt an der geschätzten Position auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird. Der zweite Schritt bestimmt, ob das Objekt auf dem zweiten berührungsempfindlichen Bildschirm innerhalb der geschätzten Zeit ankommt. Da das Objekt beim Überqueren der Diskontinuität durch den Benutzer beschleunigt oder verzögert werden kann, können die geschätzten Orte und Ankunftszeiten einen Fehlerfaktor beinhalten, der die errechnete Zeit zur Überquerung der Diskontinuität erhöht oder erniedrigt.
  • Die Geste wird im Schritt 145 als eine einzige Geste betrachtet, wenn das Objekt die Diskontinuität innerhalb der vorbestimmten Zeit überquert und an dem vorbestimmten Ort ankommt. Ein Grad an Toleranz kann beinhaltet sein, um verschiedene Benutzertendenzen zu berücksichtigen. Wenn das Objekt jedoch die Diskontinuität nicht innerhalb der vorbestimmten Zeit überquert, oder wenn das Objekt nicht an dem vorbestimmten Ort ankommt, innerhalb der geeigneten Toleranzen, dann wird im Schritt 150 festgestellt, dass das Objekt eine andere Geste ausführt.
  • Der Prozess endet im Schritt 155.
  • In einem Beispiel wird ein anderer Prozess initiiert, wenn von einer Geste vorhergesagt wird, dass sie die Diskontinuität kreuzt. Der Prozess hält die Berührungserfassung auf dem ersten Berührungsbildschirm an und startet einen Timer. Wenn eine Berührung nicht auf dem zweiten Berührungsbildschirm innerhalb der geschätzten Zeit erfasst wird, dann wird das Anhalten der Berührungserfassung auf dem ersten Bildschirm aufgehoben, da angenommen wird, dass die beiden Berührungen nicht Teil der gleichen Geste sind, oder dass nur eine einzige Geste, die durch Berührungen auf dem ersten Bildschirm angegeben wird, vorliegt. Der Algorithmus wird initiiert, wenn von einer verfolgten Berührung vorhergesagt wird, dass sie die Diskontinuität zwischen den Berührungsbildschirmen kreuzt.
  • Obwohl sich die obige Beschreibung auf Mobilgeräte bezieht, die zwei berührungsempfindliche Bildschirme hat, kann das Verfahren aus 4 auch auf Mobilgeräte mit mehr als zwei berührungsempfindlichen Bildschirmen angewendet werden. Zusätzlich kann, obwohl ein Mobilgerät mit den zwei oder mehr berührungsempfindlichen Bildschirmen beschrieben wurde, das Verfahren aus 4 auch auf jedes Gerät angewendet werden, das mit mehreren berührungsempfindlichen Bildschirmen ausgestattet ist. Beispiele beinhalten, sind aber nicht begrenzt auf, Computer, persönliche digitale Assistenten (PDA), Satellitennavigationsgeräte, Mobiltelefone, tragbare Medienabspielgeräte, tragbare Spielekonsolen, öffentliche Informationskiosks, Kassensysteme, und Steuerpaneele auf verschiedenen Einrichtungen.
  • 5 illustriert eine Seitenansicht eines beispielhaften berührungsempfindlichen Bildschirms. Der berührungsempfindliche Bildschirm aus 5 besteht aus einem transparenten Paneel 1, einer ersten Klebstoffschicht 2, einer lichtdurchlässigen leitfähigen Elektrodenschicht 3, einem ersten isolierenden Substrat 4, einer zweiten Klebstoffschicht 5, einer zweiten lichtdurchlässigen leitfähigen Elektrodenschicht 6, und einem zweiten isolierenden Substrat 7.
  • Die erste leitfähige Elektrodenschicht 3 enthält erste (Auslese-)Elektroden und die zweite leitfähige Elektrodenschicht 6 enthält zweite (Ansteuer-)Elektroden. Eine Zahl von Knoten wird an den Kreuzungsstellen der ersten und der zweiten Elektroden gebildet. Die ersten und die zweiten Elektroden können ausgebildet sein, um jedes gewünschte Muster zu bilden. In 5 sind die zweiten Elektroden senkrecht zu den ersten Elektroden angeordnet, so dass nur eine Seite von einer der zweiten Elektroden in der Seitenansicht sichtbar ist.
  • In einem Beispiel ist das transparente Paneel 10 aus einem widerstandsfähigen, transparenten Material, das für eine wiederholte Berührung geeignet ist, gebildet. Beispiele des transparenten Materials beinhalten Glas, Polykarbonat oder PMMA (Polymethylmethacrylat). in einem Beispiel sind die ersten und zweiten Klebstoffschichten 2, 5 aus irgendeinem optisch klaren Klebstoff gebildet, die zur Verwendung in einem Berührungspaneel geeignet sind, In einem Beispiel sind das erste und das zweite Substrat 4, 7 transparente Materialien, wie z. B. PET (Polyethylenterephthalat), Polykarbonate oder Glas. In einem Beispiel sind die erste und die zweite leitfähige Elektrodenschicht 3, 6 aus PEDOT (Poly(3,4-ethylendioxythiophen)) oder ITO (Indium Zinnoxid) gebildet. In einem Beispiel sind die erste und die zweite leitfähige Elektrodenschicht 3, 6 auf dem gleichen Substrat vorgesehen.
  • In einer Anwendung mit einer Anzeige wäre der Berührungsbildschirm aus 5 über dem Äußeren des Anzeigegeräts befestigt, z. B. so, dass das Substrat 7 an das Anzeigegerät (nicht dargestellt) angrenzt. Die Anzeige kann von jeder bekannten Art sein, wie z. B. eine Flüssigkristallanzeige (z. B. eine Aktiv-Matrix-Flüssigkristallanzeige), eine Elektroluminiszenzanzeige, eine elektrophoretische Anzeige (elektronische Tinte), Plasmaanzeige oder Elektrodenstrahlröhre. In der dargestellten Orientierung wäre z. B. das Substrat 7 oberhalb der Ausgabeoberfläche des Anzeigegeräts. Es versteht sich, dass das von der Anzeige emmitierte Licht in der Lage sein muss, durch das Positionserfassungspaneel hindurchzugelangen, um für einen Benutzer sichtbar zu sein. Die Elemente in dem Schichtenstapel sind daher im Wesentlichen transparent. Licht, das in dem Anzeigegerät erzeugt oder von ihm reflektiert wird, und die dargestellte Information repräsentiert, gelangt durch die Elemente des Schichtenstapels (in der beispielhaften Orientierung nach oben), damit ein Benutzer die Information wahrnehmen kann. Der Benutzer kann das Paneel 1, wie bei 8 gezeigt, berühren, um eine Eingabe zur Verfügung zu stellen, um z. B. aus den auf der Anzeige dargestellten Informationen auszuwählen.
  • Ein berührungsempfindlicher Bildschirm wird durch die zugehörige Elektronik unterstützt, die den Ort der verschiedenen Berührungen bestimmt. 6 illustriert schematisch eine Vorrichtung zur Erfassung und Verarbeitung einer Berührung auf einem berührungsempfindlichen Bildschirm 620. In diesem Beispiel hat der Berührungsbildschirm 620 Ansteuerelektroden, die mit Ansteuerkanälen 660 verbunden sind, und Ausleseelektroden, die mit Auslesekanälen 650 verbunden sind. Die Ansteuer- und Auslesekanäle 650, 660 sind mit einer Steuereinheit 750 über einen Verbinder 670 verbunden. Die Leiterbahnen enthalten auch eine Massebahn 610 mit einem zugehörigen Masseverbinder 640. In dem Beispiel haben die Bahnen, die die Kanäle bilden, Anschlussflächen 630 für Hotbonding, um die elektrische Verbindung über den Verbinder 670 zu ermöglichen. Die Steuereinheit 750 kann als einzelner integrierter Schaltungschip, wie z. B. einem Universalmikroprozessor, einem Mikrokontroller, einem programmierbaren logischen Gerät, einer anwendungsspezifischen integrierten Schaltung (ASIC) oder einer Kombination dergleichen bestehen. In einem Beispiel, beinhaltet die Steuereinheit 750 eine Ansteuereinheit 710, eine Ausleseeinheit 720, ein Speichergerät 730 und eine Verarbeitungseinheit 740. Die Verarbeitungseinheit 740 ist dazu in der Lage, Daten von der Ausleseeinheit 720 zu verarbeiten und eine Position einer Berührung zu bestimmen. In einem Beispiel können die Ansteuereinheit 710, die Ausleseeinheit 820 und die Verarbeitungseinheit 740 alle in separaten Steuereinheiten vorgesehen sein.
  • In einem Beispiel ist jeder berührungsempfindliche Bildschirm mit einer Steuereinheit 750 zur Erfassung der Position von Berührungen verbunden. Die Steuereinheiten sind dann mit einer übergeordneten Steuereinheit verbunden, die eine Verarbeitungseinheit enthält, die mit einem Speichergerät verbunden ist, das mit einem Algorithmus zur Gestenverfolgung über zwei oder mehr Bildschirme versehen ist. In einem anderen Beispiel ist eine Steuereinheit vorgesehen, die eine Ansteuereinheit 710 und eine Ausleseeinheit 720 für jeden berührungsempfindlichen Bildschirm hat, aber es ist nur ein Speichergerät 730 und eine Verarbeitungseinheit 740 vorgesehen. Der Algorithmus zur Gestenverfolgung über zwei oder mehr Bildschirme ist dann an dem Speichergerät 730 vorgesehen, um durch die Verarbeitungseinheit 740 implementiert zu werden. In einem weiteren Beispiel ist jeder berührungsempfindliche Bildschirm mit einer Steuereinheit 750 zum Auslesen der Positionen von Berührungen vorgesehen, und die Koordination dieser Steuereinheiten zur Gestenverfolgung über zwei oder mehrere Bildschirme erfolgt in einer Logik auf höherer Ebene.
  • Wie durch die obenstehende Diskussion gezeigt, können zumindest einige Implementierungen zur Verfolgung einer Geste über die Grenze zwischen zwei Berührungsbildschirmen eine Programmierung z. B. einer Verarbeitungseinheit in der Berührungsbildschirm-Steuerung oder eines Prozessors des Mobilgeräts oder eines anderen Geräts, das die Berührungsbildschirme beinhaltet, umfassen. Die Programmaspekte der Technik können als Produkte oder Herstellungsartikel aufgefasst werden, die typischerweise in der Form von ausführbarem Code und/oder zugehörigen Daten ausgebildet sind, die auf oder in einer Art von maschinenlesbarem Medium ausgebildet sind. Speichermedien beinhalten irgendeinen oder den gesamten Speicher der unterstützenden Elektronik des Berührungsbildschirms, des Verarbeitungsgeräts, des Prozessors oder dergleichen, oder deren zugehörige Module, wie z. B. verschiedene Halbleiterspeicher, Bandgeräte, Plattenlaufwerke und dergleichen, die zu jeder Zeit einen Speicher für die Softwareprogrammierung zur Verfügung stellen können. Alle Abschnitte der Software können zu gegebener Zeit über das Internet oder verschiedene andere Telekommunikationsnetzwerke übertragen werden. Eine derartige Kommunikation kann z. B. das Laden der Software von einem Computer oder Prozessor in einen anderen Computer oder Prozessor ermöglichen. Eine andere Art von Medien, die die Softwareelemente tragen können, beinhaltet daher optische, elektrische oder elektromagnetische Wellen, wie sie z. B. zwischen physikalischen Schnittstellen zwischen lokalen Geräten über verdrahtete und optische Überlandnetzwerke und verschiedene Drahtlosverbindungen verwendet werden. Die physikalischen Elemente, die derartige Wellen tragen, wie z. B. verdrahtete oder drahtlose Verbindungen, optische Verbindungen oder dergleichen, können ebenfalls als Medien betrachtet werden, die die Software tragen.
  • Ein maschinenlesbares Medium kann daher viele Formen annehmen, wie z. B. ein konkretes nicht transitorisches Speichermedium, ein Trägerwellenmedium oder ein physikalisches Übertragungsmedium. Konkrete nicht-volatile Speichermedien beinhalten, z. B., optische oder magnetische Platten, sowie die Speichergeräte in irgendeinem Computer oder dergleichen. Konkrete volatile Speichermedien beinhalten dynamischen Speicher, wie z. B. den Hauptspeicher einer derartigen Computerplattform. Konkrete Übertragungsmedien beinhalten Koaxialkabel, Kupferdraht und Glasfasern, inklusive der Drähte, die einen Bus innerhalb eines Computersystems bilden. Trägerwellenübertragungsmedien können die Form von elektrischen oder elektromagnetischen Signalen oder akustischen oder Lichtwellen, wie z. B. solche, die bei der Funk (Radiofrequenz, RF) und Infrarot (IR) Datenübertragung erzeugt werden. Viele dieser Formen von computerlesbaren Medien können beim Übertragen von einer oder mehreren Sequenzen von einer oder mehreren Instruktionen an einen Prozessor zur Verarbeitung beteiligt sein.
  • Verschiedene Abwandlungen können in den vorstehend beschriebenen Beispielen und Ausführungsformen vorgenommen werden, und jede verwandte Technik kann in zahlreichen Anwendungen zum Einsatz gebracht werden, von denen hier nur einige beschrieben wurden. Mit den folgenden Ansprüchen wird beabsichtigt, jede Anwendung, Modifikation und Variation, die in den wahren Umfang der vorliegenden Lehre fällt, zu beanspruchen.

Claims (19)

  1. Verfahren umfassend: Auslesen, durch ein erstes berührungsempfindliches Paneel, einer Vielzahl von Berührungen eines Objekts über die Zeit, wobei die Vielzahl von Berührungen eine Geste repräsentiert; Feststellen, dass das Objekt eine Diskontinuität beim Fortsetzen der Geste kreuzen kann, wobei die Diskontinuität zwischen dem ersten berührungsempfindlichen Bildschirm und einem zweiten berührungsempfindlichen Bildschirm liegt; Berechnen der geschätzten Zeit, die das Objekt zum Kreuzen der Diskontinuität benötigt; Schätzen des Ortes, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm bei Fortsetzen der Geste erfasst werden sollte; und Kategorisieren der Geste als eine einzige Geste, wenn der zweite berührungsempfindliche Bildschirm das Objekt innerhalb der geschätzten Zeit und an dem geschätzten Ort erfasst.
  2. Verfahren nach Anspruch 1, wobei die Berechnung der geschätzten Zeit, die das Objekt zum Kreuzen der Diskontinuität benötigt, zumindest teilweise auf der Geschwindigkeit des Objekts auf dem ersten berührungsempfindlichen Bildschirm basiert.
  3. Verfahren nach Anspruch 1, wobei das Schätzen des Orts, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm detektiert werden sollte, zumindest zum Teil auf der Richtung der Bewegung des Objekts auf dem ersten berührungsempfindlichen Bildschirm basiert.
  4. Verfahren nach Anspruch 1, des Weiteren umfassend: Feststellen, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht an dem geschätzten Ort auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  5. Verfahren nach Anspruch 1, des Weiteren umfassend: Feststellen, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht innerhalb der geschätzten Zeit auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  6. Berührungssensor, umfassend: ein erstes berührungsempfindliches Paneel; ein zweites berührungsempfindliches Paneel, das von dem ersten berührungsempfindlichen Paneel durch eine Diskontinuität getrennt ist; und eine Steuerschaltung, die mit dem ersten berührungsempfindlichen Paneel und dem zweiten berührungsempfindlichen Paneel verbunden ist, wobei die Steuerschaltung dazu eingerichtet ist: eine Geste auszulesen, die durch ein Objekt auf dem ersten berührungsempfindlichen Bildschirm erzeugt wird; festzustellen, dass das Objekt die Diskontinuität beim Fortsetzen der Geste kreuzen kann; die geschätzte Zeit zu berechnen, die das Objekt zum Kreuzen der Diskontinuität benötigt; den Ort zu schätzen, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm beim Fortsetzen der Geste erfasst werden sollte; und die Geste als eine einzige Geste zu kategorisieren, wenn der zweite berührungsempfindliche Bildschirm das Objekt innerhalb der geschätzten Zeit und an dem geschätzten Ort erfasst.
  7. Berührungssensor nach Anspruch 6, wobei zumindest das erste oder das zweite berührungsempfindliche Paneel ein Gegenkapazitätsberührungspaneel ist.
  8. Berührungssensor nach Anspruch 6, wobei die Steuerschaltung dazu eingerichtet ist, die Zeit zum Kreuzen der Diskontinuität zumindest zum Teil auf Basis der Geschwindigkeit des Objekts auf dem ersten berührungsempfindlichen Bildschirm zu schätzen.
  9. Berührungssensor nach Anspruch 6, wobei die Steuerschaltung dazu eingerichtet ist, den Ort, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm detektiert werden sollte, zumindest zum Teil auf Basis der Richtung der Bewegung des Objekts auf dem ersten berührungsempfindlichen Bildschirm zu schätzen.
  10. Berührungssensor nach Anspruch 6, wobei die Steuerschaltung des Weiteren dazu eingerichtet ist zu bestimmen, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht in der geschätzten Zeit auf der dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  11. Berührungssensor nach Anspruch 6, wobei die Steuerschaltung des Weiteren dazu eingerichtet ist zu bestimmen, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht innerhalb der geschätzten Zeit auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  12. Mobilgerät, umfassend: ein erstes berührungsempfindliches Paneel an einer ersten Stelle auf einem Gehäuse und ein zweites berührungsempfindliches Paneel, wobei das zweite berührungsempfindliche Paneel von dem ersten berührungsempfindlichen Paneel durch eine Diskontinuität getrennt ist; und eine Steuerschaltung, die mit dem ersten berührungsempfindlichen Paneel und dem zweiten berührungsempfindlichen Paneel verbunden ist, wobei die Steuerschaltung dazu eingerichtet ist: eine Geste auszulesen, die durch ein Objekt auf dem ersten berührungsempfindlichen Bildschirm erzeugt wird; zu bestimmen, dass ein Objekt die Diskontinuität beim Fortsetzen der Geste kreuzen kann; die geschätzte Zeit zu berechnen, die ein Objekt zum Kreuzen der Diskontinuität benötigt; den Ort zu schätzen, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm beim Fortsetzen der Geste erfasst werden sollte; und die Geste als eine einzige Geste zu kategorisieren, wenn der zweite berührungsempfindliche Bildschirm das Objekt innerhalb der geschätzten Zeit und an dem geschätzten Ort umfasst.
  13. Mobilgerät nach Anspruch 12, wobei das Gehäuse eine Mobiltelefonschaltung beinhaltet.
  14. Steuereinheit für ein berührungsempfindliches Paneel, umfassend: eine Verarbeitungseinheit, die dazu eingerichtet ist, mit einem ersten berührungsempfindlichen Paneel und einem zweiten berührungsempfindlichen Paneel, die durch eine Diskontinuität getrennt sind, zu kommunizieren, wobei die Verarbeitungseinheit dazu eingerichtet ist, Instruktionen auszuführen, die die Verarbeitungseinheit veranlassen, eine Funktion zur Verfolgung einer Geste auszuführen, die durch ein Objekt über die berührungsempfindlichen Bildschirme hinweg erzeugt wird, wobei die Funktionen umfassen: Auslesen der durch das Objekt erzeugten Geste; Bestimmen, dass das Objekt die Diskontinuität beim Fortsetzen der Geste kreuzen kann; Berechnen der geschätzten Zeit, die das Objekt zum Kreuzen der Diskontinuität benötigt; Schätzen des Ortes, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm beim Fortsetzen der Geste erfasst werden solle; und Kategorisieren der Geste als eine einzige Geste, wenn der zweite berührungsempfindliche Bildschirm das Objekt innerhalb der geschätzten Zeit und an dem geschätzten Ort erfasst.
  15. Steuereinheit für ein berührungsempfindliches Paneel nach Anspruch 14, wobei die Berechnung der geschätzten Zeit, die das Objekt zum Kreuzen der Diskontinuität benötigt, zumindest zum Teil auf der Geschwindigkeit des Objekts auf dem ersten berührungsempfindlichen Bildschirm basiert.
  16. Steuereinheit für ein berührungsempfindliches Paneel nach Anspruch 14, wobei das Schätzen des Orts, an dem das Objekt auf den zweiten berührungsempfindlichen Bildschirm erfasst werden sollte, zumindest zum Teil auf der Richtung der Bewegung des Objekts auf dem ersten berührungsempfindlichen Bildschirm basiert.
  17. Steuereinheit für ein berührungsempfindliches Paneel nach Anspruch 14, wobei die Steuereinheit des Weiteren eine Funktion ausführt zur Bestimmung, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht an dem geschätzten Ort auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  18. Steuereinheit für ein berührungsempfindliches Paneel nach Anspruch 14, wobei der Prozessor des Weiteren eine Funktion ausführt zur Bestimmung, dass das Objekt nicht eine einzige Geste macht, wenn das Objekt nicht innerhalb der geschätzten Zeit auf dem zweiten berührungsempfindlichen Bildschirm erfasst wird.
  19. Herstellungsartikel, umfassend: ein maschinenlesbares Speichermedium; und ausführbare Programmanweisungen, die auf dem maschinenlesbaren Speichermedium ausgebildet sind, die beim Ausführen durch einen Prozessor eines programmierbaren Computergeräts das programmierbare Computergerät, das ein erstes Berührungspaneel und ein durch eine Diskontinuität getrenntes zweites Berührungspaneel hat, dazu konfiguriert, Funktionen auszuführen, um eine von einem Objekt über den berührungsempfindlichen Bildschirm erzeugte Geste zu verfolgen, inklusive Funktionen, um: die durch das Objekt erzeugte Geste auszulesen; zu bestimmen, dass das Objekt die Diskontinuität beim Fortsetzen der Geste kreuzen kann; die geschätzte Zeit zu berechnen, die das Objekt zum Kreuzen der Diskontinuität benötigt; den Ort zu schätzen, an dem das Objekt auf dem zweiten berührungsempfindlichen Bildschirm beim Fortsetzen der Geste erfasst werden sollte; und die Geste als eine einzige Geste zu kategorisieren, wenn der zweite berührungsempfindliche Bildschirm das Objekt innerhalb der geschätzten Zeit und an dem geschätzten Ort erfasst.
DE102011081527A 2010-08-30 2011-08-25 Berührungsverfolgung über mehrere Berührungsbildschirme Withdrawn DE102011081527A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/871,687 US8823656B2 (en) 2010-08-30 2010-08-30 Touch tracking across multiple touch screens
US12/871,687 2010-08-30

Publications (1)

Publication Number Publication Date
DE102011081527A1 true DE102011081527A1 (de) 2012-03-01

Family

ID=45566383

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011081527A Withdrawn DE102011081527A1 (de) 2010-08-30 2011-08-25 Berührungsverfolgung über mehrere Berührungsbildschirme

Country Status (4)

Country Link
US (1) US8823656B2 (de)
CN (1) CN102402326A (de)
DE (1) DE102011081527A1 (de)
TW (1) TW201229849A (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120084693A1 (en) 2010-10-01 2012-04-05 Imerj LLC Modals in dual display communication devices
US9046992B2 (en) 2010-10-01 2015-06-02 Z124 Gesture controls for multi-screen user interface
KR101704536B1 (ko) * 2010-10-08 2017-02-09 삼성전자주식회사 슬림형 터치 패널 및 이를 포함하는 휴대 단말기
JP5372091B2 (ja) * 2011-09-15 2013-12-18 株式会社ワコム 電子機器および電子機器の表示画面制御方法
US9182935B2 (en) * 2011-09-27 2015-11-10 Z124 Secondary single screen mode activation through menu option
CN103383609A (zh) * 2012-05-02 2013-11-06 师涛 一种触摸屏用多相机同步追踪方法
TWI475434B (zh) * 2012-06-05 2015-03-01 Acer Inc 結合複數觸控螢幕的方法及組合式螢幕
CN103488317B (zh) * 2012-06-12 2016-09-07 宏碁股份有限公司 结合多个触控屏幕的方法及组合式屏幕
US9836213B2 (en) * 2012-07-27 2017-12-05 Symbol Technologies, Llc Enhanced user interface for pressure sensitive touch screen
WO2014094205A1 (en) * 2012-12-17 2014-06-26 Intel Corporation Receiving input from multiple touch sensors
WO2014131188A1 (en) * 2013-02-28 2014-09-04 Hewlett-Packard Development Company, L.P. Input for portable computing device based on predicted input
US9465446B2 (en) 2013-03-14 2016-10-11 Blackberry Limited Electronic device including mechanical keyboard having touch sensors for detecting touches and actuation of mechanical keys
CN104049882B (zh) * 2013-03-15 2017-11-03 联想(北京)有限公司 信息处理的方法及电子设备
US20160140933A1 (en) * 2014-04-04 2016-05-19 Empire Technology Development Llc Relative positioning of devices
US9405387B2 (en) * 2014-09-17 2016-08-02 Getac Technology Corporation Cursor control apparatus and cursor control method thereof
JP6623908B2 (ja) * 2016-04-08 2019-12-25 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US10788934B2 (en) 2017-05-14 2020-09-29 Microsoft Technology Licensing, Llc Input adjustment
CN109426430A (zh) * 2017-09-05 2019-03-05 中兴通讯股份有限公司 触摸消息融合方法及终端、计算机可读存储介质
US10732919B2 (en) * 2018-06-19 2020-08-04 Dell Products, L.P. Method and apparatus for determining treatment of cross-screen content for a dual segmented display
TWI705361B (zh) * 2018-10-29 2020-09-21 華碩電腦股份有限公司 控制方法、電子裝置及非暫態電腦可讀記錄媒體裝置
US11157047B2 (en) * 2018-11-15 2021-10-26 Dell Products, L.P. Multi-form factor information handling system (IHS) with touch continuity across displays

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US20120084693A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Modals in dual display communication devices
EP1746488A2 (de) 2005-07-21 2007-01-24 TPO Displays Corp. Sensoranordnungsstruktur eines elektromagnetischen Digitalisierers
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US7920129B2 (en) 2007-01-03 2011-04-05 Apple Inc. Double-sided touch-sensitive panel with shield and drive combined layer
US8049732B2 (en) 2007-01-03 2011-11-01 Apple Inc. Front-end signal compensation
US8031174B2 (en) 2007-01-03 2011-10-04 Apple Inc. Multi-touch surface stackup arrangement
TW200842681A (en) 2007-04-27 2008-11-01 Tpk Touch Solutions Inc Touch pattern structure of a capacitive touch panel
TW200844827A (en) 2007-05-11 2008-11-16 Sense Pad Tech Co Ltd Transparent touch panel device
US8040326B2 (en) 2007-06-13 2011-10-18 Apple Inc. Integrated in-plane switching display and touch sensor
JP4506785B2 (ja) 2007-06-14 2010-07-21 エプソンイメージングデバイス株式会社 静電容量型入力装置
EP3614418B1 (de) 2008-02-28 2023-11-01 3M Innovative Properties Company Berührungsbildschirmsensor
JP4720857B2 (ja) 2008-06-18 2011-07-13 ソニー株式会社 静電容量型入力装置および入力機能付き表示装置
US8547244B2 (en) * 2008-12-22 2013-10-01 Palm, Inc. Enhanced visual feedback for touch-sensitive input device
KR101569776B1 (ko) * 2009-01-09 2015-11-19 삼성전자주식회사 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법
JP5157971B2 (ja) * 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP4697558B2 (ja) * 2009-03-09 2011-06-08 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5606686B2 (ja) * 2009-04-14 2014-10-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8031094B2 (en) 2009-09-11 2011-10-04 Apple Inc. Touch controller with improved analog front end
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US9866660B2 (en) 2011-03-21 2018-01-09 Apple Inc. Electronic devices with concave displays
US9178970B2 (en) 2011-03-21 2015-11-03 Apple Inc. Electronic devices with convex displays
US8816977B2 (en) 2011-03-21 2014-08-26 Apple Inc. Electronic devices with flexible displays
US8934228B2 (en) 2011-03-21 2015-01-13 Apple Inc. Display-based speaker structures for electronic devices
EP2673944B1 (de) 2011-03-21 2017-11-01 Apple Inc. Elektronische vorrichtungen mit flexiblen displays
US8665236B2 (en) 2011-09-26 2014-03-04 Apple Inc. Electronic device with wrap around display

Also Published As

Publication number Publication date
CN102402326A (zh) 2012-04-04
US8823656B2 (en) 2014-09-02
US20120050177A1 (en) 2012-03-01
TW201229849A (en) 2012-07-16

Similar Documents

Publication Publication Date Title
DE102011081527A1 (de) Berührungsverfolgung über mehrere Berührungsbildschirme
DE102008050216B4 (de) Berührungsempfindliche Anzeige mit einzelner Schicht
EP2695044B1 (de) Berührungsempfindlicher bildschirm
DE102011078985A1 (de) Berührungserfassung auf dreidimensionalen Objekten
DE102013226958A1 (de) Berührungssensor mit integrierter Antenne
DE102012219329A1 (de) Differentielle Detektion in einem aktiven Stift
DE112009002578T5 (de) Spurverfolgung bei Mehrfach-Berührungen
DE202012102751U1 (de) Berührungssensor mit Leiterbahnen unterschiedlicher Breite
DE112013000790T5 (de) Touchpanel-Ansteuerung unter Verwendung eines Ansteuersignals mit zeitlich veränderlichen Charakteristiken
DE102012223363A1 (de) Berührungssensor mit reduzierten anti -berührungseffekten
DE202012103379U1 (de) Berührungssensor mit Stromspiegel zur Eigenkapazitätsmessung
DE202012102338U1 (de) Aktiver Stylus-Stift mit konfigurierbarem Berührungssensor
DE102011103228A1 (de) Kapazitives Touchscreen-System mit Multiplexern
DE102012218779A1 (de) Puls- oder Rahmen-basierte Kommunikation unter Verwendung eines aktiven Eingabestifts
DE102012212014A1 (de) Berührungssensor für gekrümmte oder flexible Flächen
DE102011075852A1 (de) Paneel für Positionssensoren
DE102013227191A1 (de) Berührungssensorabtastung für anzeigeeingebettete Berührungssensoren
DE202012101399U1 (de) Berührungssensor mit Benutzeridentifikation
DE102014214937A1 (de) Positionsdetektion eines Objekts in der Nähe eines Berührungssensors
DE202012101428U1 (de) Berührungssensor mit verbesserter Berührungserfassung unter Verwendung von Bewegungsinformationen
DE102014225254A1 (de) Hybrides kapazitives Berührungssystem
DE102014220426A1 (de) Details zu einer Berührungssensorelektrode
DE102012219167A1 (de) Berührungssensor mit selektiver Abtastung von berührungsempfindlichem Bereich für passive oder aktive Berührungs- oder Annäherungs-Eingabe
DE102014212355A1 (de) Unterdrückung von Gleichtaktrauschen bei der Schwebe- und Näherungsdetektion
DE202012102443U1 (de) Aktiver Stylus mit fester Koppelung und Berührungssensor-Gerät

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee