DE202008000261U1 - Vielfach-Berührungsdatenfussionssystem - Google Patents

Vielfach-Berührungsdatenfussionssystem Download PDF

Info

Publication number
DE202008000261U1
DE202008000261U1 DE202008000261U DE202008000261U DE202008000261U1 DE 202008000261 U1 DE202008000261 U1 DE 202008000261U1 DE 202008000261 U DE202008000261 U DE 202008000261U DE 202008000261 U DE202008000261 U DE 202008000261U DE 202008000261 U1 DE202008000261 U1 DE 202008000261U1
Authority
DE
Germany
Prior art keywords
data
touch
processor
programmed
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008000261U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202008000261U1 publication Critical patent/DE202008000261U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Systems (AREA)

Abstract

Mehrfachberührungs-(MT)Datenfusionsystem umfassend:
eine MT Abtastvorrichtung, konfiguriert zum Empfangen von mehrfachen Berührungseingaben, die etwa zur gleichen Zeit auftreten und erste Berührungsdaten erzeugen;
eine oder mehrere MT Datenfusionsvorrichtungen, konfiguriert zum Liefern von sekundären Daten; und
einen Prozessor, der mit der MT Abtastvorrichtung und der einen oder den mehreren MT Datenfusionsvorrichtungen gekoppelt ist, wobei der Prozessor zum Kombinieren sowohl der ersten Berührungsdaten als auch der sekundären Daten programmiert ist, um Operationen auf einer elektronischen Vorrichtung durchzuführen.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung beansprucht die Priorität der vorläufigen U.S. Anmeldung („Provisional Application") No. 60/879,152, eingereicht am 7. Januar 2007, die hier in ihrer Gesamtheit speziell per Verweis mit eingebunden wird.
  • Gebiet der Erfindung
  • Dies bezieht sich auf Systeme, die mehrfachberührungsempfindliche Eingabevorrichtungen und andere Eingabevorrichtungen verwenden, und genauer auf das Kombinieren von Mehrfachberührungseingabedaten mit Daten von anderen Eingabevorrichtungen, um einen Vorteil zu gewinnen, wodurch die Effizienz und Leistungsfähigkeit von Eingabeoperationen erhöht wird.
  • Hintergrund der Erfindung
  • Systeme können mehrere Eingabemittel aufweisen. Jedoch wird jedes der Eingabemittel typischerweise unabhängig voneinander auf nicht nahtlose Art betrieben. Es gibt zwischen ihnen keine Synergie. Sie arbeiten nicht zusammen oder kooperieren für ein gemeinsames Ziel, wie z. B. Verbessern der Eingabeerfahrung.
  • Zusammenfassung der Erfindung
  • Während die Fingerspitzenakkord- und Bewegungsdaten, die von Mehrfachberührungseingabevorrichtungen erzeugt werden, einen starken Satz von Benutzersteu erungsmitteln bereitstellen können, können zusätzliche Informationen von anderen Abtastmitteln, wenn sie mit den Akkord- und Bewegungsdaten kombiniert oder fusioniert werden, die interpretativen Fähigkeiten der tragbaren Vorrichtung signifikant erhöhen und/oder signifikant den Bedienungskomfort verbessern, sowie Eingabehandlungen für den Benutzer rationalisieren. Deshalb schlagen Ausführungsformen der Erfindung das Konzept der MT (Mehrfachberührungs-, Multi Touch) Datenfusion vor, welche als die Kombination von Daten von einem oder mehreren unabhängigen Abtastmitteln mit Akkord- und Bewegungsdaten von einem MT Sensor definiert ist, um die Bedienung und Verwendung einer elektronischen Vorrichtung zu verbessern.
  • Es gibt eine Anzahl an unabhängigen Abtastmitteln, die, wenn mit Mehrfachberührungsakkordbildung und Bewegungsdaten fusioniert, verbesserte Leistungsfähigkeit und Verwendung von elektronischen Vorrichtungen bereitstellen. Die Quellen von unterschiedlichen Abtastdaten fallen in mehrere Kategorien: (1) jene, die irgendeinen Aspekt des Körperzustandes des Benutzers messen, (2) jene, die Daten von der Umgebung messen, was Abtastdaten von anderen Individuen beinhalten könnte, und (3) jene, die irgendeinen Aspekt des Zustandes der elektronischen Vorrichtung messen.
  • In Übereinstimmung mit einer Ausführungsform können eine oder mehrere dieser unabhängigen Datenquellen temporär mit Bewegungs- und Akkorddaten von einem Mehrfachberührungssensor fusioniert werden, um die Leistungsfähigkeit und Verwendung der elektronischen Vorrichtungen signifikant zu verbessern. Die Informationen, die von den verschiedenen Quellen zufließen, können kombiniert oder fusioniert werden, so dass Ereignisse in jedem Datenstrom zeitlich miteinander abgestimmt sind. Als solche können die mehreren Datenströme richtig in Verbindung mit den anderen verstanden werden.
  • In Übereinstimmung mit anderen Ausführungsformen können die Ergebnisse der Stimmerkennung und Sprachverständnis so mit Mehrfachberührungsbewegungs daten fusioniert werden, dass sie die Leistungsfähigkeit einer elektronischen Vorrichtung signifikant verbessern. Die Kontaktgröße und Kontakttrennung von Bewegungsdaten zusammen mit Fingeridentifikationsdaten (z. B. von einer Kamera) kann es dem Mehrfachberührungssystem ermöglichen, Schätzungen zu machen, die Fingeridentifikation der Berührungsdaten betreffen. Blickvektordaten (die Bestimmung eines Blickes eines Benutzers) können mit Berührungsdaten und/oder Objekten, die auf einer Anzeige erscheinen, fusioniert werden, um verschiedene Handlungen auszuführen, wie z. B. Objektbewegung oder -wahl. Die Fusion dynamischer Daten einer Vorrichtung (z. B. Bewegungsdaten) mit Mehrfachberührungsbewegungsdaten kann zu einem Glätten (d. h. verbesserten Filtern) unbeabsichtigter Fingerbewegung aufgrund der Fortbewegungsmittel (z. B. Vibrationen und Schocks) führen.
  • Biometrische Eingaben umfassen, aber sind nicht begrenzt auf Handgröße, Fingerabdruckeingabe, Körpertemperatur, Herzfrequenz, Hautimpedanz und Pupillengröße. Typische Anwendungen, die von der Fusion von biometrischen Daten mit Mehrfachberührungsbewegungsdaten profitieren könnten, würden Spiele, Sicherheits- und Fitness-bezogene Aktivitäten einschließen. Gesichtsausdrücke, die emotionale Zustände übermitteln, können auch vorteilhaft mit Mehrfachberührungsbewegungsdaten fusioniert werden, während kreativer Aktivitäten, wie z. B. Musikkomposition.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm einer elektronischen Vorrichtung oder eines Systems, das Mehrfachberührungs- (MT) Datenfusion verwendet, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • 2 ist ein MT Datenfusionsverfahren, das MT Abtastung und sekundäre Abtastung beinhaltet.
  • 3 ist ein MT Datenfusionsverfahren, das die Erzeugung von MT und sekundären Datenströmen beinhaltet.
  • 4 ist ein Eingabeverfahren, das das Sammeln und Kombinieren von MT und sekundären Abtastdaten auf eine zeitkoherente Weise beinhaltet.
  • 5 ist ein Eingabeverfahren, wobei die sekundären Abtastdaten verwendet werden, um die MT Daten auf eine zeitkoherente Weise zu ergänzen.
  • 6 ist ein Eingabeverfahren, wobei die sekundären Abtastdaten verwendet werden, um die MT Daten auf eine zeitkoherente Weise zu interpretieren.
  • 7 ist ein Eingabeverfahren, das Stimmerkennung umfasst, die Aktionen auslöst, die mit Akkord- und Bewegungsdaten zusammenhängen.
  • 8 ist ein Eingabeverfahren, wobei ein Stimmmodifizierungsbefehl Aktionen auf einem Objekt auslöst.
  • 9A bis 9E sind diagrammhafte Darstellungen des Fusionierens von Stimmdaten mit MT Daten, gemäß einer Ausführungsform der Erfindung.
  • 10 stellt die Fusion von Stimmerkennung und MT Operationen gemäß Ausführungsformen der Erfindung dar.
  • 11 ist ein Verfahren zur eindeutigen Fingeridentifikation.
  • 12 ist ein anderes Verfahren zur eindeutigen Fingeridentifikation.
  • 13 ist ein Eingabeverfahren, das den Abgleich von Fingern zu Kontakten beinhaltet.
  • 14A ist eine Darstellung eines beispielhaften Bildes eines Paares von Händen, die über eine MT Oberfläche positioniert sind, und 14B ist eine Darstellung eines beispielhaften Bildes einer Anordnung an Kontakten, an der MT Oberfläche.
  • 15A und 15B sind Diagramme einer elektronischen Vorrichtung, die eine MT Oberfläche und eine bildgebende Vorrichtung beinhaltet, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • 16 ist ein Diagramm einer elektronischen Vorrichtung, die eine MT Oberfläche und einen Bildsensor beinhaltet, in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • 17 stellt einen Bildsensor dar, der in einer Anzeige oder einem alles integrierenden Computer 340 angeordnet ist, in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • 18 ist ein Eingabeverfahren, das die Fusion eines Blickvektors mit MT Abtastung beinhaltet.
  • 19 ist ein Eingabeverfahren, das das Vornehmen einer Aktion auf einem Objekt basierend auf einen Blick beinhaltet.
  • 20 ist ein Eingabeverfahren, das das Filtern von MT Daten basierend auf Bewegungsdaten beinhaltet.
  • 21 ist ein Betriebsverfahren, wobei MT Daten unterschiedlich abhängig von Orientierungsdaten interpretiert werden können.
  • 22 ist ein Eingabeverfahren, das biometrische Abtastung beinhaltet.
  • 23 ist ein Betriebsverfahren, das Sammeln emotionaler Daten und Vornehmen von Aktionen basierend auf den emotionalen Daten beinhaltet.
  • 24 ist ein Eingabeverfahren, das Kraftabtastung beinhaltet.
  • 25 ist ein Eingabeverfahren, das Aufnehmen und Vergleichen von MT Daten von verschiedenen Vorrichtungen beinhaltet.
  • Detaillierte Beschreibung der bevorzugten Ausführungsform
  • Ausführungsformen der vorliegenden Erfindung schlagen Kombinieren oder Fusionieren von Mehrfachberührungsabtastung mit anderen Abtastmodalitäten vor, um einen Vorteil zu gewinnen, wodurch die Effizienz und Leistungsfähigkeit von Eingabehandlungen erhöht werden.
  • In Mehrfachberührungs-2D Abtastung, wie sie als die primären und sekundären Mittel verwendet werden, um einem Benutzer zu ermöglichen, die Funktion und den Betrieb einer elektronischen Vorrichtung zu steuern, werden die Positionen aller Fingerspitzen in Kontakt oder großer Nähe zu einer Abtastoberfläche verfolgt und aufgezeichnet. Die Anordnung an Kontakten (z. B. Akkorde) und die Bewegung der Kontakte (z. B. Gesten) auf oder Nahe der Abtastoberfläche werden von der elektronischen Vorrichtung als Befehle von dem Benutzer interpretiert, die eine Funktion, die von der elektronischen Vorrichtung ausgeführt wird, modifizieren, initiieren oder beenden sollen.
  • Während die Fingerspitzenakkord- und Bewegungsdaten einen starken Satz von Benutzersteuermitteln darstellen, könnten zusätzliche Information von anderen Abtastmitteln, wenn sie mit den Akkord- und Bewegungsdaten kombiniert oder fusioniert werden, die interpretativen Fähigkeiten der elektronischen Vorrichtung signifikant verbessern und/oder signifikant die Bequemlichkeit der Verwendung verbessern, sowie Eingabehandlungen für den Benutzer rationalisieren. Deshalb schlagen Ausführungsformen der Erfindung das Konzept der MT Datenfusion vor, welche als die Kombination von Daten von einem oder mehreren unabhängigen Abtastmitteln mit Akkord- und Bewegungsdaten von einem MT Sensor definiert ist, um die Bedienung und Verwendung einer elektronischen Vorrichtung zu verbessern.
  • Es gibt eine Anzahl an unabhängigen Abtastmodalitäten, die, wenn sie mit Mehrfachberührungsakkordbildungs- und Bewegungsdaten fusioniert werden, verbesserte Leistungsfähigkeit und Bedienbarkeit von elektronischen Vorrichtungen bereitstellen. Die Quellen an unabhängigen Abtastdaten fallen in mehrere Kategorien: (1) jene, die einen Aspekt des Körperzustandes des Benutzers messen, (2) jene, die Daten von der Umgebung messen, was Abtastdaten von anderen Individuen beinhalten könnte, (3) jene, die irgendeinen Aspekt des Zustandes der elektronischen Vorrichtung messen. Beispielhaft können die Abtastdaten beinhalten, aber sind nicht beschränkt auf die Fusion von Stimme, Fingeridentifikation, Blickvektor, Gesichtsausdruck, Dynamik der tragbaren Vorrichtung und Biometrien, wie z. B. Körpertemperatur, Herzschlag, Hautimpedanz und Pupillengröße. Es sollte beachtet werden, dass Ausführungsformen dieser Erfindung nicht auf individuelle Abtastmittel gerichtet sind. Stattdessen sind sie auf die temporäre Fusion von Daten von existierenden Abtastmitteln mit Mehrfachberührungsbewegungs- und Akkordbildungsdaten gerichtet, um die Bequemlichkeit der Verwendung und Leistungsfähigkeit einer elektronischen Vorrichtung zu verbessern.
  • In Übereinstimmung mit einer Ausführungsform können eine oder mehrere dieser unabhängigen Datenquellen temporär mit Bewegungs- und Akkordbildungsdaten von einem Mehrfachberührungssensor fusioniert werden, um die Leistungsfähigkeit und Verwendbarkeit von elektronischen Vorrichtungen signifikant zu erhöhen. Generell bedeutet temporäre Fusion ein ersichtliches zeitliches Zusammenkommen einzelner Ereignisse (mehrere Datensätze) innerhalb eines einzigen individuellen Kontextes (Computeranwendung, Modus oder Plattform). Genauer werden in zeitlicher Fusion die Daten von mehreren Quellen (MT + anderes Abtastmittel) in einer zeitkoherenten Weise interpretiert. Die Informationen, die von den verschiedenen Quellen strömen, werden kombiniert oder fusioniert, so dass Ereignisse in jedem Datenstrom zeitlich miteinander abgestimmt sind. Als solche können mehrfache Datenströme in Verbindung miteinander korrekt verstanden werden.
  • Einige Beispiele von MT Datenfusion werden unten gegeben.
  • STIMMFUSION
  • Stimmeingabe, Spracherkennung und Sprachverständnis fallen alle unter das lang gesuchte Ziel, elektronische Vorrichtungen in die Lage zu versetzen, ihre vorgesehenen Funktionen geführt von menschlicher Sprache auszuführen. In den letzten Jahren wurde viel Fortschritt gemacht, Spracherkennung von elektronischen Vorrichtungen zu ermöglichen. Sprachverständnis, was viel schwieriger ist, hat nicht dasselbe Maß an Erfolg genossen. Ausführungsformen der hierin beschriebenen Erfindung beschäftigen sich nicht damit, wie Stimmdaten erkannt oder verstanden werden. Ausführungsformen dieser Erfindung verwenden lediglich Resultate der Stimmerkennung und – irgendwann einmal – Sprachverständnis als unabhängige Abtasteingaben, die mit Mehrfachberührungsbewegungsdaten in solch einer Weise fusioniert werden, dass die Leistungsfähigkeit einer elektronischen Vorrichtung signifikant verbessert wird.
  • Es gibt eine große Anzahl an Beispielen, in denen Stimm- und Mehrfachberührung fusioniert werden können, um einen signifikanten Gewinn zu einer Anwendung hinzuzufügen. Der größte Gewinn wird erreicht, wenn Stimm- und Mehrfachberührungsbenutzung dorthin aufgeteilt werden, wo sie maximal effektiv sind. In anderen Worten wird Stimmeingabe auf Aktionen angewandt, die durch manuelle Eingaben schlecht bedient werden, und manuelle Eingaben behandeln Aufgaben, die durch Stimme schlecht bedient werden. Zum Beispiel werden Modusauswahl oder statische Befehle effizienter unter Verwendung von Stimmeingabe ausgeführt, während Bewegen von Objekten auf dem Bildschirm am besten manuell mit MT ausgeführt wird. Ein Beispiel wird jetzt gegeben werden. Bei der Bearbeitung von beispielsweise mechanischen Zeichnungen kann die Aufgabe sein, die Objekte, die die Zeichnung darstellen, auszuwählen und zu modifizieren. Angenommen die Modifizierung jedes Objektes beinhaltet Größenveränderung, Rotation und Farbänderung. Es sei weiter angenommen, dass die Aufgabe nicht eine einfache Skalierung oder Rotationsänderung jedes Objektes ist. Der minimale Aufwand wird daher aufgewendet, wenn die Größenveränderung und Rotation unter Verwendung von Mehrfachberührungsgesten (d. h. manuell) ausgeführt wird, und wenn der Farbwechsel unter Verwendung von Stimmeingabe ausgeführt wird. Man betrachte die Alternative: Verwendung von Stimme, um jedes Objekt in der Größe zu verändern und zu Rotieren ist problematisch, weil eine verbale Beschreibung der gewünschten Größe und Rotation schwierig auszudrücken ist. Die Verwendung von Mehrfachberührung, um eine Farbe zu wählen, ist typischerweise weniger effizient, als die Verwendung von Stimme, weil die Farbe durch Durchlaufen einer Liste gewählt werden muss. Alternativ oder zusätzlich kann Stimmeingabe verwendet werden, um Text in das Objekt einzufügen.
  • FINGERIDENTIFIKATIONSFUSION
  • Fingeridentifikation bedeutet, dass die Finger, die gerade die Mehrfachberührungs-Abtastoberfläche berühren oder in großer Nähe zu ihr sind, ohne Zweideutigkeit in Bezug auf ihre Namen und die Hand (d. h. rechte, linke, Besitzer), zu der sie gehören, identifiziert werden. Es sei z. B. angenommen, dass der Zeige- und Mittelfinger der rechten Hand in Kontakt mit einer Mehrfachberührungsoberfläche ist. Die meisten, wenn nicht alle Mehrfachberührungssensoren, können die in Kontakt stehenden Finger nicht eindeutig als Zeige- und Mittelfinger von der rechten Hand einordnen. Die Verwendung von Kontaktgröße und Kontakttrennung ermöglicht es, dem Mehrfachberührungssystem, Annahmen in Bezug auf die Fingeridentifizierung zu machen, aber die Genauigkeit der Annahme ist typischerweise nicht gut, es sei denn, dass eine ausreichende Anzahl an Fingern von einer Hand in Kontakt mit der Oberfläche sind.
  • Die Quelle an unabhängigen Fingeridentifikationsdaten ist bereits verfügbar von einer Kamera, wie etwa einer Über-der-Mehrfachberührungs-Oberflächenkamera. Die Kameradaten zeigen, wo die Finger einer jeden Hand relativ zu den Mehrfachberührungs-XY Koordinaten sind. Die Kamera kann nicht notwendigerweise bestimmen, ob die Finger in Kontakt mit der Berührungsoberfläche sind, aber das ist nicht wichtig, weil die fusionierten Daten von der Kamera und dem Mehrfachberührungssensor eindeutige Fingerbewegungsdaten liefern werden, die die vertikale (d. h. Z Dimension) Position eines jeden Fingers beinhalten. Eine typische Ausführungsform einer Über-der-Mehrfachberührungs-Oberflächenkamera für einen Laptopcomputer könnten eine oder mehrere eingebettete iSight Kameras sein, jeweils mit einem Schwenkspiegel, der es ermöglichen würde, beide Hände über einer Mehrfachberührungsoberfläche aufzunehmen.
  • Fingermalen, wobei jeder Finger eine zugeordnete Farbe, Strich oder andere Charakteristik hat, ist ein einfaches Beispiel für eine Anwendung, die signifikant verbessert werden würde, im Vergleich zum Stand der Technik durch Verwendung von Fingeridentifikation mit Mehrfachberührungsdatenfusion. Ohne eindeutige Fingeridentifikation wäre die Anwendung, sei es Fingermalen oder etwas anderes, nicht in der Lage, die richtige Zuordnung bestimmter Attribute, die einem spezifischen Finger gegeben wurden, beizubehalten. Wenn z. B. dem Zeigefinger der linken Hand die Farbe rot zugeordnet wurde und den anderen Fingern unter schiedliche Farben zugeordnete wurden, muss die Anwendung in der Lage sein, zu bestimmen, wann der Zeigefinger der linken Hand in Kontakt mit der Oberfläche ist, um rot zu malen. Umgekehrt muss die Anwendung in der Lage sein, zu bestimmen, wann der Finger, dem rot zugeordnet ist, nicht in Kontakt mit der Oberfläche ist. Die Fusion von Fingeridentifikationsdaten mit Mehrfachberührungsbewegungsdaten ermöglicht es der Anwendung ohne Fehler zu arbeiten.
  • BLICKVEKTORFUSION
  • Innerhalb der letzten 20 Jahre gab es eine große Menge an Forschung und Entwicklung in blickgesteuerten Benutzerschnittstellen. Die meisten Bemühungen richteten sich darauf, Leuten mit Behinderungen, die nicht fähig sind, eine Tastatur oder Maus zu bedienen, Computerschnittstellenlösungen zur Verfügung zu stellen. Forschung wurde auch über die Verwendung von Blicksteuerung in virtuelle-Realität-Anwendungen gemacht. Wie bei den anderen Berührungsmitteln, die in dieser Offenbarung diskutiert werden, kann die zeitweise Fusion von Blicksteuerungsdaten mit Mehrfachberührungsbewegungsdaten dazu verwendet werden, die Leistungsfähigkeit elektronischer Geräte zu erhöhen. Daher werden das Erfassen von Blickvektordaten und die Verfahren zum Berechnen von Blicksteuerung hier nicht diskutiert werden.
  • Es gibt viele mögliche Anwendungen, die von der zeitweisen Fusion von Blickvektoren mit Mehrfachberührungsbewegungsdaten profitieren würden. Als Beispiel wird hier eine einfache Anwendung diskutiert werden: man betrachte einen typischen Computerbildschirm, auf dem mehrere Fenster angezeigt sind. Man nehme an, dass der Benutzer das Fenster in der unteren linken Ecke nach vorne bringen möchte, welches momentan unterhalb von zwei anderen Fenstern ist. Ohne Blickvektorfusion gibt es zwei Mittel, um dies zu tun, und beide bringen Bewegung der Hand in eine andere Position mit sich. Das erste Mittel ist es, den Mauszeiger über das Fenster von Interesse zu bewegen und die Maustaste zu klicken. Das zweite Mittel ist es, eine Tastaturbefehlskombination zu verwenden, um durch die Bildschirmfenster zu kreisen, bis dasjenige von Interesse nach vorne gebracht ist. Stimmeingabe könnte auch verwendet werden, aber sie wäre weniger effizient als die anderen Eingabemittel. Mit Blickvektorfusion wird die Aufgabe stark vereinfacht. Der Benutzer richtet seinen Blick z. B. auf das Fenster von Interesse und tippt einen bestimmten Akkord auf der Mehrfachberührungsoberfläche. Die Operation erfordert keine Translation der Hände und kann sehr schnell ausgeführt werden.
  • Als ein anderes Beispiel nehme man an, dass der Benutzer ein iTunes Fenster, das sich oben links auf einem Anzeigebildschirm befindet, in seiner Größe und seiner Position verändern möchte. Dies kann durch die Verwendung eines Mehrfachberührungssystems erreicht werden, indem der Mauszeiger in das iTunes Fenster bewegt wird, und eine Geste ausgeführt wird, die die Größe und Position verändert. Während dieses Mittel bereits eine Verbesserung gegenüber der Verwendung nur einer Maus ist, kann seine Effizienz durch die zeitweise Fusion von Blickvektordaten weiter verbessert werden.
  • VORRICHTUNGSDYNAMIKSFUSION
  • Vorrichtungsdynamik umfasst die Kräfte, die auf eine mobile oder tragbare elektronische Vorrichtung einwirken und die Verschiebungen im Raum und Drehungen um die Hauptachsen der Vorrichtung bewirken. Drehungen um die Hauptachsen können als Rollen, Kippen und Neigen beschrieben werden, während die Verschiebung einer Vorrichtung relativ zum Körper des Benutzers betrachtet werden kann.
  • Man kann eine Anzahl an Anwendungen für mobile oder tragbare elektronische Vorrichtungen vorhersehen, die von der zeitweisen Fusion von Vorrichtungsdynamik mit Mehrfachberührungsbewegungsdaten profitieren würden. Diese Anwendungen würden diejenigen beinhalten, aber sind nicht auf sie beschränkt, die ein hohes Maß an Interaktion zwischen dem Benutzer und der Anwendung ver langen, so z. B. bei Spielen. Nicht-Spielanwendungen können auch von der Fusion von Vorrichtungsdynamik mit Mehrfachberührungsbewegungsdaten profitieren. Zum Beispiel, während versucht wird, eine Mehrfachberührungsbenutzerschnittstelle unter stark dynamischen Bedingungen zu verwenden, so wie sie vorgefunden werden, wenn man in einem Flugzeug fliegt oder geht. In Fällen wie diesen könnte die Fusion von Vorrichtungsdynamik mit Mehrfachberührungsbewegungsdaten in einem Glätten (d. h. verbesserten Filtern) unbeabsichtigter Fingerbewegung aufgrund der Fortbewegungsmittel (z. B. Vibrationen und Stöße) resultieren.
  • Als ein weiteres Beispiel zitieren wir eine Anwendung, die die zeitweise Fusion der Position der Vorrichtung relativ zum Körper des Benutzers mit Mehrfachberührungssensordaten mit sich bringt. Die Beispielanwendung ist ein Mehrfachberührungsmobiltelefon, bei dem die benutzerseitige Oberfläche fast vollständig durch einen Mehrfachberührungssensor eingenommen wird. Die Aufgabe ist es, zu bestimmen, ob das Mobiltelefon relativ zum Körper des Benutzers ist, um die richtige Vorrichtungsfunktion zu aktivieren. Wenn z. B. das Telefon weit vom Ohr des Benutzers entfernt ist, und in einer Position mit seiner Oberseite nach oben gehalten wird, würde sie Mehrfachberührungssensoreingabe als Fingerbewegungsdaten interpretiert werden, die dazu verwendet werden, irgendeinen Aspekt der Vorrichtung zu steuern, z. B. die Lautstärke oder Auswahl aus einer Liste. In anderen Positionen, z. B. wenn die Vorrichtung nahe am Ohr ist, würde die Mehrfachberührungssensoreingabe als Bilddaten interpretiert werden und könnte verwendet werden, um Bewegungssteuerung zu sperren. Alternativ könnten die Bilddaten der Vorrichtung nahe am Ohr verwendet werden, um irgendeinen Vorrichtungsaspekt, wie etwa die Ausgabelautstärke einzustellen, die abhängig davon, wie nahe das Ohr an der Mehrfachberührungsoberfläche ist, geändert werden könnte.
  • BIOMETRIEFUSION
  • Biometrieeingaben beinhalten – aber sind nicht begrenzt auf – Handgröße, Fingerabdruckseingabe, Körpertemperatur, Herzfrequenz, Hautimpedanz und Pupillengröße. Typische Anwendungen, die von der Fusion von Biometriedaten mit Mehrfachberührungsbewegungsdaten profitieren könnten, würden Spiele, Sicherheit und fitnessbezogene Aktivitäten einschließen.
  • Handcharakteristiken, wie etwa Größe, Form und allgemeine Morphologie können verwendet werden, um eine Person zu identifizieren, mit dem Zweck, Zugang zu gesicherten Bereichen zu ermöglichen, einschließlich Computersystemen. Während Handcharakteristika alleine keinen ausreichenden Grad an Identifikationsverifikation bieten würden, könnte es die erste Türe sein, durch die ein Benutzer gehen muss, bevor andere Sicherheitsmaßnahmen angewendet werden. Die Fusion von physikalischen Handcharakteristika mit Mehrfachberührungsbewegungsdaten (z. B. eine Bewegungsbahnunterschrift) würde dem anfänglichen Aussiebungsprozess eines typischen Sicherheitssystems Vorteile bieten.
  • GESICHTSAUSDRUCKSFUSION
  • Wie bei Sprache, gibt es viel Forschung über die Maschinenanalyse und Interpretation von Gesichtsausdrücken. Wie die anderen Abtastmittel schlagen Ausführungsformen der Erfindung die Fusion von Gesichtsausdrucksdaten mit Mehrfachberührungsbewegungsdaten vor, und nicht die verwendeten analytischen Methoden. Gesichtsausdrücke übertragen emotionalen Zustand, der vorteilhaft mit Mehrfachberührungsbewegungsdaten, während kreativer Aktivitäten, wie etwa dem Komponieren von Musik, vorteilhaft fusioniert werden könnten. Andere Aktivitäten, wie etwa die Erkennung bevorstehender Probleme über Gesichtserkennung, könnten mit Mehrfachberührungsdaten fusioniert werden, um den Lauf der Dinge, wie in dem folgenden Beispiel zu korrigieren.
  • Ein einfaches Beispiel für den Vorteil, der von der Fusion von Emotionszustand, wie er durch Gesichtsausdruck identifiziert wird, mit Mehrfachberührungsbewe gungsdaten abgeleitet wird, schildert die mögliche Verwendung dieses Verfahrens. Wie bei allen Computersystemen und vielen elektronischen Geräten gibt es insbesondere für neue Benutzer einen gewissen Grad an Frustration, wenn er versucht, irgendeine Operation auszuführen. Die Quelle dieser Frustration kann den Fehlern in der Anwendung dem Nichtwissen des Benutzers oder beiden zugeordnet werden. Wenn die Frustration nur vom Nichtwissen des Benutzers herrührt, würde er sich typischerweise seiner Rolle im Verursachen des Problems nicht bewusst sein. Anstatt die Schuld der Maschine oder ihm selber zu geben, würde der typische Benutzer meistens daran interessiert sein, das Problem zu lösen und fortzufahren, die Anwendung auszuführen, die er begonnen hat. Abhilfemaßnahmen durch die Maschine könnten automatisch initiiert werden, wenn nur die Maschine den emotionalen Zustand des Benutzers erkennen würde.
  • Wie oben diskutiert, kann ein Neulingsbenutzer von Zeit zu Zeit Frustration erfahren, beim Lernen, wie irgendeine Anwendung auf einer elektronischen Vorrichtung durchzuführen ist. Man nehme z. B. an, dass der Benutzer versucht, durch ein Dokument zu scrollen unter Verwendung einer zweifinger-vertikalen Bewegung (Geste). Scrollen funktioniert jedoch nicht für ihn, weil er, ohne es zu wissen, die Oberfläche mit drei Fingern anstelle der benötigten zwei berührt. Er wird mit der "Fehlfunktion" der Vorrichtung frustriert. In diesem Fall erkennt das System jedoch die Frustration und auf die Analyse der Mehrfachberührungs-bewegungsdaten hin, kommt sie zu dem Schluss, dass er versucht, mit drei Fingern zu scrollen. An diesem Punkt könnte die Vorrichtung den Benutzer auf das Problem mit dem zusätzlichen Finger aufmerksam machen, oder sie könnte entscheiden, den zusätzlichen Finger zu ignorieren und mit dem Scrollen zu beginnen. Nachfolgende Emotionsdaten über Gesichtserkennung würden dem System bestätigen, dass die richtige Abhilfemaßnahme getroffen wurde.
  • Es sollte verstanden werden, dass diese Ausführungsformen/Beispiele beispielhaft gegeben werden, und nicht einschränkend. Andere Abtastmittel können verwendet werden, wie z. B. Kraftabtastung. Kraftabtastung könnte verwendet werden, um harte und leichte Berührungen zu interpretieren, um einen fallen gelassenen Finger, der nicht Teil eines Akkords oder einer Geste ist, unberücksichtigt zu lassen oder auszufiltern. Weil der fallen gelassene Finger einfach das ist, wendet er nicht so viel Kraft auf, wie der Finger, der die Geste ausführt. Kraftabtastung könnte auch in 3D Modellierungsanwendungen verwendet werden, um die Z Position irgendeines Objekts anzupassen.
  • Es sollte auch erwähnt werden, dass andere Beispiele für jede der oben genannten Fusionsausführungsformen betrachtet werden können. Zum Beispiel kann der Blickvektor verwendet werden, um ein angezeigtes Objekt auszuwählen, während MT Abtastung verwendet werden kann, um einen Befehl einzugeben, der das angezeigte Objekt modifiziert. In einem Beispiel kann der Computer eine Gruppierung von Fotos zur Verfügung stellen. Der Benutzer kann auf ein bestimmtes Foto blicken, und eine Findegeste durchführen, die die Anwendung veranlasst, nach Fotos mit ähnlichen Charakteristika oder Attributen zu suchen.
  • Es sollte weiterhin erwähnt werden, dass Ausführungsformen der Erfindung nicht nur auf ein fusioniertes Abtastmittel begrenzt sind, und dass mehrere Abtastmittel verwendet werden können. Zum Beispiel kann Blickabtastung und Stimmeingabe verwendet werden, um MT Daten während einer Eingabesequenz zu ergänzen. Während z. B. ein erstes Objekt mit MT Daten manipuliert wird, kann ein Benutzer auf ein anderes Objekt schauen und grün sagen, um eine Farbänderung des zweiten Objekts zu veranlassen.
  • Ausführungsformen der Erfindung sind auf Verbesserungen der Ausführung gerichtet und verwenden berührungsempfindliche Vorrichtungen, wie etwa Einfachberührungs- und Mehrfachberührungs-(multi-touch MT)Vorrichtungen. MT Vorrichtungen sind so konfiguriert, dass sie mehrere Kontaktpunkte auf oder nahe einer Oberfläche gleichzeitig erkennen. Die Anordnung von Kontakten, die manchmal Akkorde genannt wird, und deren Bewegungen, die manchmal Gesten genannt werden, können verwendet werden, um eine große Anzahl an Eingaben zu erzeugen, einschließlich z. B. statischer oder manipulativer Befehle.
  • MT Vorrichtungen haben Vorteile gegenüber herkömmlichen Einzelpunktabtastungs-Berührungsvorrichtungen, in der Hinsicht, dass sie zwischen mehr als einem Objekt (Finger) unterscheiden können. Einzelpunktvorrichtungen sind einfach nicht in der Lage, mehrere Objekte zu unterscheiden. In den meisten Fällen überwachen MT Vorrichtungen eine Abtastoberfläche im Bezug auf eine Berührung oder eine Fast-Berührung und bestimmen, wenn eine Berührung auftritt, die unterschiedlichen Kontaktgebiete und identifizieren die Kontakte über ihre geometrischen Eigenschaften und geometrische Anordnung. Sobald sie identifiziert oder klassifiziert sind, werden die Kontakte im Hinblick auf verschiedene Bewegungen, Aktionen oder Ereignisse überwacht. Die Kontakte und ihre Bewegungen werden dann in Eingaben zur Steuerung irgendeines Aspekts einer elektronischen Vorrichtung umgewandelt.
  • MT Vorrichtungen können in verschiedenen Formen ausgeführt werden, einschließlich – aber nicht beschränkt auf – Standardberührungsfelder, große erweiterte Handflächenfelder, Berührungsbildschirme, berührungssensitive Gehäuse, usw. Weiterhin können MT Vorrichtungen in verschiedenen elektronischen Vorrichtungen untergebracht werden, einschließlich – aber nicht beschränkt auf – Computer, wie etwa Tabletcomputern, Laptopcomputern, Desktopcomputern und handgehaltene Computervorrichtungen, wie etwa Media Players (z. B. Musik, Video, Spiele), PDAs, Mobiltelefone, Kameras, Fernbedienungen und/oder ähnliches. Die MT Vorrichtungen können auch auf dedizierte Eingabevorrichtungen platziert werden, wie etwa Touch-Screen-Bildschirmen, Tastaturen, Navigationsfeldern, Tablets, Mäusen und ähnlichen. Im Wesentlichen können MT Vorrichtungen auf jede Oberfläche angewandt werden, und können in jeden Unterhaltungselektronikprodukt gefunden werden, das Eingaben benötigt.
  • Weil MT Vorrichtungen eine Fülle von eingebenden Operationen an einem einzigen Ort (Eingabeoberfläche) zur Verfügung stellen, kann das Eingeben mit MT Vorrichtungen sehr effizient sein. Der Benutzer kann seine Hand/Hände auf der MT Oberfläche lassen, ohne seine Hand/Hände bewegen zu müssen, um irgendwelche anderen Eingabevorrichtungen anzusteuern. Zum Beispiel beinhalten herkömmliche Systeme typischerweise eine Tastatur und eine getrennte Maus. Um die Maus zu benutzen muss der Benutzer seine Hand von der Tastatur weg und auf die Maus bewegen. Um effizient zu Tippen (beide Hände), muss der Benutzer seine Hand von der Maus zur Tastatur bewegen. Diese Eingabesequenz ist sehr ineffizient. Zum einen kann nur eine Vorrichtung gleichzeitig effektiv benutzt werden. Zum anderen gibt es Zeitverschwendung zwischen jedem Eingabeschritt. Im Gegensatz dazu kann der Benutzer mit MT Oberflächen sowohl statische Befehle (z. B. Tippen) als auch manipulative Befehle (z. B. Nachverfolgen) von derselben Stelle aus und zur gleichen Zeit erzeugen. Der Benutzer muss daher seine Hände nicht bewegen, um verschiedene Eingabeaufgaben durchzuführen. Der Benutzer liefert einfach verschiedene Akkorde oder Fingerbewegungen, um eine Fülle von Eingaben entweder sequentiell oder simultan zu erzeugen. In einem Beispiel kann der Benutzer Tastenbefehle mit Tippen auf bestimmten Stellen auf der MT Oberfläche liefern, während Nachverfolgung von allen Stellen der MT Oberfläche ermöglicht wird.
  • Obwohl Eingabeeffizienz mit MT Vorrichtungen stark verbessert wird, haben MT Vorrichtungen immer noch einige Beschränkungen. Zum einen können MT Abtastungen Daten erzeugen, die zweideutig oder unklar sind. Während sie z. B. großartig darin sein mag, die Anzahl an Kontakten zu bestimmen, kann sie Schwierigkeiten haben, beim Ermitteln der exakten Identität des Kontakts, z. B. welcher Finger. Dies gilt insbesondere, wenn es nur eine beschränkte Anzahl an ermittelten Kontakten gibt. Zum anderen gibt es in MT Operationen typischerweise eine Höchstzahl an Eingaben, die auf verschiedenen Akkorden und Fingerbewegungen basieren.
  • Daher schlägt in Übereinstimmung mit einer Ausführungsform die Erfindung vor, sekundäre Abtastung oder Eingabemechanismen oder -Systeme zu verwenden, um die MT Daten zu interpretieren zu helfen. Dadurch können die damit assoziierten Eingaben verbessert und sogar erweitert werden. Indem z. B. jeder Kontakt in einer Anordnung von Kontakten klar identifiziert wird, können mehr Akkorde und Gesten erzeugt werden. Die Eingabesprache ist nicht mehr auf die Anzahl an Kontakten begrenzt und kann erweitert werden, um spezifische Finger oder eine Fingeranordnung (z. B. Daumen, Ringfinger, Mittelfinger, kleiner Finger, Handfläche, usw.) zu umfassen.
  • Darüber hinaus können in manchen Situationen die MT Abtastdaten nicht so präzise sein, wie sie sollten oder müssen, um fehlerfrei zu arbeiten. Zum Beispiel kann ungenaue oder grobe Erkennung von Kontakten und Bewegungen zu unerwünschten Ergebnissen führen. Zum Beispiel kann die Handlung des Benutzers als etwas interpretiert werden, das sie nicht ist. Der Benutzer kann verärgert werden oder der Vorrichtung nicht trauen und als ein Ergebnis aufhören, die Vorrichtung zu verwenden. Daher können sekundäre Abtastvorrichtungen verwendet werden, um die MT Daten zu korrigieren, filtern, glätten oder anderweitig positiv zu verbessern, um die Leistungsfähigkeit der durch die MT Vorrichtung gelieferten Eingaben zu verbessern.
  • In Übereinstimmung mit einer anderen Ausführungsform schlägt die Erfindung vor, sekundäre Abtastungs- oder Eingabemechanismen oder Systeme zum Ergänzen von MT Operationen zu verwenden, um die gesamte MT Eingabeerfahrung zu verbessern. Zum Beispiel kann die Anzahl an Eingaben weiterhin erhöht werden. Wie erwähnt, ermöglichen es MT Vorrichtungen einem Benutzer, eine Fülle von Eingaben durchzuführen. Um dies zu tun behält der Benutzer jedoch typischerweise seine Hände nahe oder auf der MT Oberfläche. Eine Hand/Hände von der Oberfläche wegzubewegen verringert die Anzahl an verfügbaren Eingaben und damit die Effizienz. Daher können sekundäre Abtastungs- oder Eingabemechanismen oder Systeme verwendet werden, die es der Hand/den Händen ermöglicht, nahe der MT Oberfläche zu bleiben. Zum Beispiel Mechanismen oder Systeme entweder (1) in der Lage nahe der MT Oberfläche abzutasten und/oder (2) in der Lage, etwas anderes als eine Hand (handloses Eingeben) abzutasten. Beispiele für ersteres können z. B. Kraftabtastung, Bildabtastung, optische Abtastung, Positionsabtastung, Bewegungsabtastung, biometrische Abtastung und/oder ähnliches an der MT Oberfläche umfassen. Beispiele für letzteres umfassen Stimmerkennungssysteme, Blickvektorsysteme, biometrische Systeme, Vorrichtungsdynamikabtastung, Umgebungsabtastung und/oder ähnliches.
  • Weitere Details über Implementierungen von Berührungsvorrichtungen, die MT Vorrichtungen und deren Durchführungsverfahren umfassen, werden geliefert in: (1) U.S. Patentanmeldung Nr. 10/654,108, eingereicht am 2. September 2003, mit dem Titel "BEIDHÄNDIGE MAUS"; (2) U.S. Patentanmeldung Nr. 10/789,676, eingereicht 27. Februar 2004, mit dem Titel "FORMERKENNENDE EINGABEVORRICHTUNG"; (3) U.S. Patentanmeldung Nr. 10/840,862, eingereicht am 6. Mai 2004, mit dem Titel "MEHRPUNKTBERÜHRUNGSBILDSCHIRM"; (4) U.S. Patentanmeldung Nr. 11/115,539, eingereicht am 26. April 2005, mit dem Titel "TRAGBARE ELEKTRONISCHE VORRICHTUNG MIT MEHRFACHBERÜHRUNGS-ABTASTUNGSVORRICHTUNGEN"; (5) U.S. Patentanmeldung Nr. 11/241,839, eingereicht am 30. Juli 2004, mit dem Titel "NÄHEDETEKTOR IN TRAGBARER VORRICHTUNG"; (6) U.S. vorläufige Patentanmeldung Nr. 60/658,777, eingereicht am 4. März 2005, mit dem Titel "MULTIFUNKTIONALE TRAGBARE VORRICHTUNG"; (7) U.S. Patentanmeldung Nr. 10/903,964, eingereicht am 30. Juli 2004, mit dem Titel "GESTEN FÜR BERÜHRUNGSSENSITIVE EINGABEVORRICHTUNGEN" (8) U.S. Patentanmeldung Nr. 11/038,590, eingereicht am 18. Januar 2005, mit dem Titel "MODUS-BASIERTE GRAPHISCHE BENUTZERSCHNITTSTELLE FÜR BERÜHRUNGSSENSITIVE EINGABEVORRICHTUNGEN"; (9) U.S. Patentanmeldung Nr. 11/048,264, eingereicht am 31. Januar 2005, mit dem Titel "GESTEN FÜR BERÜHRUNGS-SENSITIVE EINGABEVORRICHTUNGEN"; (10) U.S. Patentanmeldung Nr. 11/228,737, eingereicht am 16. September 2005, mit dem Titel "AKTIVIEREN VIRTUELLER TASTEN EINER VIRTUELLEN BERÜHRUNGSBILDSCHIRM-TASTATUR"; (11) U.S. Patentanmeldung Nr. 11/228,758, eingereicht am 16. September 2005, mit dem Titel "ANORDNUNG EINER VIRTUELLEN EINGABEVORRICHTUNG AUF EINER BERÜHRUNGSBILDSCHIRM-BENUTZERSCHNITTSTELLE; (12) U.S. Patentanmeldung Nr. 11/228,700, eingereicht am 16. September 2005, mit dem Titel "OPERATION EINES COMPUTERS MIT BERÜHRUNGSBILDSCHIRMSCHNITTSTELLE"; (13) U.S. Patentanmeldung Nr. 10/927,925, eingereicht am 26. August 2004, mit dem Titel "VISUELLER EXPANDER"; (14) U.S. Patentanmeldung Nr. 10/927,575, eingereicht am 25. August 2004, mit dem Titel "BREITES BERÜHRUNGSFELD AUF EINEM TRAGBAREN COMPUTER", (15) U.S. Patentanmeldung Nr. 11/015,434, eingereicht am 17. Dezember 2004, mit dem Titel "VERFAHREN UND VORRICHTUNG ZUM INTEGRIEREN MANUELLER EINGABE", (16) U.S. Patentanmeldung Nr. 6,323,846, (17) vorläufige U.S. Patentanmeldung Nr. 60/072,509, eingereicht am 26. Januar 1998, (18) vorläufige U.S. Patentanmeldung Nr. 60/763,605, eingereicht am 30. Januar 2006, mit dem Titel "GESTIKULIEREN MIT EINER MULTIPUNKTABTASTVORRICHTUNG" (19) U.S. Patentanmeldung Nr. 11/057,050, eingereicht am 11. Februar 2005, mit dem Titel "ANZEIGEAKTUATOR," (20) U.S. Patentanmeldung Nr. 6,677,932, (21) U.S. Patent Nr. 6,570,557, (20) U.S. Patent Nr. 7,030,861, (22) U.S. Patent Nr. 6,888,536, die alle hierin durch Verweisung enthalten sind.
  • Diese und andere Aspekte der Ausführungsformen der Erfindung werden unten mit Bezug auf die 1 bis 25 diskutiert. Die Fachleute werden jedoch leicht erkennen, dass die detaillierte Beschreibung, die hier mit Bezug auf diese Figuren gegeben wird, nur beispielhaften Zwecken dient, da die Erfindung über diese begrenzten Ausführungsformen hinausgeht.
  • 1 ist ein Blockdiagramm einer elektronischen Vorrichtung oder eines Systems 50, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfin dung. Die elektronische Vorrichtung 50 kann einem Computer entsprechen, wie etwa Desktop, Laptop, Tablet- oder handgehaltenen Computer. Die elektronische Vorrichtung kann auch anderen in der Hand gehaltenen Computervorrichtungen entsprechen, wie etwa Mobiltelefonen, PDAs, Mediaplayers, Medienspeichervorrichtung, Kamera, Fernbedienung und/oder ähnliches. Die elektronische Vorrichtung kann auch eine multifunktionelle Vorrichtung sein, die zwei oder mehr dieser Vorrichtungsfunktionalitäten in einer einzigen Vorrichtung kombiniert. Beispiele für multifunktionale Vorrichtungen können in der U.S. vorläufigen Patentanmeldung Nr. 60/658,777 gefunden werden, eingereicht am 4. März 2005, mit dem Titel "MULTIFUNKTIONALE HANDGEHALTENE VORRICHTUNG", die hierin durch Verweis eingebunden wird.
  • Die beispielhafte elektronische Vorrichtung 50 enthält einen Prozessor 56, der so konfiguriert ist, dass er Anweisungen ausführt und Operationen durchführt, die mit der elektronischen Vorrichtung 50 verbunden sind. Zum Beispiel kann der Prozessor 56 unter Verwendung von Anweisungen, die z. B. aus dem Speicher bezogen werden, den Empfang und die Manipulation von Eingabe- und Ausgabedaten zwischen Komponenten der elektronischen Vorrichtung steuern. Der Prozessor 56 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektronischen Komponenten implementiert sein. Zum Beispiel können verschiedene Architekturen für den Prozessor 56 verwendet werden, einschließlich einem dedizierten oder eingebetteten Prozessor, einem Prozessor mit einer einzigen Funktion, einem Controller, ASIC, und so weiter. Der Prozessor kann z. B. Mikroprozessoren, DSP, A/D Wandler, D/A Wandler, Komprimierung, Dekomprimierung, usw. umfassen.
  • In den meisten Fällen arbeitet der Prozessor 56 mit einem Betriebssystem zusammen, um Computercode auszuführen und Daten zu erzeugen und zu verwenden. Betriebssysteme sind allgemein wohl bekannt und werden nicht in weiterem Detail beschrieben. Das Betriebssystem kann z. B. OSX, OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein Betriebs system für einen speziellen Zweck sein, so wie es für Haushaltsgerät-artige Computervorrichtungen für einen begrenzten Zweck verwendet werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks 58 befinden, der operativ mit dem Prozessor 56 verbunden ist. Speicherblock 58 liefert in der Regel einen Ort, um Computercode und Daten zu speichern, die durch das Computersystem 50 verwendet werden. Der Speicherblock 58 kann z. B. Nur-Lese-Speicher (Read-Only Memory ROM), Hauptspeicher (Random-Access Memory RAM), Flash Speicher, Festplattenlaufwerk und/oder ähnliches umfassen. Die Information könnten sich auch in einem entfernbaren Speichermedium befinden und auf das Computersysteme 50 bei Bedarf geladen oder installiert werden. Entfernbare Speichermedien umfassen z. B. CD-ROM, PC-CARD, Speicherkarte, Floppy Disk, Magnetband und eine Netzwerkkomponente.
  • Die elektronische Vorrichtung 50 enthält auch eine Anzeigevorrichtung 68, die operativ mit dem Prozessor 56 verbunden ist. Die Anzeigevorrichtung 68 kann eine Flüssigkristallanzeige (LCD) sein. Alternativ kann die Anzeigevorrichtung 68 ein Monitor, wie etwa eine monochrome Anzeige, Color Graphics Adapter (CGA) Anzeige, Enhanced Graphics Adapter (EGA) Anzeige, Variable Graphics Array (VGA) Anzeige, Super VGA Anzeige, Bildröhrenanzeige (Cathode Ray Tube CRT) und ähnliches sein. Die Anzeigevorrichtung kann auch einem Plasmabildschirm, einer Anzeige, die mit elektronischen Tinten implementiert ist oder einer organisches-lichtemittierende-Dioden (OLED) Anzeige entsprechen. Die Anzeigevorrichtung 68 kann in die elektronische Vorrichtung 50 integriert sein, oder es können getrennte Komponenten sein (z. B. Peripherievorrichtungen). In manchen Fällen kann die Anzeigevorrichtung 68 mit der elektronischen Vorrichtung 50 durch verdrahtete Verbindungen (z. B. Drähte/Kabel/Anschlüsse) verbunden sein. In anderen Fällen kann die Anzeigevorrichtung 68 mit der elektronischen Vorrichtung 50 durch drahtlose Verbindungen verbunden sein. Die Datenverbindung kann z. B. PS/2, USB, IR, RF, Bluetooth oder ähnlichem (unter anderem) entsprechen.
  • Die Anzeigevorrichtung 68 ist im Allgemeinen so konfiguriert, dass sie eine graphische Benutzerschnittstelle (graphical user inferface GUI) 69 anzeigt, die eine einfach zu benutzende Schnittstelle zwischen einem Benutzer des Computersystems und dem Betriebssystem oder darauf laufenden Anwendung zur Verfügung stellt. Allgemein repräsentiert die GUI 69 Programme, Dateien und Betriebsoptionen mit graphischen Bildern. Die graphischen Bilder können Fenster, Felder, Dialogboxen, Menüs, Icons, Schaltflächen, Cursor, Scrollleisten usw. beinhalten. Solche Bilder können in vordefinierten Layouts angeordnet sein, oder sie können dynamisch erzeugt werden, um speziellen Aktionen zu dienen, die durch einen Benutzer gemacht werden. Während des Betriebs kann der Benutzer verschiedene graphische Bilder wählen und aktivieren, um Funktionen und damit verbundene Aufgaben einzuleiten. Ein Benutzer kann z. B. eine Schaltfläche auswählen, die ein Fenster öffnet, schließt, minimalisiert oder maximalisiert, oder ein Icon, das ein bestimmtes Programm startet. Die GUI 69 kann darüber hinaus oder alternativ Informationen, wie etwa nicht-interaktiven Text und Graphiken für den Benutzer auf der Anzeigevorrichtung 68 anzeigen.
  • Die elektronische Vorrichtung 50 umfasst auch eine Eingabeanordnung 70, die operativ mit dem Prozessor 56 verbunden ist. Die Eingabeanordnung 70 ist so konfiguriert, dass sie Daten von der Außenwelt in die elektronische Vorrichtung 50 überträgt. Die Eingabeanordnung 70 kann z. B. verwendet werden, um Nachverfolgung durchzuführen und Auswahl in Bezug auf die GUI 69 auf der Anzeige 68 zu machen. Die Eingabeanordnung 70 kann auch verwendet werden, um Befehle in die elektronische Vorrichtung 50 auszugeben. Die Eingabeanordnung 70 kann in die elektronische Vorrichtung 50 integriert sein, oder es können getrennte Komponenten (z. B. Peripherievorrichtungen) sein. In manchen Fällen kann die Eingabeanordnung 70 mit der elektronischen Vorrichtung 50 durch Drahtverbindungen (z. B. Drähte/Kabel/Anschlüsse) verbunden sein. In anderen Fällen kann die Eingabeanordnung 70 mit der elektronischen Vorrichtung 50 durch drahtlose Verbindungen verbunden sein. Die Datenverbindung kann z. B. PS/2, USB, IR, RF, Bluetooth oder ähnlichen (unter anderem) entsprechen.
  • In Übereinstimmung mit einer Ausführungsform umfasst die Eingabeanordnung 70 mindestens ein MT Datenfusionseingabesystem. Mehrfachberührungsdatenfusion ist das Konzept des Vereinens, Zusammenführens oder Vermischens von MT Abtastung mit anderen Abtastungsmitteln, um einen neuen Ansatz für das Eingeben zu schaffen. Sie wird im Allgemeinen auf synergetische Weise erreicht (kooperative Aktion von zwei oder mehr Aktionen). MT Datenfusion kann definiert werden als die Kombination von Daten von einem oder mehreren unabhängigen Abtast- oder Eingabemitteln mit MT Daten von einer MT Vorrichtung, um den Betrieb und die Verwendung einer elektronischen Vorrichtung zu verbessern. Wie gezeigt, umfasst das MT Datenfusionseingabesystem eine MT Vorrichtung 72 und eine oder mehrere MT Datenfusionsvorrichtungen 74.
  • Die MT Vorrichtung 72 ist so konfiguriert, dass sie Eingabe von einer Berührung des Benutzers empfängt und diese Informationen an den Prozessor 56 schickt. Die MT Vorrichtung 72 kann z. B. einem Berührungsfeld, einem Berührungsbildschirm, einem berührungssensitiven Gehäuse oder einer anderen verwandten Berührungsvorrichtung entsprechen. Wie erwähnt ist MT Abtastung in der Lage, mehrere Berührungen, die zur gleichen Zeit auftreten, zu unterscheiden. Im Allgemeinen erkennt die MT Vorrichtung 72 Berührungen, so wie die Position und die Größenordnung von Berührungen auf einer Mehrfachberührungs-sensitiven Oberfläche. Die MT Vorrichtung 72 berichtet die Berührungen dem Prozessor 56, und der Prozessor 56 interpretiert die Berührungen in Übereinstimmung mit seiner Programmierung. Der Prozessor 56 kann z. B. eine Anwendung in Übereinstimmung mit einer bestimmten Berührung oder einem Berührungsereignis einleiten. Der Prozessor kann auch einen Satz an Anweisungen enthalten, der das Auftreten von Akkorden und deren Bewegungen erkennt und einen oder mehrere Softwareagenten darüber informiert, welche Aktion(en) in Antwort auf die Akkorde und Bewegung vorzunehmen ist/sind. Ein dedizierter Prozessor kann verwendet wer den, um Berührungen lokal zu verarbeiten und die Anforderung für den Hauptprozessor der elektronischen Vorrichtung zu verringern. Die MT Datenfusionsvorrichtungen 74 sind so konfiguriert, dass sie sekundäre Informationen oder Daten, die mit den MT Daten fusioniert werden können, zur Verfügung stellen, um Eingabeoperationen für den Benutzer signifikant zu verstärken und zu verbessern. Die sekundären können durch eine große Vielzahl von Quellen zur Verfügung gestellt werden. Zum Beispiel können die Quellen eine Vielzahl von Sensoren umfassen, welche biometrische Sensoren, Audiosensoren, optische Sensoren, Schallsensoren, Vibrationssensoren, Bewegungssensoren, Positionssensoren, Lichtsensoren, Bildsensoren, akustische Sensoren, Sensoren eines elektrischen Feldes, Schocksensoren, Umgebungssensoren, Ausrichtungssensoren, Drucksensoren, Kraftsensoren, Temperatursensoren und/oder ähnliche umfassen, aber nicht auf diese beschränkt sind.
  • Die Sensoren können sich an einer großen Vielzahl von Stellen relativ zur MT Oberfläche befinden. In manchen Fällen darüber angeordnet, in anderen Fällen darunter angeordnet. Die Sensoren können sogar auf einer Ebene mit der MT Oberfläche sein. Die Sensoren können sich um den Rand der MT Oberfläche herum befinden, oder sie können innerhalb der Ebene der MT Oberfläche gefunden werden. In einem Beispiel werden pixelartige oder lokalisierte Sensoren in der MT Oberfläche eingebettet oder mit dieser geschichtet. Zum Beispiel können temperaturempfindliche dünne Filmwiderstände über die Fläche verteilt werden, um Temperaturdaten in lokalisierten Gebieten der MT Oberfläche zu liefern.
  • In spezifischen Beispielen können die eine oder die mehreren MT Datenfusionsvorrichtungen von Stimmerkennung, Bilderkennung, Blickerkennung, Gemütserkennung, biometrische, Umgebungs-, Vorrichtungsdynamik und/oder ähnlichem ausgewählt werden.
  • Das Fusionieren kann mit dem Prozessor erreicht werden, oder alternativ einem getrennten dedizierten Prozessor, der Teil des MT Datenfusionseingabesystems ist. Wann und wo die Daten fusioniert werden kann stark unterschiedlich sein. Integration kann z. B. früh, spät oder gleichzeitig kommen.
  • Im Allgemeinen führt die MT Datenfusionsvorrichtung irgendeine Operation wie etwa Abtasten durch und kann Verarbeitungskomponenten zum Verarbeiten irgendwelcher Daten umfassen. Die MT Datenfusionsvorrichtung berichtet sekundäre Daten dem Prozessor 56, und der Prozessor 56 interpretiert die sekundären Daten im Kontext der MT Daten in Übereinstimmung mit seiner Programmierung. In einer Ausführungsform können die sekundären Daten verwendet werden, um zu helfen, MT Daten zu interpretieren. Zusätzlich oder alternativ können die sekundären Daten dazu verwendet werden, die MT Daten zu ergänzen, um die Eingabeoperationen zu rationalisieren. Die sekundären Daten können z. B. Multitasking, Verkettung und ununterbrochene Stromeingabe ermöglichen. Zusätzlich, oder alternativ dazu können die sekundären Daten verwendet werden, um eine ganz neue Eingabe zu erzeugen. Das heißt: MT Daten + sekundäre Daten = Befehl.
  • Der Prozessor kann einen Übersetzer haben, der beide Abtastdaten empfängt und auf eine Datenbank Bezug nimmt, um das korrekte Vorgehen zu bestimmen. Die Sprachabbildung kann einen Satz an Instruktionen umfassen, der sowohl eine Anordnung von Kontakten auf einer MT Oberfläche als auch andere Abtastdaten erkennt, das Auftreten der Ereignisse erkennt und einen oder mehrere Softwareagenten über die Ereignisse informiert, und/oder darüber, welche Handlung in Antwort auf die Ereignisse durchzuführen ist.
  • In einer Ausführungsform können die sekundären Daten und MT Daten zeitweise fusioniert werden. Im Allgemeinen bedeutet zeitweise Fusion ein ersichtliches zeitliches Zusammenkommen mehrerer Ereignisse (mehrere Datensätze) innerhalb eines einzigen individuellen Kontexts (Computeranwendung, Modus oder Plattform). Genauer werden in zeitlicher Fusion die Daten von mehreren Quellen (MT + andere Abtastmittel) in einer zeitkohärenten Weise interpretiert. Die In formationen, die von verschiedenen Quellen strömen, werden kombiniert oder fusioniert, so dass Ereignisse in jedem Datenstrom zeitlich miteinander abgestimmt sind. Als solche können die mehrfachen Datenströme in Verbindung miteinander korrekt verstanden werden.
  • 2 ist ein Mehrfachberührungs- MT Datenfusionsverfahren 100. Das Verfahren 100 umfasst den Block 102, wo MT Abtastungsoperationen durchgeführt werden. Das Verfahren 100 umfasst auch den Block 104, wo sekundäre Abtastoperationen durchgeführt werden. Das Verfahren 100 umfasst auch den Block 106, wo die Abtastdaten zeitweise mit den MT Daten fusioniert werden.
  • 3 ist ein Mehrfachberührungs- (MT) Datenfusionsverfahren 120. Das Verfahren 120 umfasst den Block 122, wo ein MT Datenstrom erzeugt wird. Das Verfahren 120 umfasst auch den Block 124, wo ein oder mehrere sekundäre Datenströme erzeugt werden. Der sekundäre Datenstrom wird enthalten, um die MT Daten zu ergänzen oder zu interpretieren. Das Verfahren 120 umfasst auch den Block 126, wo Ereignisse in jedem Datenstrom zeitlich abgestimmt werden, so dass MT Ereignisse in Verbindung mit den sekundären Ereignissen korrekt verstanden werden.
  • 4 ist ein Verfahren zum Eingeben 140. Das Verfahren 140 umfasst den Block 142, wo MT Abtastdaten gesammelt werden. Das Verfahren 140 umfasst auch den Block 144, wo sekundäre Abtastdaten gesammelt werden. Das Verfahren 140 umfasst darüber hinaus den Block 146, wo auf zeitkohärente Weise Ereignisse von Abtastdaten mit Ereignissen von MT Daten kombiniert werden, um eine Aktion einzuleiten.
  • 5 ist ein Verfahren, zum Eingeben 160. Das Verfahren 160 umfasst den Block 162, wo MT Abtastdaten gesammelt werden. Das Verfahren 160 umfasst auch den Block 164, wo sekundäre Abtastdaten gesammelt werden. Das Verfahren 160 umfasst darüber hinaus den Block 166, wo auf eine zeitkohärente Weise die Abtastdaten verwendet werden, um die MT Daten (simultan oder nacheinander) zu ergänzen, so dass eine Eingabesitzung fließend, nahtlos und effizient ist.
  • 6 ist ein Verfahren zum Eingeben 180. Das Verfahren 180 umfasst den Block 182, wo MT Abtastdaten gesammelt werden. Das Verfahren 180 umfasst auch den Block 184, wo sekundäre Abtastdaten gesammelt werden. Obwohl sie als aufeinanderfolgende Blöcke gezeigt werden, sollte bemerkt werden, dass die Blöcke typischerweise im gleichen Zeitbereich durchgeführt werden, so dass Ereignisse in einem Ereignissen in dem anderen entsprechen. Das Verfahren 180 umfasst darüber hinaus den Block 186, wo auf eine zeitkohärente Weise die Abtastdaten verwendet werden, um die MT Daten zu interpretieren, so dass MT Operationen erweitert und verbessert werden können. Die sekundären Daten können z. B. verwendet werden, um Annahmen über die MT Daten zu treffen, MT Daten vorherzusagen, Vorkehrungen für MT Daten zu treffen, MT Daten zu korrigieren, MT Daten zu filtern, usw. In einer Variante werden sekundäre Daten verwendet, um Eigenschaften, Attribute oder Verhaltensweisen, die mit einzelnen Kontakten, spezifischen Anordnungen von Kontakten, Bewegungen von einem oder mehreren Kontakten, Bewegungen von Kontakten relativ zueinander, usw. verbunden sind, besser zu bestimmen oder zu definieren. Zum Beispiel können die sekundären Daten zusätzliche Kontaktinformationen in Bezug auf die Z Größenordnung oder Druck, die x Koordinate, die y Koordinate, ID, Winkel, Gebiet liefern. Die sekundären Daten können auch Informationen in Bezug auf die Akkordgruppierung, Entfernung zwischen Kontakten, Schwerpunkt der Kontaktanordnung, Druck der Kontaktanordnung, Rotation oder Verschiebung von Kontakten relativ zueinander oder als eine Gruppe von Kontakten, Geschwindigkeit einzelner Kontakte, Geschwindigkeit einer Anordnung von Kontakten, relative Geschwindigkeit zwischen Kontakten, usw. liefern.
  • 7 ist ein Eingabeverfahren 200. Das Verfahren 200 umfasst den Block 202, wo eine Anwendung, ein System oder eine Plattform aktiv ist. Das Verfahren umfasst auch den Block 204, wo MT Abtastung durchgeführt wird und wo Akkord- und Bewegungsdaten erkannt werden. Das Verfahren 200 umfasst auch den Block 206, wo Aktionen, die mit den Akkordbildungs- und Bewegungsdaten verbunden sind, eingeleitet werden. Das Verfahren 200 umfasst auch den Block 208, wo Stimmerkennung durchgeführt wird, und Stimmmuster erkannt werden. Das Verfahren 200 umfasst auch den Block 210, wo Aktionen, die mit den Stimmmustern verbunden sind, eingeleitet werden.
  • 8 ist ein Verfahren zum Eingeben 210. Das Verfahren beginnt bei Block 212, wo ein angezeigtes Objekt während MT Eingabe ausgewählt oder erzeugt wird. Wenn kein Objekt ausgewählt oder erzeugt wird, dann wartet das Verfahren 210. Wenn ein Objekt ausgewählt oder erzeugt wird, geht das Verfahren 210 zwei simultan ablaufende Blöcke 214 und 216 nach unten. In Block 214 wird eine Bestimmung gemacht, ob ein Stimmmodifizierungsbefehl erkannt wird oder nicht, während das Objekt ausgewählt oder erschaffen wird. Wenn das der Fall ist, geht das Verfahren 210 zu Block 218 weiter, wo das ausgewählte oder erschaffene Objekt in Übereinstimmung mit dem Befehl modifiziert wird. Wenn nicht, fließt das Verfahren 210 zurück nach Block 212. In Block 216 wird eine Bestimmung gemacht, ob ein MT Befehl erkannt wird oder nicht, während das Objekt ausgewählt oder erzeugt wird. Wenn das der Fall ist, geht das Verfahren 210 weiter nach Block 220, wo das ausgewählte oder erzeugte Objekt in Übereinstimmung mit dem Befehl modifiziert wird. Wenn nicht, fließt das Verfahren zurück nach Block 212.
  • 9A bis 9E sind diagrammhafte Darstellungen von Fusionsstimmdaten mit MT Daten in Übereinstimmung mit Ausführungsformen der Erfindung. Wie in 9A gezeigt, greift ein Benutzer ein angezeigtes Objekt 230 mit mehreren Fingern 232 und 234. Dies wählt im Wesentlichen das angezeigte Objekt 230 für Anpassungen oder Veränderungen aus. Wie in 9B gezeigt, rotiert der Benutzer die Finger 232 und 234, um das angezeigte Objekt 230 zu rotieren (z. B. rotiert das Objekt simultan mit der Rotation der Finger). Wie in 9C gezeigt, lässt der Benutzer seine Finger 232 und 234 zusammen über die angezeigte Oberfläche gleiten, um das angezeigte Objekt 230 von einer Stelle an eine neue Stelle im Darstellungsbereich oder auf einer angezeigten Seite zu bewegen. Wie in den 9D und 9E gezeigt, verändert der Benutzer die Größe des angezeigten Objekts durch Zusammendrücken seiner Finger 232 und 234 oder Auseinanderspreizen seiner Finger 232 und 234.
  • Zu jeder Zeit während dieser Operationen kann der Benutzer das angezeigte Objekt 230 weiter mit Stimmbefehlen modifizieren. Zum Beispiel kann der Benutzer einfach eine Farbe rufen, um die Farbe des Objekts zu ändern. Alternativ kann der Benutzer "Text eingeben" sagen, und dann wird danach Sprache innerhalb des angezeigten Objekts 230 eingegeben. Wie erkannt werden sollte, ermöglichen Stimmbefehle dem Benutzer, MT Eingabe ohne Unterbrechung fortzuführen. Zusätzlich oder alternativ kann der Benutzer Blickerkennung verwenden, um die Eingabeoperation weiter zu verbessern. Zum Beispiel kann der Benutzer auf ein anderes Objekt blicken und nachfolgend auf eine neue Stelle blicken, um ein zweites Objekt 231 an diese Stelle zu bewegen. Wiederum kann diese durchgeführt werden, während der Benutzer MT Eingabe am ersten Objekt 230 durchführt. Als ein Ergebnis kann Eingeben effizienter sein.
  • 10 ist ein weiteres Diagramm, das die Fusion von Spracherkennung und MT Operationen gemäß Ausführungsformen der Erfindung zeigt. In dieser Ausführungsform erzeugt der Benutzer ein Liniensegment 240 durch Ziehen von zwei Fingern 234 und 235 über den Bildschirm. Zu jeden Zeitpunkt während dieser Erzeugung kann der Benutzer Befehle rufen, um das Liniensegment 240 zu modifizieren. Zum Beispiel kann der Benutzer "grün" rufen, um die Linienfarbe des Liniensegments 240 nach grün zu ändern. Er kann auch "5 Punkte" rufen, um die Dicke des Liniensegments 240 zu ändern. Der Benutzer kann auch "gestrichelt" rufen, um das Liniensegment 240 in eine gestrichelte Linie zu verändern. In all diesen Beispielen kann der Benutzer mit dem MT Eingeben fortfahren, wodurch er das Eingeben effizienter macht.
  • Es sollte bemerkt werden, dass Ausführungsformen der Erfindung nicht auf Farbänderungen und Texteingabebefehle beschränkt sind, sondern dass andere Befehle verwendet werden können (z. B. öffnen, schließen, usw.).
  • 11 ist ein Verfahren 250 zur eindeutigen Fingeridentifikation. Das Verfahren 250 umfasst den Block 252, wo ein Handprofil durch einen ersten Abtastmechanismus während der Eingabeanwendung erzeugt wird. Das Handprofil zeigt bestimmte Finger der Hand und ihren Ort innerhalb einer Ebene an. Der Ort kann spezifisch für eine einzelne Achse oder für mehrere Achsen, wie z. B. die X und Y Achse der Ebene sein. Das Handprofil kann von unterhalb, auf einer Ebene mit oder überhalb der Ebene erzeugt werden. Das Handprofil kann z. B. durch eine Aufnahmevorrichtung, wie etwa einen Bildsensor erzeugt werden. Das Verfahren 250 umfasst auch den Block 254, wo ein Kontaktprofil mittels eines zweiten Abtastmechanismus während der Eingabeanwendung erzeugt wird. Das Kontaktprofil zeigt einen oder mehrere Kontaktbereiche an, die durch Finger verursacht werden, die eine Oberfläche berühren, und deren Ort innerhalb der Ebene. Der Ort kann spezifisch für eine einzige Achse oder für mehrere Achsen sein, wie z. B. die X und Y Achse der Ebene. Wenn eine einzelne Achse verwendet wird, dann entspricht sie zumindest der Achse, die für das Handprofil verwendet wird. In den meisten Fällen wird die Achse verwendet, die die Finger kreuzt oder im Wesentlichen rechtwinklig zu ihnen ist. Das Kontaktprofil kann unter Verwendung einer MT Vorrichtung erzeugt werden, die Berührungen auf einer Oberfläche oder Ebene abtastet. Das Verfahren 250 umfasst weiterhin Block 256, wo Identität der Kontakte durch Korrelieren oder in Übereinstimmung-Bringen des Handprofils mit dem Kontaktprofil bestimmt wird. Dies kann durch Vergleichen des Orts der Finger mit dem Ort der Kontakte erreicht werden. Das Handprofil kann z. B. Finger an spezifischen X Orten anzeigen, und das Kontaktprofil kann Kontakte an spezifischen X Orten anzeigen. Der Kontaktort, der am besten auf den Fingerort passt, kann als dieser Finger identifiziert werden. Im Wesentlichen gibt es zwei Datensätze, und man schaut, wo diese übereinstimmen. Verschiedene Verfahren können implementiert werden, einschließlich Übereinstimmungsfiltern und räumliche Korrelation.
  • 12 ist ein Verfahren 270 zur eindeutigen Fingeridentifikation. Das Verfahren 270 umfasst den Block 272, wo ein Bild der Hand, das Finger umfasst, die sich über der MT Oberfläche befinden, erhalten wird. Das Verfahren 270 umfasst auch den Block 274, wo das Handbild analysiert wird, um Identität von Fingern zu bestimmen. Das Verfahren 270 umfasst auch den Block 276, wo Bilder von Fingern in Kontakt mit der MT Oberfläche erhalten werden. Das Verfahren 270 umfasst zusätzlich den Block 278, wo das Handbild und Kontaktbild in Beziehung gesetzt werden, um Identität von Kontakten zu bestimmen. Obwohl der Ausdruck "Bild" verwendet und gezeigt wird, sollte bemerkt werden, dass die Daten in anderen Formen kommen können (z. B. Signale oder mathematische Funktionen).
  • 13 ist ein Eingabeverfahren 280. Das Eingabeverfahren 280 beginnt bei Block 282, wo eine Bestimmung darüber gemacht wird, ob eine Berührung detektiert wird, oder nicht. Wenn eine Berührung detektiert wird, geht das Verfahren 280 weiter zu den Blöcken 284 und 286. In Block 284 wird/werden die Hand/Hände, die über der MT Oberfläche positioniert ist/sind, mit einem Bildsensor aufgenommen. Der Bildsensor kann in der MT Oberfläche eingebettet sein, an der Außenseite oder um die Ränder der MT Oberfläche herum, oder an einer Stelle oberhalb der MT Oberfläche. In Block 286 werden die Finger, die in Kontakt mit der MT Oberfläche sind, aufgenommen. Den beiden Blöcken 284 und 286 folgen die Blöcke 288 und 290. In Block 288 wird das Handbild analysiert, um Fingeridentität und ihre Stelle innerhalb der MT Oberflächenebene zu bestimmen. In Block 290 wird das Kontaktbild analysiert, um Kontaktstelle innerhalb der MT Oberflächenebene zu bestimmen. Danach, in Block 292, werden die Kontakte mit den Fingern in Übereinstimmung gebracht, so dass die Identitäten der Kontakte bekannt werden. Obwohl der Ausdruck "Bild" verwendet und gezeigt wird, sollte bemerkt werden, dass die Daten in anderen Formen kommen können, z. B. Signale oder andere mathematische Funktionen.
  • 14A ist eine Darstellung eines beispielhaften Bildes 300 eines Paars von Händen, die über einer MT Oberfläche positioniert sind, und 14B ist eine Darstellung eines beispielhaften Bildes 302 einer Anordnung von Kontakten auf der MT Oberfläche. Wie in 14A gezeigt, wird das Bild 300 der Hände verarbeitet, um die Finger zu identifizieren und die X Position eines jeden dieser Finger zu bestimmen. Das Bild kann ein moduliertes Muster von Erhebungen in der X Koordinate liefern. Das Bildsystem kann Zwischenräume zwischen Erhebungen detektieren, um zu bestimmen, welcher Finger den Kontakt schafft. Das Bildsystem kann den Farbton der Finger untersuchen, den Kontrast zwischen Fingern untersuchen (leuchtende helle Flecken), die Größe eines jeden Fingers untersuchen, oder nach Fingernägeln und/oder ähnlichem suchen. Die Daumennägel können im Vergleich zu den anderen Fingern leicht identifizierbar sein, weil der Daumen im Verhältnis zu den anderen Fingern typischerweise proniert ist (damit haben sie eine unterschiedliche Form). Wie in 14B gezeigt, wird das Bild 302 der Kontakte verarbeitet, um die X Position eines jeden der Kontakte zu bestimmen. Sobald die X Positionen gefunden sind, werden sie mit den X Positionen der Finger verglichen, um die Identität der Kontakte zu bestimmen. Es sollte bemerkt werden, dass dies typischerweise keine exakte Übereinstimmung ist, und somit ein Algorithmus der besten Übereinstimmung angewendet werden kann, um zu bestimmen zu helfen, welche Kontakte die wahrscheinlichen Übereinstimmungen für die Finger sind. Im dargestellten Beispiel befindet sich ein erster Kontakt bei X1, was dem linken kleinen Finger bei X1 entspricht, der zweite Kontakt befindet sich bei X2, was dem linken Ringfinger entspricht, und ein dritter Kontakt befindet sich bei X7, was dem rechten Zeigefinger entspricht. Obwohl der Ausdruck "Bild" verwendet und gezeigt wird, sollte bemerkt werden, dass die Daten in anderen Formen kommen können (z. B. Signale oder andere mathematische Funktionen).
  • Die Handprofile können verwendet werden, um dynamische Zugvorlagen zu erzeugen. In einem Fall kann die minimale Summe der Entfernung im Quadrat verwendet werden, um zu identifizieren, welcher Kontakt zu welchem Finger gehört.
  • Die 15A und 15B sind Diagramme einer elektronischen Vorrichtung 310 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die elektronische Vorrichtung 310 umfasst eine MT Oberfläche 312 zum Erhalten von Kontaktinformationen, die den Fingern zugeordnet sind, die in Kontakt mit der MT Oberfläche 312 stehen, und eine Aufnahmevorrichtung 314 zum Erhalten von Bildern der Hand/Hände, die über die MT Oberfläche 312 schwebt/schweben. Wie gezeigt, ist der Bildsensor 314 über den Händen relativ zur Ebene und an der oberen Kante der MT Oberfläche 312 positioniert. Er ist so konfiguriert, dass er ein Bild der Hand/Hände relativ zur X Achse erzeugt. Darüber hinaus ist der Bildsensor 314 unterhalb oder vertieft hinter der oberen Oberfläche der elektronischen Vorrichtung 310 eingebettet. Er ist konfiguriert, die Hand durch ein optisches Glied 316 aufzunehmen, das an der oberen Oberfläche der elektronischen Vorrichtung 310 angeordnet ist. In manchen Fällen kann das optische Glied 316 so konfiguriert sein, dass es den Bildsensor 314 vor Blicken verbirgt, wie z. B. hinter einer Blende oder einem lichtundurchlässigen Abschnitt. In einer Ausführungsform ist der Bildsensor 314 relativ zur oberen Oberfläche (wie gezeigt) so ausgerichtet, dass er die Hände aufnehmen kann, aber unterhalb eines Blendenabschnitts 318 verborgen werden kann. Zum Beispiel kann er 30 Grad relativ zur oberen Oberfläche angewinkelt sein.
  • 16 ist ein Diagramm einer elektronischen Vorrichtung 320 in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung. In dieser Ausführungsform ist die elektronische Vorrichtung 320 ein Laptopcomputer, der eine Basis 322 und eine schwenkbare Abdeckung 324 hat. Die Basis 322 umfasst eine MT Oberfläche 326, während die Abdeckung 324 eine Anzeige 328 umfasst, die von einer Blende 330 umgeben ist. Innerhalb der Blende 330 befindet sich ein Bildsensor 332, der hoch über der MT Oberfläche 326 gelegen ist und der in der Lage ist, die MT Oberfläche 326 aufzunehmen. Als solches können Handprofile gesammelt werden. Weil der Winkel der Abdeckung 324 sich während des Gebrauchs relativ zur Basis 322 ändert, kann der Bildsensor 332 einen Servo zum Kippen des Bildsensors 332 in die Richtung der MT Oberfläche 326 umfassen. In einem Fall kann auch ein Sensor zur Verfügung gestellt werden, der den Winkel der Abdeckung relativ zur MT Oberfläche überwacht. Der Servo kann korrekt zum Aufnehmen der Oberfläche positioniert werden, in dem auf den gemessenen Winkel Bezug genommen wird. Alternativ kann ein schwenkbarer Spiegel verwendet werden, anstatt den Bildsensor zu schwenken. Der Bildsensor kann andere Funktionen haben, einschließlich Webkamera. Der Bildsensor kann z. B. eine i-Sight Kamera sein, die Teil des Macbooks ist, das von Apple Inc. aus Cupertino, CA, hergestellt wird.
  • Weitere Details zum Schwenken eines Bildsensors zu einer Abdeckung können in der Patentanmeldung Nr. 10/800,166 gefunden werden, eingereicht am 12. März 2004, mit dem Titel KAMERARIEGEL, die hierin per Verweis mit aufgenommen wird.
  • Wie in 17 gezeigt, kann der Bildsensor 332 auch in einer Anzeige oder einem alles integrierenden Computer 340 angeordnet sein, wie etwa dem iMac, hergestellt von Apple Inc. aus Cupertino, CA. In einer Ausführungsform kann der Bildsensor so konfiguriert sein, dass er das Gebiet unterhalb und vor der Anzeige aufnimmt, um die MT Oberfläche zu finden und sich anschließend selber wie benötigt ausrichtet.
  • Mit Bezug auf die oben genannten Ausführungsformen sollte bemerkt werden, dass, obwohl ein Bildsensor wie ein CCD oder CMOS Sensor beschrieben ist, andere Abtastmittel verwendet werden können, um die Hand aufzunehmen. Zum Beispiel können Laserscanner oder ein Mikroradar verwendet werden. Weiterhin kann in manchen Fällen der Bildsensor eine pixelartige Bildoberfläche sein, die geschichtet sein kann und möglicherweise durch die MT Oberfläche hindurch arbeiten kann.
  • 18 ist ein Eingabeverfahren 350. Das Eingabeverfahren 350 fusioniert einen Blickvektor mit MT Abtastung. Das Verfahren 350 umfasst den Block 352, wo die Position eines Blicks relativ zu einem Anzeigebildschirm bestimmt wird. Das Verfahren 350 umfasst auch den Block 354, wo eine spezifische Anordnung von Kontakten und möglicherweise deren Bewegungen erkannt werden. Das Verfahren 350 umfasst darüber hinaus den Block 356, wo eine Aktion, die mit der Anordnung von Kontakten verbunden ist, an der Position des Blicks ausgeführt wird.
  • 19 ist ein Eingabeverfahren 370. Das Verfahren 370 startet bei Block 372, wo ein Objekt auf einem Anzeigebildschirm dargestellt wird. Das Verfahren 370 geht weiter nach Block 374, wo eine Bestimmung gemacht wird, ob ein Blick auf ein Objekt gerichtet ist oder nicht. Wenn nicht, wird das Verfahren 370 in Wartestellung gebracht. Wenn ja, geht das Verfahren 370 nach Block 376, wo das Objekt in Übereinstimmung mit einem Akkord oder einer Geste modifiziert wird, der oder die mit MT Abtastung verbunden ist.
  • 20 ist ein Eingabeverfahren 380. Das Verfahren 380 umfasst den Block 382, wo Daten, die mit Bewegung der elektronischen Vorrichtung verbunden sind, gesammelt werden. Das Verfahren 380 umfasst auch den Block 384, wo MT Daten gesammelt werden. Das Verfahren 380 umfasst darüber hinaus den Block 386, wo Daten, die mit der Bewegung der Vorrichtung verbunden sind, von den MT Daten ausgefiltert werden. Dieses Verfahren kann z. B. verwendet werden, wenn der Benutzer in Bewegung ist (z. B. in einem Auto, Jogging, usw.). In diesen Fällen kann die Empfindlichkeit der MT Fläche verringert werden, um ein falsches Auslösen von Flächengebieten zu vermeiden.
  • Beispiele von Bewegungsdetektion und Filterung von Berührungsdaten können in der U.S. Patentanmeldung Nr. 10/997,479 gefunden werden, eingereicht am 24. November 2004, mit dem Titel "MUSIKSYNCHRONISATIONSANORDNUNG", U.S. Patentanmeldung Nr. 10/722,948, eingereicht am 25. No vember 2003, mit dem Titel "BERÜHRUNGSFELD FÜR HANDGEHALTENE VORRICHTUNG", welche beide hierin per Verweis mit eingebunden werden.
  • 21 ist ein Betriebsverfahren 400. Das Verfahren 400 umfasst den Block 402, wo MT Operationen an einer elektronischen Vorrichtung durchgeführt werden, wie etwa eine handgehaltene Vorrichtung. Das Verfahren 400 umfasst auch den Block 404, wo Ausrichtung und/oder Position der Vorrichtung relativ zu einem Benutzer bestimmt werden. Das Verfahren 400 umfasst auch den Block 406, wo die MT Daten als erste Daten interpretiert werden, wenn die Vorrichtung in einer ersten Ausrichtung und/oder Position ist. Das Verfahren 400 umfasst zusätzlich den Block 408, wo die MT Daten als zweite Daten interpretiert werden, wenn die Vorrichtung in einer zweiten Ausrichtung und/oder Position ist, wenn z. B. die Vorrichtung sich vom Benutzer weg befindet, beispielsweise wenn der Benutzer die Vorrichtung vor sich hält, kann die MT Abtastung als Akkordbildungs- und Bewegungsdaten interpretiert werden, und wenn sich die Vorrichtung nahe am Benutzer befindet, kann die MT Abtastung als Aufnahmedaten interpretiert werden. Die Bilddaten können verwendet werden, um Umgebung sowie Objekte abzutasten. Sie können z. B. verwendet werden, um abzutasten, dass die Vorrichtung nahe am Gesicht ist. Die Aufnahmedaten können verwendet werden, um Aktionen einzuleiten. Wenn z. B. die Seite des Gesichts detektiert wird, dann können Mobilfunkaktionen eingeleitet werden.
  • 22 ist ein Eingabeverfahren 420. Das Verfahren 420 umfasst den Block 422, wo Handeigenschaften unter Verwendung eines oder mehrerer biometrischer Sensoren bestimmt werden. Das Verfahren 420 umfasst auch den Block 424, wo eine Bewegungsbahnunterschrift erkannt wird, wenn MT Operationen durchgeführt werden. Das Verfahren 420 umfasst zusätzlich den Block 426, wo der Benutzer auf der Grundlage von Handeigenschaften und Bewegungsbahnunterschrift identifiziert wird.
  • 23 ist ein Betriebsverfahren 440. Das Verfahren 440 umfasst den Block 442, wo emotionale Daten gesammelt werden durch Überwachung der Gesichtsausdrücke. Das Verfahren 440 umfasst auch den Block 444, wo MT Operationen durchgeführt werden. Das Verfahren 440 umfasst weiterhin den Block 446, wo der emotionale Zustand des Benutzers aus den emotionalen Daten ermittelt wird. Das Verfahren 440 umfasst zusätzlich den Block 448, wo MT Daten in Übereinstimmung mit emotionalem Zustand analysiert werden. Das Verfahren 440 umfasst auch den Block 450, wo bestimmt wird, ob MT Eingaben das gewünschte Ergebnis hervorbringen. Wenn z. B. der emotionale Zustand Frustration während Eingabe mit der MT Vorrichtung anzeigt, dann kann die Frustration auf unerwünschte Ergebnisse vom Eingeben zurückzuführen sein. Das Verfahren 440 umfasst darüber hinaus den Block 452, wo eine Korrekturaktion eingeleitet wird, wenn das wahrgenommene erwünschte Ergebnis nicht erreicht wird. Wenn z. B. das Analysieren bestimmt, dass die Frustration auf einen inkorrekten Akkord oder eine inkorrekte Bewegung zurückzuführen ist, dann kann ein Hilfemenü angezeigt werden, das den möglichen Benutzerfehler beschreibt, und/oder die Aktion die mit der Eingabe verbunden ist, kann angepasst werden.
  • 24 ist ein Eingabeverfahren 460. Das Verfahren 460 umfasst den Block 462, wo MT Operationen durchgeführt werden. Das Verfahren 460 umfasst auch den Block 464, wo Kräfte auf der MT Oberfläche während MT Operationen gemessen werden. Das Verfahren 466 umfasst weiterhin Interpretieren der MT Daten auf der Basis von Kraftdaten. Zum Beispiel können harte Berührungen in das Feld von Kontakten aufgenommen werden, während weiche Berührungen ausgefiltert werden können. Alternativ kann Kraftabtastung als eine Art der Eingabe verwendet werden. Zum Beispiel können leichte Berührungen (oder Schweben) verwendet werden, um eine Funktion hervorzuheben, anstelle einer Funktion zu markieren. Zum Beispiel kann eine leichte Berührung verwendet werden, um eine virtuelle Taste oder einen Knopf hervorzuheben, obwohl der Finger nicht wirklich gedrückt wird (harte Berührung).
  • 25 ist ein Eingabeverfahren 480. Das Verfahren 480 umfasst den Block 482, wo MT Abtastung auf einer Oberfläche mit einer ersten MT Vorrichtung durchgeführt wird. Das Verfahren 480 umfasst auch den Block 484, wo MT Abtastung simultan auf der Oberfläche mit einer zweiten MT Vorrichtung durchgeführt wird. Das Verfahren 480 umfasst weiterhin den Block 486, wo die Ergebnisse der ersten und der zweiten MT Vorrichtung in der Zeitdomäne verglichen werden. Das Verfahren 480 umfasst weiterhin den Block 488, wo die entsprechenden MT Daten zur Verwendung für Eingabe bestimmt werden. In einem Beispiel werden zwei Signale gemittelt. In einem anderen Beispiel wird eines der Signale ausgewählt, während das andere verworfen wird. Andere sekundäre Daten können verwendet werden, um beide Datensätze zu interpretieren.
  • Die verschiedenen Aspekte, Merkmale, Ausführungsformen oder Implementierungen der oben beschriebenen Erfindung können alleine oder in verschiedenen Kombinationen verwendet werden.
  • Ausführungsformen der Erfindung werden vorzugsweise durch Hardware, Software oder eine Kombination aus Hardware und Software implementiert. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium ausgeführt werden. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, die Daten speichern kann, die danach durch ein Computersystem gelesen werden können. Beispiele für computerlesbare Medien umfassen Nur-Lese-Speicher, Lese-Schreib-Speicher, CD-Roms, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkgekoppelte Computersysteme verteilt werden, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.
  • Während Ausführungsformen dieser Erfindung in Bezug auf mehrere bevorzugte Ausführungsformen beschrieben wurden, gibt es Abwandlungen, Permutationen und Äquivalente, die innerhalb des Bereichs der Ausführungsformen dieser Erfindung fallen. Eine andere Anwendung zum Kombinieren einer Kamera mit MT Abtastung ist z. B. das Ermöglichen von 3D Handgesten durch die Kamera, wenn der Benutzer nur einen Teil der Hand die MT Oberfläche zu irgendeinem Zeitpunkt während der Geste berühren lässt. Dies macht das Problem der Handgestenerkennung über Kamera leichter lösbar, weil man weiß, warm eine Geste beginnt oder endet. Die meisten Demonstrationen von Handgestenerkennung über eine Kamera verlangen, dass man einen "Geste Starten" Knopf drückt. Wenn der Anfang (oder das Ende) nur ein nahtloser Teil der Geste selber wäre, könnte es das Merkmal auf derzeitigen CPUs leichter erreichbar machen. In anderen Anwendungen kann die MT Oberfläche erweitert werden, um einen ganzen Schreibtisch oder Arbeitsplatz abzudecken, so dass mehrere Benutzer dieselbe MT Oberfläche zur gleichen Zeit benutzen können. In Fällen wie diesen kann die Kamera zusätzliche Informationen bereitstellen, einschließlich der Identität der Personen, die an der MT Oberfläche arbeiten. Zum Beispiel können die Bilder verwendet werden, um die Benutzer zu identifizieren und dann die Finger eines jeden Benutzers zu identifizieren. Es sollte auch bemerkt werden, dass es viele alternative Möglichkeiten der Implementierung der Verfahren und Geräte von Ausführungsformen der vorliegenden Erfindung gibt. Zum Beispiel können die sekundären Abtastmittel als Modifizierer für die Akkorde und Bewegungsdaten verwendet werden. Zum Beispiel kann das sekundäre Abtastmittel den Eingabemodus so ändern, dass derselbe Akkord unterschiedliche Funktionalität hat. Es ist daher beabsichtigt, dass die folgenden angehängten Ansprüche so interpretiert werden, dass sie all diese Abwandlungen, Permutationen und Äquivalente, wie sie innerhalb des wahren Geists und den Bereich von Ausführungsformen der vorliegenden Erfindung fallen beinhalten.

Claims (18)

  1. Mehrfachberührungs-(MT)Datenfusionsystem umfassend: eine MT Abtastvorrichtung, konfiguriert zum Empfangen von mehrfachen Berührungseingaben, die etwa zur gleichen Zeit auftreten und erste Berührungsdaten erzeugen; eine oder mehrere MT Datenfusionsvorrichtungen, konfiguriert zum Liefern von sekundären Daten; und einen Prozessor, der mit der MT Abtastvorrichtung und der einen oder den mehreren MT Datenfusionsvorrichtungen gekoppelt ist, wobei der Prozessor zum Kombinieren sowohl der ersten Berührungsdaten als auch der sekundären Daten programmiert ist, um Operationen auf einer elektronischen Vorrichtung durchzuführen.
  2. MT Datenfusionssystem gemäß Anspruch 1, wobei der Prozessor weiterhin zum Durchführen zeitweiser Fusion programmiert ist, durch zeitliches Ausrichten der ersten Berührungsdaten und der sekundären Daten und Interpretieren der kombinierten Daten auf eine zeitkohärente Weise.
  3. MT Datenfusionssystem gemäß Anspruch 1, wobei der Prozessor weiterhin zum Verfeinern der ersten Berührungsdaten in Übereinstimmung mit den zweiten Berührungsdaten programmiert ist.
  4. MT Datenfusionssystem gemäß Anspruch 1, wobei der Prozessor weiterhin zum Interpretieren der sekundären Daten in Übereinstimmung mit den ersten Berührungsdaten programmiert ist.
  5. MT Datenfusionssystem gemäß Anspruch 1, wobei der Prozessor weiterhin zum Kombinieren sowohl der ersten Berührungsdaten als auch der zweiten Berührungsdaten programmiert ist, um einen neuen Befehl zu erzeugen.
  6. MT Datenfusionssystem gemäß Anspruch 1, weiterhin aufweisend Speicher, der zum Speichern einer Datenbank konfiguriert ist, wobei der Prozessor weiterhin zur Bezugnahme auf die Datenbank in Anbetracht der kombinierten ersten Berührungsdaten und sekundären Daten programmiert ist, um eine Handlungsweise zu bestimmen.
  7. MT Datenfusionssystem gemäß Anspruch 1, wobei der Prozessor weiterhin programmiert ist zum: Verbinden der ersten Berührungsdaten mit einem angezeigten Objekt; und Modifizieren einer Eigenschaft des angezeigten Objekts in Übereinstimmung mit sekundären Daten, die von einem Audiosensor empfangen werden.
  8. MT Datenfusionssystem gemäß Anspruch 7, wobei die sekundären Daten, die vom Audiosensor empfangen werden, einen Sprachbefehl umfassen.
  9. MT Datenfusionssystem gemäß Anspruch 1, wobei die sekundären Daten Blickerkennungsdaten umfassen, wobei der Prozessor weiterhin zum Durchführen einer Operation auf einem angezeigten Objekt in Übereinstimmung mit den Blickerkennungsdaten programmiert ist.
  10. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen eine Aufnahmevorrichtung umfassen, die zur Erzeugung eines Handprofils konfiguriert ist, wobei der Prozessor weiterhin zum Korrelieren des Handprofils mit den ersten Berührungsdaten programmiert ist, um Finger zu identifizieren, die den Kontak ten zugeordnet sind, die durch die ersten Berührungsdaten ermittelt werden.
  11. MT Datenfusionssystem gemäß Anspruch 1, wobei die sekundären Daten Bewegungsdaten umfassen, wobei der Prozessor weiterhin zum Filtern einer Bewegung einer elektronischen Vorrichtung aus den ersten Berührungsdaten in Übereinstimmung mit den Bewegungsdaten programmiert ist.
  12. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen einen Ausrichtungssensor zum Erzeugen von Ausrichtungsdaten umfassen, wobei der Prozessor weiterhin zum Interpretieren der ersten Berührungsdaten als erste Daten oder zweite Daten in Übereinstimmung mit den Ausrichtungsdaten programmiert ist.
  13. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen einen biometrischen Sensor zum Bestimmen von Handeigenschaften umfassen, wobei der Prozessor weiterhin zum Erkennen einer Bewegungsbahnunterschrift von den ersten Berührungsdaten programmiert ist, und zum Identifizieren eines Benutzers auf der Grundlage der Handeigenschaften und der Bewegungsbahnunterschrift.
  14. MT Datenfusionssystem gemäß Anspruch 1, wobei die sekundären Daten emotionale Daten umfassen, wobei der Prozessor weiterhin zum Analysieren der ersten Berührungsdaten und Einleiten einer korrigierenden Handlung in Übereinstimmung mit den emotionalen Daten programmiert ist.
  15. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen einen Kraftsensor zum Erzeugen von Kraftdaten umfassen, wobei der Prozessor weiterhin zum Modifizieren der ersten Berührungsdaten in Übereinstimmung mit den Kraftdaten programmiert ist.
  16. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen eine zweite MT Abtastvorrichtung zum Erzeugen zweiter Berührungsdaten umfassen, wobei der Prozessor weiterhin zum Vergleichen der ersten Berührungsdaten und der zweiten Berührungsdaten in einer zeitlichen Domäne und Bestimmen dritter Berührungsdaten aus dem Vergleich programmiert ist.
  17. MT Datenfusionssystem gemäß Anspruch 1, wobei die eine oder die mehreren MT Datenfusionsvorrichtungen einen oder mehrere Sensoren umfassen, die aus der Gruppe ausgewählt sind, die aus biometrischen Sensoren, Audiosensoren, optischen Sensoren, Sonarsensoren, Bildsensoren, akustischen Sensoren, Sensoren für elektrische Felder, Schocksensoren, Umgebungssensoren, Ausrichtungssensoren, Drucksensoren, Kraftsensoren und Temperatursensoren besteht.
  18. Elektronische Vorrichtung umfassend das MT Datenfusionssystem gemäß Anspruch 1.
DE202008000261U 2007-01-07 2008-01-07 Vielfach-Berührungsdatenfussionssystem Expired - Lifetime DE202008000261U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US87915207P 2007-01-07 2007-01-07
US60/879,152 2007-01-07
US11/963,516 US10437459B2 (en) 2007-01-07 2007-12-21 Multitouch data fusion
US11/963,516 2007-12-21

Publications (1)

Publication Number Publication Date
DE202008000261U1 true DE202008000261U1 (de) 2008-06-19

Family

ID=39494382

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202008000261U Expired - Lifetime DE202008000261U1 (de) 2007-01-07 2008-01-07 Vielfach-Berührungsdatenfussionssystem

Country Status (3)

Country Link
US (4) US10437459B2 (de)
DE (1) DE202008000261U1 (de)
WO (1) WO2008085759A2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009059868A1 (de) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
WO2012019350A1 (en) 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen
EP2444866A1 (de) * 2010-10-19 2012-04-25 Siemens Aktiengesellschaft Bedieneinrichtung zur Bedienung einer Maschine aus der Automatisierungstechnik
DE102011011982A1 (de) 2011-02-22 2012-08-23 Bizerba Gmbh & Co Kg Bedienvorrichtung für eine Produktverarbeitungsvorrichtung
EP3048513A1 (de) * 2015-01-23 2016-07-27 Honeywell International Inc. Verfahren zur aufrufung eines sicherungseingabebetriebs
DE102016209788A1 (de) * 2016-06-03 2017-12-07 Siemens Healthcare Gmbh Bedieneinheit

Families Citing this family (226)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8111243B2 (en) 2006-03-30 2012-02-07 Cypress Semiconductor Corporation Apparatus and method for recognizing a tap gesture on a touch sensing device
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US9198084B2 (en) 2006-05-26 2015-11-24 Qualcomm Incorporated Wireless architecture for a traditional wire-based protocol
WO2008045464A2 (en) 2006-10-10 2008-04-17 Wms Gaming Inc. Multi-player, multi-touch table for use in wagering game systems
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8111241B2 (en) * 2007-07-24 2012-02-07 Georgia Tech Research Corporation Gestural generation, sequencing and recording of music on mobile devices
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8175728B2 (en) * 2007-12-13 2012-05-08 Georgia Tech Research Corporation Detecting user gestures with a personal mobile communication device
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
US20090225042A1 (en) * 2008-03-05 2009-09-10 Wake3, Llc Systems and methods for enhancement of mobile devices
US8335996B2 (en) * 2008-04-10 2012-12-18 Perceptive Pixel Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
JP5448370B2 (ja) * 2008-05-20 2014-03-19 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、記憶媒体
TWI460622B (zh) * 2008-06-20 2014-11-11 Elan Microelectronics 可解譯多物件手勢之觸控板模組及其操作方法
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8451224B2 (en) * 2008-07-23 2013-05-28 Sony Corporation Mapping detected movement of an interference pattern of a coherent light beam to cursor movement to effect navigation of a user interface
WO2010021240A1 (ja) * 2008-08-21 2010-02-25 コニカミノルタホールディングス株式会社 画像表示装置
US8508475B2 (en) * 2008-10-24 2013-08-13 Microsoft Corporation User interface elements positioned for display
US20100117970A1 (en) * 2008-11-11 2010-05-13 Sony Ericsson Mobile Communications Ab Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products
KR101662172B1 (ko) * 2008-11-21 2016-10-10 삼성전자주식회사 입력 장치
US9398089B2 (en) 2008-12-11 2016-07-19 Qualcomm Incorporated Dynamic resource sharing among multiple wireless devices
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8633904B2 (en) * 2009-04-24 2014-01-21 Cypress Semiconductor Corporation Touch identification for multi-touch technology
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US8593415B2 (en) * 2009-06-19 2013-11-26 Lg Electronics Inc. Method for processing touch signal in mobile terminal and mobile terminal using the same
US9264248B2 (en) 2009-07-02 2016-02-16 Qualcomm Incorporated System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
FR2948471B1 (fr) 2009-07-21 2016-02-26 Commissariat Energie Atomique Procede et dispositif de localisation d'au moins un toucher sur une surface tactile d'un objet
EP3260969B1 (de) 2009-09-22 2021-03-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
CN102043501B (zh) 2009-10-26 2016-03-23 宸鸿光电科技股份有限公司 力感测器的集成排线模块及压感式触控荧幕
US9582238B2 (en) 2009-12-14 2017-02-28 Qualcomm Incorporated Decomposed multi-stream (DMS) techniques for video display systems
US9489073B2 (en) 2009-12-21 2016-11-08 Promethean Limited Multi-point contacts with pressure data on an interactive surface
US8514188B2 (en) * 2009-12-30 2013-08-20 Microsoft Corporation Hand posture mode constraints on touch input
US8677268B2 (en) 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539385B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
US8539386B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
DE102011006649B4 (de) 2010-04-02 2018-05-03 Tk Holdings Inc. Lenkrad mit Handsensoren
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US9529523B2 (en) 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US9678662B2 (en) 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US9311724B2 (en) * 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9310905B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
US9891821B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US9891820B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9639195B2 (en) * 2010-04-23 2017-05-02 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US9542032B2 (en) 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
CN101853133B (zh) * 2010-05-31 2013-03-20 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
US20130155031A1 (en) * 2010-06-29 2013-06-20 Elliptic Laboratories As User control of electronic devices
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
KR101685529B1 (ko) * 2010-08-20 2016-12-12 삼성전자주식회사 화면 구성 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체
TWI443557B (zh) * 2010-09-30 2014-07-01 Wintek Corp 觸控面板資料傳輸方法
KR101915615B1 (ko) 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US10069837B2 (en) 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US10685355B2 (en) 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US10055560B2 (en) 2010-11-29 2018-08-21 Biocatch Ltd. Device, method, and system of detecting multiple users accessing the same account
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US10395018B2 (en) 2010-11-29 2019-08-27 Biocatch Ltd. System, method, and device of detecting identity of a user and authenticating a user
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US10032010B2 (en) 2010-11-29 2018-07-24 Biocatch Ltd. System, device, and method of visual login and stochastic cryptography
US10083439B2 (en) 2010-11-29 2018-09-25 Biocatch Ltd. Device, system, and method of differentiating over multiple accounts between legitimate user and cyber-attacker
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10069852B2 (en) 2010-11-29 2018-09-04 Biocatch Ltd. Detection of computerized bots and automated cyber-attack modules
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US9483292B2 (en) 2010-11-29 2016-11-01 Biocatch Ltd. Method, device, and system of differentiating between virtual machine and non-virtualized device
US20240080339A1 (en) * 2010-11-29 2024-03-07 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US10037421B2 (en) 2010-11-29 2018-07-31 Biocatch Ltd. Device, system, and method of three-dimensional spatial user authentication
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US10476873B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. Device, system, and method of password-less user authentication and password-less detection of user identity
US9526006B2 (en) * 2010-11-29 2016-12-20 Biocatch Ltd. System, method, and device of detecting identity of a user of an electronic device
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US10164985B2 (en) 2010-11-29 2018-12-25 Biocatch Ltd. Device, system, and method of recovery and resetting of user authentication factor
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US20130013318A1 (en) 2011-01-21 2013-01-10 Qualcomm Incorporated User input back channel for wireless displays
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US10135900B2 (en) 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US9065876B2 (en) 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
US10108386B2 (en) 2011-02-04 2018-10-23 Qualcomm Incorporated Content provisioning for wireless back channel
US9503771B2 (en) 2011-02-04 2016-11-22 Qualcomm Incorporated Low latency wireless display for graphics
WO2012124997A2 (ko) * 2011-03-17 2012-09-20 한국전자통신연구원 향상된 사용자 상호작용 인터페이스 방법 및 장치
US9107083B1 (en) * 2011-05-03 2015-08-11 Open Invention Network, Llc System and method for notifying users of similar searches
AU2011242487B2 (en) * 2011-05-16 2015-12-03 Handscape Inc., A Delaware Corporation Method for user input from the back panel of a handheld computerized device
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
CN103650032A (zh) * 2011-06-15 2014-03-19 骨声通信有限(以色列)有限公司 用于检测语音的系统、设备和方法
KR20140041570A (ko) 2011-06-24 2014-04-04 톰슨 라이센싱 사용자의 눈 이동으로 동작가능한 컴퓨터 장치 및 컴퓨터 장치를 동작하는 방법
US20130019201A1 (en) * 2011-07-11 2013-01-17 Microsoft Corporation Menu Configuration
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US8629849B2 (en) * 2011-09-23 2014-01-14 Ebay Inc. Spurious input detection system
US9459716B2 (en) * 2011-10-03 2016-10-04 Furuno Electric Co., Ltd. Device having touch panel, radar apparatus, plotter apparatus, ship network system, information displaying method and information displaying program
US10082950B2 (en) * 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
US10598929B2 (en) * 2011-11-09 2020-03-24 Google Llc Measurement method and system
US9389681B2 (en) * 2011-12-19 2016-07-12 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
US9525998B2 (en) 2012-01-06 2016-12-20 Qualcomm Incorporated Wireless display with multiscreen service
US20130203468A1 (en) * 2012-02-07 2013-08-08 Research In Motion Limited Methods and devices for merging contact records
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
US9373023B2 (en) * 2012-02-22 2016-06-21 Sri International Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
US8937591B2 (en) 2012-04-06 2015-01-20 Apple Inc. Systems and methods for counteracting a perceptual fading of a movable indicator
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US9493342B2 (en) 2012-06-21 2016-11-15 Nextinput, Inc. Wafer level MEMS force dies
WO2014008377A1 (en) 2012-07-05 2014-01-09 Ian Campbell Microelectromechanical load sensor and methods of manufacturing the same
US9189064B2 (en) 2012-09-05 2015-11-17 Apple Inc. Delay of display event based on user gaze
WO2014043664A1 (en) 2012-09-17 2014-03-20 Tk Holdings Inc. Single layer force sensor
TW201416909A (zh) * 2012-10-29 2014-05-01 Pixart Imaging Inc 適於接觸控制及懸浮控制的觸控系統及其運作方法
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US9141191B2 (en) * 2012-12-20 2015-09-22 Google Inc. Capturing photos without a camera
US9571726B2 (en) 2012-12-20 2017-02-14 Google Inc. Generating attention information from photos
US20140181710A1 (en) * 2012-12-26 2014-06-26 Harman International Industries, Incorporated Proximity location system
KR20140100761A (ko) * 2013-02-07 2014-08-18 한국전자통신연구원 터치식 입력장치에서의 제스처 입력 구분 방법 및 제스처 입력 구분 장치
KR102057647B1 (ko) * 2013-02-15 2019-12-19 삼성전자주식회사 데이터 입력 방법 및 그 방법을 처리하는 전자 장치
EP2767888A3 (de) 2013-02-19 2014-10-01 Handscape Inc. Verfahren zur Benutzereingabe über alternative Berührungspads einer tragbaren computergestützten Vorrichtung
US9329685B1 (en) * 2013-03-13 2016-05-03 Apple Inc. Controlling electronic devices using force sensors
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
WO2014176370A2 (en) 2013-04-23 2014-10-30 Handscape Inc. Method for user input from alternative touchpads of a computerized system
US9317150B2 (en) * 2013-12-28 2016-04-19 Intel Corporation Virtual and configurable touchscreens
WO2015101947A2 (en) * 2014-01-06 2015-07-09 4Iiii Innovations Inc. Systems and methods for biometric sensing with sensor fusion
CN105934661B (zh) 2014-01-13 2019-11-05 触控解决方案股份有限公司 微型强化圆片级mems力传感器
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
CN104932797A (zh) * 2014-03-17 2015-09-23 深圳富泰宏精密工业有限公司 手势解锁方法及系统
DE102014005064A1 (de) 2014-04-05 2015-10-08 Audi Ag Eingabesystem und Verfahren zum Bereitstellen einer Eingabeinformation
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US10649635B2 (en) * 2014-09-26 2020-05-12 Lenovo (Singapore) Pte. Ltd. Multi-modal fusion engine
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US10444977B2 (en) * 2014-12-05 2019-10-15 Verizon Patent And Licensing Inc. Cellphone manager
CN104506650B (zh) * 2015-01-04 2018-07-03 华为技术有限公司 一种用户设备协同控制方法、用户设备以及通信系统
US11221689B2 (en) * 2015-02-27 2022-01-11 Lenovo (Singapore) Pte. Ltd. Voice modified drawing
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
US10146355B2 (en) * 2015-03-26 2018-12-04 Lenovo (Singapore) Pte. Ltd. Human interface device input fusion
US9848780B1 (en) 2015-04-08 2017-12-26 Google Inc. Assessing cardiovascular function using an optical sensor
WO2016176606A1 (en) 2015-04-30 2016-11-03 Google Inc. Type-agnostic rf signal representations
US10241581B2 (en) 2015-04-30 2019-03-26 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
WO2016176574A1 (en) 2015-04-30 2016-11-03 Google Inc. Wide-field radar-based gesture recognition
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
CN107848788B (zh) 2015-06-10 2023-11-24 触控解决方案股份有限公司 具有容差沟槽的加固的晶圆级mems力传感器
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
CN107851932A (zh) 2015-11-04 2018-03-27 谷歌有限责任公司 用于将嵌入在服装中的电子器件连接至外部装置的连接器
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
CN109074364A (zh) * 2016-05-12 2018-12-21 索尼公司 信息处理装置、信息处理方法和程序
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US10175781B2 (en) 2016-05-16 2019-01-08 Google Llc Interactive object with multiple electronics modules
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
US10198122B2 (en) 2016-09-30 2019-02-05 Biocatch Ltd. System, device, and method of estimating force applied to a touch surface
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
WO2018148510A1 (en) 2017-02-09 2018-08-16 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN110494724B (zh) 2017-02-09 2023-08-01 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
CN106843737B (zh) * 2017-02-13 2020-05-08 北京新美互通科技有限公司 文本输入方法、装置及终端设备
US11221263B2 (en) 2017-07-19 2022-01-11 Nextinput, Inc. Microelectromechanical force sensor having a strain transfer layer arranged on the sensor die
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
WO2019023309A1 (en) 2017-07-25 2019-01-31 Nextinput, Inc. FORCE SENSOR AND INTEGRATED FINGERPRINTS
WO2019023552A1 (en) 2017-07-27 2019-01-31 Nextinput, Inc. PIEZORESISTIVE AND PIEZOELECTRIC FORCE SENSOR ON WAFER AND METHODS OF MANUFACTURING THE SAME
CN107464572B (zh) * 2017-08-16 2020-10-16 重庆科技学院 多模式交互音乐感知系统及其控制方法
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
WO2019099821A1 (en) 2017-11-16 2019-05-23 Nextinput, Inc. Force attenuator for force sensor
DE102018100197A1 (de) * 2018-01-05 2019-07-11 Bcs Automotive Interface Solutions Gmbh Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
KR102630662B1 (ko) * 2018-04-02 2024-01-30 삼성전자주식회사 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
US10921975B2 (en) 2018-06-03 2021-02-16 Apple Inc. Devices, methods, and user interfaces for conveying proximity-based and contact-based input events
US10817713B2 (en) 2018-11-15 2020-10-27 Adobe Inc. Generating modified digital images utilizing a multimodal selection model based on verbal and gesture input
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords
US11782522B1 (en) * 2022-03-25 2023-10-10 Huawei Technologies Co., Ltd. Methods and systems for multimodal hand state prediction

Family Cites Families (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JPH06131437A (ja) * 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
WO1995025326A1 (en) * 1994-03-17 1995-09-21 Voice Powered Technology International, Inc. Voice/pointer operated system
JP3267047B2 (ja) 1994-04-25 2002-03-18 株式会社日立製作所 音声による情報処理装置
US5736976A (en) * 1995-02-13 1998-04-07 Cheung; Nina T. Computer data entry apparatus with hand motion sensing and monitoring
JP3363283B2 (ja) * 1995-03-23 2003-01-08 株式会社日立製作所 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
JPH1031551A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
JPH11184669A (ja) * 1997-12-24 1999-07-09 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理装置制御プログラムを記憶した媒体
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7683888B1 (en) 2004-02-27 2010-03-23 Apple Inc. Shape detecting input device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6167376A (en) * 1998-12-21 2000-12-26 Ditzik; Richard Joseph Computer system with integrated telephony, handwriting and speech recognition functions
US6701095B1 (en) * 1999-01-08 2004-03-02 Ricoh Company, Ltd. Office information system having a device which provides an operational message of the system when a specific event occurs
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
CN1304345A (zh) * 1999-05-10 2001-07-18 索尼公司 机器人装置及其控制方法
NZ523065A (en) * 2000-05-11 2004-11-26 Nes Stewart Irvine A graphical user interface where a procedure is activated by movement of a pointer over a predetermined path
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20020105665A1 (en) * 2001-02-08 2002-08-08 Eastman Kodak Company Method of interating imaging products/services with non-imaging products/services in a single kiosk
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
KR100457509B1 (ko) * 2001-07-07 2004-11-17 삼성전자주식회사 터치스크린과 음성인식을 통해 동작 제어되는 정보단말기 및 그의 명령 실행 방법
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7009600B2 (en) * 2002-09-19 2006-03-07 International Business Machines Corporation Data processing system display screen including an image alteration area
US7152033B2 (en) 2002-11-12 2006-12-19 Motorola, Inc. Method, system and module for multi-modal data fusion
US20040111394A1 (en) * 2002-12-06 2004-06-10 International Business Machines Corporation Hidden fields for containing debug information
US7370290B2 (en) * 2002-12-19 2008-05-06 Microsoft Corporation Contact card
US7480619B1 (en) * 2003-03-04 2009-01-20 The Board Of Trustees Of The Leland Stanford Junior University Integration manager and natural interaction processor
US7521623B2 (en) 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
CA2522604A1 (en) * 2003-04-18 2004-11-04 Benjamin Firooz Ghassabian Systems to enhance data entry in mobile and fixed environment
US20060181517A1 (en) 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US7489299B2 (en) * 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
US7495659B2 (en) 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
EP1538536A1 (de) * 2003-12-05 2005-06-08 Sony International (Europe) GmbH Techniken für Visualisierung und Kontrolle für digitale Multimediainhalte
US7401300B2 (en) * 2004-01-09 2008-07-15 Nokia Corporation Adaptive user interface input device
US7636083B2 (en) * 2004-02-20 2009-12-22 Tegic Communications, Inc. Method and apparatus for text input in various languages
US7126816B2 (en) 2004-03-12 2006-10-24 Apple Computer, Inc. Camera latch
US8681132B2 (en) * 2004-03-18 2014-03-25 Koninklijke Philips N.V. Scanning display apparatus
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
JP4685095B2 (ja) * 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
PT1607840E (pt) * 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20060028429A1 (en) * 2004-08-09 2006-02-09 International Business Machines Corporation Controlling devices' behaviors via changes in their relative locations and positions
WO2006103676A2 (en) * 2005-03-31 2006-10-05 Ronen Wolfson Interactive surface and display system
US7355595B2 (en) * 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
EP1897010A1 (de) * 2005-06-30 2008-03-12 Nokia Corporation Kamerasteuerungsmittel zur ermöglichung einer betätigung einer destillierten stelle der informationsoberfläche eines präsentations- und informationssystems
EP1744290B1 (de) * 2005-07-15 2018-05-30 Samsung Electronics Co., Ltd. Integrierte fernsteuerung und verfahren zur auswahl eines damit gesteuerten geräts
US20070036347A1 (en) * 2005-08-06 2007-02-15 Mordechai Teicher Mobile Telephone with Ringer Mute
US7719520B2 (en) * 2005-08-18 2010-05-18 Scenera Technologies, Llc Systems and methods for processing data entered using an eye-tracking system
JPWO2007043222A1 (ja) * 2005-10-07 2009-04-16 パナソニック株式会社 入力装置及びそれを備えた携帯端末
ES2582195T3 (es) * 2005-10-24 2016-09-09 Itesoft S.A. Dispositivo y método de interacción con un usuario
KR20070050306A (ko) * 2005-11-10 2007-05-15 오의진 정보기기용 입력장치 및 문자입력방법
US20080143691A1 (en) * 2005-11-23 2008-06-19 Quiteso Technologies, Llc Systems and methods for enabling tablet PC/pen to paper space
CN101379461A (zh) * 2005-12-30 2009-03-04 苹果公司 具有多重触摸输入的便携式电子设备
US7640518B2 (en) * 2006-06-14 2009-12-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for switching between absolute and relative pointing with direct input devices
US20080148030A1 (en) * 2006-12-14 2008-06-19 General Instrument Corporation Method and System for Configuring Electronic Communication Device
US7907125B2 (en) * 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US7671756B2 (en) * 2007-01-07 2010-03-02 Apple Inc. Portable electronic device with alert silencing

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009059868A1 (de) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
WO2012019350A1 (en) 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen
EP2603844A4 (de) * 2010-08-12 2016-12-14 Google Inc Fingeridentifizierung auf einem touchscreen
EP2444866A1 (de) * 2010-10-19 2012-04-25 Siemens Aktiengesellschaft Bedieneinrichtung zur Bedienung einer Maschine aus der Automatisierungstechnik
DE102011011982A1 (de) 2011-02-22 2012-08-23 Bizerba Gmbh & Co Kg Bedienvorrichtung für eine Produktverarbeitungsvorrichtung
EP2492790A2 (de) 2011-02-22 2012-08-29 Bizerba GmbH & Co. KG Bedienvorrichtung für eine Produktverarbeitungsvorrichtung
EP3048513A1 (de) * 2015-01-23 2016-07-27 Honeywell International Inc. Verfahren zur aufrufung eines sicherungseingabebetriebs
DE102016209788A1 (de) * 2016-06-03 2017-12-07 Siemens Healthcare Gmbh Bedieneinheit

Also Published As

Publication number Publication date
US20230055434A1 (en) 2023-02-23
US20200042168A1 (en) 2020-02-06
WO2008085759A3 (en) 2009-04-30
US10437459B2 (en) 2019-10-08
US20080211766A1 (en) 2008-09-04
US11481109B2 (en) 2022-10-25
US20240036724A1 (en) 2024-02-01
WO2008085759A2 (en) 2008-07-17
US11816329B2 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
DE202008000261U1 (de) Vielfach-Berührungsdatenfussionssystem
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102008028223B4 (de) Modusabhängige Verarbeitung von Berührungsdaten
US9195345B2 (en) Position aware gestures with visual feedback as input method
DE112013003261B4 (de) Biometrisch initiierte Kommunikation
DE202005021492U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE102011117012A1 (de) Erfassung von gleitbewegungen von mehreren fingern unter verwendung von fingerabdrücken zur erzeugung verschiedener ereignisse
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE112015006391T5 (de) Authentifizierung eines Benutzers und Aufruf einer Anwendung durch eine einzelne bewusste Benutzergeste
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112014000441T5 (de) Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation
DE112010002760T5 (de) Benutzerschnittstelle
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
WO2010147600A2 (en) Qualified command
Kjeldsen et al. Design issues for vision-based computer interaction systems
DE112013004801T5 (de) Multimodaler Berührungsbildschirmemulator
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
US11099660B2 (en) User interface for digital ink modification
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
US20220221970A1 (en) User interface modification

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080724

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20110126

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140122

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right