DE112013003261T5 - Biometrisch initiierte Kommunikation - Google Patents

Biometrisch initiierte Kommunikation Download PDF

Info

Publication number
DE112013003261T5
DE112013003261T5 DE112013003261.9T DE112013003261T DE112013003261T5 DE 112013003261 T5 DE112013003261 T5 DE 112013003261T5 DE 112013003261 T DE112013003261 T DE 112013003261T DE 112013003261 T5 DE112013003261 T5 DE 112013003261T5
Authority
DE
Germany
Prior art keywords
instruction
data
touch
input
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112013003261.9T
Other languages
English (en)
Other versions
DE112013003261B4 (de
Inventor
c/o Apple Inc. Han Byron B.
c/o Apple Inc. Marciniak Craig A.
c/o Apple Inc. Wright John A.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112013003261T5 publication Critical patent/DE112013003261T5/de
Application granted granted Critical
Publication of DE112013003261B4 publication Critical patent/DE112013003261B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72418User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services
    • H04M1/72424User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services with manual activation of emergency-service functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

Eine Vorrichtung weist ein Berühungsverarbeitungsmodul auf, das Berührungsbildschirmeingaben verarbeitet, um zu bestimmen, ob die Art, in welcher die Eingabe eingegeben wurde, anzeigt, dass der Benutzer beabsichtigt, ein bestimmtes Anweisung auszuführen. In einer Ausführungsform kann das Modul Fingerabdruckdaten von der Eingabe des Benutzers beziehen und die Daten analysieren, um zu ermitteln, ob die Eingabe mit einem bestimmten Finger oder mit einer bestimmten Fingersequenz eingegeben wurde. In einer anderen Ausführungsform kann das Modul auch Timing-Daten für eine Vielzahl von Eingaben von der Eingabe des Benutzers beziehen und die Timing-Daten analysieren, um zu bestimmen, ob die Berührungsbildschirmeingabe mit einem bestimmten Timing oder einer bestimmten Kadenz eingegeben wurde. In noch einer weiteren Ausführungsform kann das Modul auch Kraftdaten von der Eingabe des Benutzers von einer Vielzahl von Berührungsbildschirmeingaben beziehen und die Kraftdaten analysieren, um zu bestimmen, ob die Berührungsbildschirmeingabe mit einer bestimmten Kraft eingegeben wurde.

Description

  • Querverweis auf verwandte Anmeldungen
  • Die vorliegende Anmeldung beansprucht die Priorität der US-Provisional Patentanmeldung Nr. 61/666,769, eingereicht am 29. Juni 2012 mit dem Titel ”Biometric Initiated Communication” und US-Nicht-Provisional Patentanmeldung Nr. 13/840,770, eingereicht am 15. März 2013 mit dem Titel ”Biometric Initiated Communication”, die jeweils hiermit durch Verweis in ihrer Gänze einbezogen sind.
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf elektronische Vorrichtungen und im Speziellen auf elektronische Vorrichtungen, die Anweisungen ausführen in Reaktion auf ein Empfangen von biometrischen oder anderen Informationen, die bestimmte festgelegte Anweisungen anzeigen.
  • Hintergrund
  • Elektronische Vorrichtungen, wie z. B. mobile oder zelluläre Telefone, können mit Funktionalität zum beschleunigten Kontaktieren von Notrufdiensten ausgestattet sein. Zum Beispiel kann ein Mobiltelefon prominent Instruktionen anzeigen zum Kontaktieren von ”911” oder anderen Notrufdiensten in einer Weise, die Passworteingaben oder Log-In-Screens umgeht. Wenn ein Benutzer jedoch ein Mobiltelefon zum Kontaktieren von Notrufdiensten in dieser Weise verwendet, kann die Tatsache, dass er dies tut, in einfacher Weise erkennbar sein für jemanden, der diese Aktionen beobachtet. Somit kann in einer Situation, in der der Gerätebesitzer durch einen Angreifer gezwungen ist, sein Gerät zu entsperren oder anderweitig sein Telefon zu benutzen, ein Kontaktieren von Notrufdiensten in herkömmlicher Weise nicht praktikabel sein. Entsprechend ist es einem Benutzer bei herkömmlichen Systemen nicht möglich, den Anweisungen eines Angreifers zu folgen, und gleichzeitig auf diskrete Weise Notrufdienste zu kontaktieren.
  • Zusammenfassung
  • Beispiele zu Ausführungsformen, die hier beschrieben werden, können die Form einer elektronischen Vorrichtung haben, dass ein Berührungsverarbeitungsmodul aufweist, das Berührungsbildschirmeingaben verarbeitet, um zu bestimmen, ob die Art, in der die Berührungsbildschirmeingabe erfolgt ist, anzeigt, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll.
  • In einer Ausführungsform bezieht das Berührungsverarbeitungsmodul Fingerabdruckdaten von der Eingabe des Benutzers von der Berührungsbildschirmeingabe, und analysiert die Fingerabdruckdaten, um zu bestimmen, ob die Berührungsbildschirmeingabe eingegeben wurde mit einem bestimmten Finger oder einer bestimmten Fingersequenz, die der Benutzer als eine bestimmte Anweisung anzeigend festgelegt hat.
  • In einer anderen Ausführungsform kann das Berührungsverarbeitungsmodul auch Timingdaten von der Eingabe des Benutzers für eine Vielzahl von Berührungsbildschirmeingaben beziehen und die Timingdaten analysieren, um zu bestimmen, ob die Berührungsbildschirmeingabe eingegeben wurde mit einem bestimmten Timing oder einer bestimmten Kadenz, die der Benutzer als eine bestimmte Anweisung anzeigend festgelegt hat.
  • In einer weiteren Ausführungsform kann das Berührungsverarbeitungsmodul auch Kraftdaten von der Eingabe des Benutzers für eine Vielzahl von Berührungsbildschirmeingaben beziehen und die Kraftdaten analysieren, um zu bestimmen, ob die Berührungsbildschirmeingabe mit einer bestimmten Kraft eingegeben wurde, die der Benutzer als hinweisend auf eine bestimmte Anweisung festgelegt hat.
  • In Übereinstimmung mit verschiedenen beispielhaften Ausführungsformen, die hier beschrieben werden, kann eine elektronische Vorrichtung eine bestimmte Anweisung ausführen, falls die Art, in der die Berührungsbildschirmeingabe eingegeben wurde, darauf hinweist, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll. Die elektronische Vorrichtung kann die bestimmte Anweisung diskret ausführen, so dass kein Hinweis auf die Ausführung erkennbar ist. Die elektronische Vorrichtung kann die bestimmte Anweisung auch gleichzeitig mit einer Anweisung ausführen, die explizit durch die Berührungsbildschirmeingabe angezeigt wird. In einer Ausführungsform weist die Art und Weise, in der die Berührungsbildschirmeingabe eingegeben wurde, auf eine Panikanweisung hin, auf die die elektronische Vorrichtung mit dem Anrufen von Notrufdiensten reagiert, so wie mit dem Bereitstellen geografischer Ortsinformationen und/oder einem Streaming von Audio oder Video von der elektronischen Vorrichtung. In einer anderen Ausführungsform weist die Art und Weise, in der die Berührungsbildschirmeingabe eingegeben wurde, auf eine Makroanweisung hin, die eine Reihe von Anweisungen beinhaltet, die, wenn sie zusammen ausgeführt werden, die Makroanweisung ausführen.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine schematische Darstellung einer elektronischen Vorrichtungsausführungsform, die eine Berührungsbildschirmvorrichtung beinhaltet, die zusammen mit einem rechnenden System bereitgestellt wird;
  • 2 ist eine schematische Darstellung einer Systemarchitektur für die elektronische Vorrichtung, die in 1 gezeigt ist;
  • 3 ist ein Flussdiagramm, das ein erstes Verfahren darstellt zum Verarbeiten von Berührungseingabe in eine elektronische Vorrichtung, um Anweisungen zu extrahieren, die durch die elektronische Vorrichtung auszuführen sind;
  • 4 ist ein Flussdiagramm, das ein zweites Verfahren darstellt zum Verarbeiten von Berührungseingabe in eine elektronische Vorrichtung, zum Extrahieren von Anweisungen, die durch die elektronische Vorrichtung auszuführen sind; und
  • 5 ist ein Flussdiagramm, das ein drittes Verfahren darstellt zum Verarbeiten von Berührungseingabe in einer elektronischen Vorrichtung zum Extrahieren von Anweisungen, die durch die elektronische Vorrichtung auszuführen sind.
  • Spezifikation
  • Diese Offenbarung bezieht sich im Allgemeinen auf eine elektronische Vorrichtung, die ein Berührungsverarbeitungsmodul aufweist, das Berührungsbildschirmeingaben verarbeitet, um zu bestimmen, ob die Art, in der die Berührungsbildschirmeingaben eingegeben wurden, darauf hinweist, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll. Bei der Ausführung einer solchen Bestimmung verwenden verschiedene Ausführungsformen der elektronischen Vorrichtung Fingerabdruckdaten, Timingdaten und/oder Kraftdaten, die vom Benutzer bezogen werden, wenn der Benutzer eine Berührungsbildschirmeingabe eingibt. Eine elektronische Vorrichtung in Übereinstimmung mit Ausführungsformen, die hier diskutiert werden, kann eine bestimmte Anweisung ausführen, wenn der Benutzer Berührungsbildschirmeingaben in einer bestimmten Art eingibt, die darauf hinweisen, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung die bestimmte Anweisung ausführen soll. Eine solche Anweisung kann sich von der expliziten Anweisung unterscheiden, die durch die Berührungsbildschirmeingaben selbst spezifiziert ist. Durch das Ausführen einer Anweisung auf diese Art ist die elektronische Vorrichtung in der Lage, eine Anweisung diskret so auszuführen, dass kein Hinweis auf die Ausführung erkennbar ist.
  • Hier beschriebene Ausführungsformen können konfiguriert sein zum Arbeiten mit einer Vielzahl von Sensoren, Streifen- oder Zeilensensoren, Array- oder anderen zweidimensionalen Sensoren und Ähnlichem. 1 ist eine schematische Illustration einer elektronischen Vorrichtung 1000 in Übereinstimmung mit Ausführungsformen, die hier beschrieben werden. Wie in 1 gezeigt, kann die Ausführungsform der elektronischen Vorrichtung 1000 eine Berührungs-I/O-Vorrichtung 1001 umfassen, die Berührungseingaben empfangen kann, um mit einem rechnenden System 1003 kabelgebunden oder kabellos über einen Kommunikationskanal 1002 zu interagieren. Die Berührungs-I/O-Vorrichtung 1001 kann verwendet werden, um eine Benutzereingabe an das rechnende System 1003 bereitzustellen, anstelle von oder in Kombination mit anderen Eingabevorrichtungen, wie einer Tastatur, einer Maus usw. Eine oder mehrere Berührungs-I/O-Vorrichtungen 1001 können verwendet werden zum Bereitstellen von Benutzereingabe für das rechnende System 1003. Die Berührungs-I/O-Vorrichtung 1001 kann ein integraler Teil des rechnenden Systems 1003 sein (z. B. ein Berührungsbildschirm an einem Laptop) oder kann separat von dem rechnenden System 1003 sein. In verschiedenen Ausführungsformen, die hier beschrieben werden, kann das rechnende System 1003 betreibbar sein zum Beziehen eines Fingerabdrucks von einem Finger, der verwendet wird, um Eingaben durch die Berührungs-I/O-Vorrichtung 1001 einzugeben. Das rechnende System 1003 kann auch betreibbar sein zum Beziehen von Timing- und/oder Kraftinformationen, die verknüpft sind mit Eingaben, die durch die Berührungs-I/O-Vorrichtung 1001 eingegeben werden.
  • Die Berührungs-I/O-Vorrichtung 1001 kann ein berührungsempfindliches Panel beinhalten, das vollständig oder teilweise transparent, semitransparent, nichttransparent, undurchsichtig oder eine beliebige Kombination davon ist. Die Berührungs-I/O-Vorrichtung 1001 kann verwirklicht sein als ein Berührungsbildschirm, ein Touchpad, ein Berührungsbildschirm, der als Touchpad funktioniert (z. B. ein Berührungsbildschirm, der das Touchpad eines Laptops ersetzt), ein Berührungsbildschirm oder Touchpad kombiniert mit oder eingearbeitet in eine beliebige andere Eingabevorrichtung (z. B. ein Berührungsbildschirm oder Touchpad, angeordnet auf einer Tastatur) oder jedes multidimensionale Objekt, das eine berührungsempfindliche Oberfläche zum Empfang von Berührungseingaben aufweist.
  • In einem Beispiel kann die als Berührungsbildschirm ausgeführte Berührungs-I/O-Vorrichtung 1001 ein transparentes und/oder semitransparentes berührungsempfindliches Panel umfassen, das teilweise oder vollständig über zumindest einem Teil einer Anzeige positioniert ist. Entsprechend dieser Ausführungsform funktioniert die Berührungs-I/O-Vorrichtung 1001 zum Anzeigen grafischer Daten, die von dem rechnenden System 1003 übertragen wurden (und/oder von einer anderen Quelle), und funktioniert auch zum Empfangen von Benutzereingaben. In anderen Ausführungsformen kann die Berührungs-I/O-Vorrichtung 1001 als ein integrierter Berührungsbildschirm ausgebildet sein, wobei berührungsempfindliche Komponenten/Vorrichtungen integral sind mit Anzeigekomponenten/Vorrichtungen. In noch anderen Ausführungsformen kann ein Berührungsbildschirm verwendet werden als ein ergänzender oder zusätzlicher Anzeigebildschirm zum Anzeigen zusätzlicher oder derselben grafischen Daten wie eine primäre Anzeige und zum Empfangen von Berührungseingaben.
  • Die Berührungs-I/O-Vorrichtung 1001 kann konfiguriert sein zum Erkennen der Position einer oder mehrerer Berührungen oder beinaher Berührungen auf der Vorrichtung 1001 basierend auf kapazitiven, resistiven, optischen, akustischen, induktiven, mechanischen, chemischen Messungen oder jeglichem Phänomen, das hinsichtlich des Auftretens der einen oder der mehreren Berührungen oder beinahen Berührungen in der Nähe der Vorrichtung 1001 gemessen werden kann. Software, Hardware, Firmware oder eine beliebige Kombination davon kann verwendet werden zum Verarbeiten der Messungen der erkannten Berührungen zum Identifizieren und Verfolgen einer oder mehrerer Gesten. Eine Geste kann korrespondieren zu stationären oder nicht-stationären, einzelnen oder mehrfachen Berührungen oder beinahen Berührungen auf der Berührungs-I/O-Vorrichtung 1001. Eine Geste kann ausgeführt werden durch das Bewegen eines oder mehrerer Finger oder anderer Objekte in einer bestimmten Weise auf der Berührungs-I/O-Vorrichtung 1001, so wie das Klopfen, Drücken, Kippen, Kratzen, Drehen, Ändern der Orientierung, Drücken mit verändertem Druck und Ähnlichem zu im Wesentlichen derselben Zeit, zusammenhängend oder aufeinanderfolgend. Eine Geste kann charakterisiert sein durch, ist aber nicht beschränkt auf, eine kneifende, rutschende, wischende, drehende, biegende, ziehende oder klopfende Bewegung zwischen oder mit jedem anderen Finger oder Fingern. Eine einzelne Geste kann ausgeführt werden mit einer oder mehreren Händen, durch einen oder mehrere Benutzer oder eine beliebige Kombination davon.
  • Das rechnende System 1003 kann eine Anzeige mit grafischen Daten steuern, um eine grafische Benutzeroberfläche (Graphical User Interface, GUI) darzustellen. Die GUI kann konfiguriert sein zum Empfangen von Berührungseingaben über die Berührungs-I/O-Vorrichtung 1001. Ausgestaltet als ein Berührungsbildschirm kann die Berührungs-I/O-Vorrichtung 1001 die GUI anzeigen. Alternativ kann die GUI auf einer Anzeige angezeigt werden, die separat ist von der Berührungs-I/O-Vorrichtung 1001. Die GUI kann grafische Elemente beinhalten, die an bestimmten Positionen innerhalb der Oberfläche angezeigt werden. Grafische Elemente können umfassen, sind aber nicht begrenzt auf, eine Vielzahl von angezeigten virtuellen Eingabevorrichtungen, umfassend virtuelle Scrollräder, eine virtuelle Tastatur, virtuelle Knöpfe, virtuelle Buttons und jede virtuelle Benutzerschnittstelle (UI) und Ähnliches. Ein Benutzer kann Gesten auf einer oder mehreren bestimmten Positionen auf der Berührungs-I/O-Vorrichtung 1001 ausführen, die mit den grafischen Elementen der GUI verknüpft sind. In anderen Ausführungsformen kann der Benutzer Gesten an einer oder mehreren Positionen ausführen, die unabhängig von den Positionen der grafischen Elemente der GUI sind. Gesten, die auf der Berührungs-I/O-Vorrichtung 1001 ausgeführt werden, können direkt oder indirekt manipulieren, steuern, modifizieren, bewegen, betätigen, initiieren oder generell grafische Elemente beeinflussen, wie z. B. Cursor, Icons, Mediendateien, Listen, Text, ganze Bilder oder Teile von Bildern oder Ähnliches innerhalb der GUI. Im Fall eines Berührungsbildschirms kann z. B. ein Benutzer direkt mit einem grafischen Element interagieren durch das Ausführen einer Geste über dem grafischen Element auf dem Berührungsbildschirm. Alternativ stellt ein Touchpad im Allgemeinen eine indirekte Interaktion bereit. Gesten können auch nicht angezeigte GUI-Elemente beeinflussen (z. B. bewirken, dass Benutzerschnittstellen erscheinen) oder können andere Aktionen beeinflussen innerhalb des rechnenden Systems 1003 (z. B. einen Zustand beeinflussen oder einen Modus einer GUI, einer Applikation oder eines Betriebssystems). Gesten können ausgeführt werden, oder auch nicht, auf der Berührungs-I/O-Vorrichtung 1001 in Kombination mit einem angezeigten Cursor. In dem Fall z. B., in dem Gesten auf einem Touchpad ausgeführt werden, kann ein Cursor (oder Zeiger) angezeigt werden auf einem Anzeigebildschirm oder Berührungsbildschirm und der Cursor kann gesteuert durch Berührungseingaben auf dem Touchpad, um mit grafischen Objekten auf dem Anzeigebildschirm zu interagieren. In anderen Ausführungsformen, in denen Gesten direkt auf einem Berührungsbildschirm ausgeführt werden, kann ein Benutzer direkt mit Objekten auf dem Berührungsbildschirm interagieren, wobei ein Cursor oder Zeiger auf dem Berührungsbildschirm angezeigt wird oder nicht.
  • Eine Rückmeldung an den Benutzer kann bereitgestellt werden über den Kommunikationskanal 1002 in Reaktion auf oder basierend auf der Berührung oder beinahen Berührung auf der Berührungs-I/O-Vorrichtung 1001. Eine Rückmeldung kann optisch, mechanisch, elektrisch, olfaktorisch, akustisch oder in ähnlicher Weise oder als eine beliebige Kombination davon und in einer variablen oder nicht variablen Art übertragen werden.
  • Die Aufmerksamkeit wird nun gerichtet auf Ausführungsformen einer Systemarchitektur, die innerhalb jeder tragbaren oder nicht tragbaren Vorrichtung ausgebildet sein kann, umfassend, aber nicht beschränkt auf, eine Kommunikationsvorrichtung (z. B. Mobiltelefon, Smartphone), eine Multimediavorrichtung (z. B. einen MP3-Player, TV, Radio), einen tragbaren oder handgehaltenen Computer (z. B. Tablet, Netbook, Laptop), einen Desktop Computer, einen Mehrzweck-Desktop Computer, eine Zusatzvorrichtung oder jedes andere System oder jede andere Vorrichtung, die angepasst werden kann zur Einbindung in die Systemarchitektur 2000, einschließlich Kombinationen von zwei oder mehr dieser Arten von Vorrichtungen. 2 ist ein Blockdiagramm einer Ausführungsform des Systems 2000, die allgemein umfasst einen oder mehrere computerlesbare Medien 2001, ein Verarbeitungssystem 2004, Eingabe/Ausgabe-(I/O)-Subsystem 2006, einen Hochfrequenz-(Radio Frequency, RF)-Schaltkreis 2008 und einen Audioschaltkreis 2010. Diese Komponenten können gekoppelt sein durch einen oder mehrere Kommunikationsbusse oder Signalleitungen 2003. Jeder solche Bus oder jede solche Signalleitung kann bezeichnet sein in der Form 2003-X, wobei X eine eindeutige Zahl ist. Der Bus oder die Signalleitung kann Daten des entsprechenden Typs zwischen Komponenten tragen; jeder Bus oder jede Signalleitung kann verschiedenen sein von anderen Bussen/Signalleitungen, aber im Allgemeinen ähnliche Operationen ausführen.
  • Es sollte ersichtlich sein, dass die Architektur, die in 2 gezeigt ist, lediglich eine Beispielarchitektur des Systems 2000 ist, und dass das System 2000 mehr oder weniger Komponenten aufweisen könnte als gezeigt, oder eine andere Konfiguration der Komponenten. Die verschiedenen Komponenten, die in 2 gezeigt sind, können als Hardware, Software, Firmware oder als eine beliebige Kombination davon implementiert sein, einschließlich eines oder mehrerer Signalverarbeitungs- und/oder applikationsspezifischer integrierter Schaltkreise. HF-Schaltkreis 2008 wird verwendet zum Senden und Empfangen von Informationen über eine drahtlose Verbindung oder ein Netzwerk an eine oder mehrere andere Vorrichtungen und beinhaltet wohl bekannte Schaltkreise zum Ausführen dieser Funktion. Der HF-Schaltkreis 2008 und der Audioschaltkreis 2010 sind gekoppelt an das Verarbeitungssystem 2004 über die Peripherieschnittstelle 2016. Die Schnittstelle 2016 beinhaltet verschiedene wohl bekannte Komponenten zum Aufbauen und aufrecht erhalten von Kommunikation zwischen Peripherien und dem Verarbeitungssystem 2004. Der Audioschaltkreis 2010 ist gekoppelt an den Lautsprecher 2050 und das Mikrofon 2052 und beinhaltet wohl bekannte Schaltkreise zum Verarbeiten von Sprachsignalen, die über die Schnittstelle 2016 empfangen wurden, um es einem Benutzer zu ermöglichen, in Echtzeit mit anderen Benutzern zu kommunizieren. In einigen Ausführungsformen beinhaltet der Audioschaltkreis 2010 eine Kopfhörerbuchse (nicht gezeigt).
  • Die Peripherieschnittstelle 2016 koppelt die Eingabe- und Ausgabeperipherie des Systems mit dem Prozessor 2018 und dem computerlesbaren Medium 2001. Ein oder mehrere Prozessoren 2018 kommunizieren mit einem oder mehreren computerlesbaren Medien 2001 über den Controller 2020. Das computerlesbare Medium 2001 kann jede Vorrichtung oder jedes Medium sein, die/das Code und/oder Daten zur Verwendung durch einen oder mehrere Prozessoren 2018 speichern kann. Das Medium 2001 kann eine Speicherhierarchie umfassen, einschließlich, aber nicht beschränkt auf Cache, Hauptspeicher und sekundären Speicher. Die Speicherhierarchie kann implementiert sein unter Verwendung einer beliebigen Kombination von RAM (z. B. SRAM, DRAM, DDRAM), ROM, FLASH, magnetische und/oder optische Speichervorrichtungen sowie Plattenlaufwerke, magnetisches Band, CDs (Compact Disks) und DVD (Digital Video Disks). Das Medium 2001 kann auch ein Übertragungsmedium umfassen zum Übertragen von informationstragenden Signalen, die Computeranweisungen oder Daten anzeigen (mit oder ohne eine Trägerwelle, auf der die Signale moduliert werden). Zum Beispiel kann das Übertragungsmedium umfassen ein Kommunikationsnetzwerk, einschließlich, aber nicht beschränkt auf, das Internet (auch bezeichnet als das World Wide Web), Intranet(s), Local Area Networks (LANs), Wide Local Area Networks (WLANs), Storage Area Networks (SANs), Metropolitan Area Networks (MANs) und Ähnliche.
  • Einer oder mehrere Prozessoren 2018 führen verschiedene Softwarekomponenten aus, die in dem Medium 2001 gespeichert sind, um verschiedene Funktionen für das System 2000 auszuführen. In einigen Ausführungsformen umfassen die Softwarekomponenten ein Betriebssystem 2022, ein Kommunikationsmodul (oder einen Satz von Instruktionen) 2024, ein Berührungsverarbeitungsmodul (oder einen Satz von Instruktionen) 2026, ein Grafikmodul (oder einen Satz von Instruktionen) 2028, eine oder mehrere Anwendungen (oder einen Satz von Instruktionen) 2030 und ein Fingerabdruck-Erfassungsmodul (oder einen Satz von Instruktionen) 2038. Jedes dieser Module und der oben erwähnten Anwendungen entspricht einem Satz von Instruktionen zum Ausführen einer oder mehrerer Funktionen, die oben beschrieben sind, und der Verfahren, die in dieser Anmeldung beschrieben sind (z. B. die computerimplementierte Verfahren und andere informationsverarbeitende Verfahren, die hier beschrieben sind). Diese Module (d. h. Sätze von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein, und somit können verschiedene Teilsätze dieser Module kombiniert oder in anderer Weise neu angeordnet werden in verschiedenen Ausführungsformen. In einigen Ausführungsformen kann das Medium 2001 eine Teilmenge der Module und Datenstrukturen, die oben beschrieben wurden, speichern. Ferner kann das Medium 2001 zusätzliche Module und Datenstrukturen speichern, die nicht oben beschrieben wurden.
  • Das Betriebssystem 2022 beinhaltet verschiedene Prozeduren, Sätze von Instruktionen, Softwarekomponenten und/oder Treiber zum Steuern und Managen allgemeiner Systemaufgaben (z. B. Speichermanagement, Speichervorrichtungssteuerung, Leistungsmanagement usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 2024 ermöglicht Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 2026 oder über den HF-Schaltkreis 2008 und umfasst verschiedene Softwarekomponenten zum Handhaben von Daten, die von dem HF-Schaltkreis 2008 und/oder dem externen Anschluss 2036 empfangen wurden.
  • Das Grafikmodul 2028 umfasst verschiedene bekannte Softwarekomponenten zum Rendern, Animieren und Anzeigen von grafischen Objekten auf einer Anzeigeoberfläche. In Ausführungsformen, in denen die Berührungs-I/O-Vorrichtung 2012 eine berührungsempfindliche Anzeige ist (z. B. ein Touchscreen), beinhaltet das Grafikmodul 2028 Komponenten zum Rendern, Anzeigen und Animieren von Objekten auf der berührungsempfindlichen Anzeige.
  • Eine oder mehrere Anwendungen 2030 können beliebige Anwendungen umfassen, die auf dem System 2000 installiert sind, umfassend, aber nicht beschränkt auf, einen Browser, ein Adressbuch, eine Kontaktliste, Email, Instant Messaging, Textverarbeitung, Tastaturemulation, Widgets, JAVA-fähige Applikationen, Verschlüsselung, digitales Rechtemanagement, Spracherkennung, Sprachwiedergabe, Positionsbestimmungsfähigkeiten (wie bereitgestellt durch das Global Positioning System (GPS)), einen Musikplayer usw.
  • Das Berührungsverarbeitungsmodul 2026 umfasst verschiedene Softwarekomponenten zum Ausführen verschiedener Aufgaben, die verknüpft sind mit der Berührungs-I/O-Vorrichtung 2012, einschließlich, aber nicht beschränkt auf das Empfangen und Verarbeiten von Berührungseingaben, die durch die I/O-Vorrichtung 2012 über die Berührungs-I/O-Vorrichtungssteuerung 2032 empfangen wurden. Das Berührungsverarbeitungsmodul 2026 kann konfiguriert sein zum Verarbeiten von Berührungsbildschirmeingaben, um zu bestimmen, ob die Art, in der die Berührungsbildschirmeingabe eingegeben wurde, darauf hinweist, dass der Benutzer beabsichtig, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll. Verschiedene Aspekte der Funktion des Berührungsverarbeitungsmoduls sind hier in Verbindung mit den 3 bis 5 beschrieben.
  • Das System 2000 kann ferner ein Fingerabdruck-Erfassungsmodul 2038 aufweisen, das zumindest ausgeführt werden kann zum Ausführen, oder Funktionieren zum Ausführen, verschiedener Aufgaben, die mit dem Fingerabdrucksensor verknüpft sind, wie das Empfangen und Verarbeiten von Fingerabdrucksensoreingaben. Das Fingerabdruck-Erfassungsmodul 2038 kann auch bestimmte betriebliche Aspekte des Fingerabdrucksensors 2042 steuern, sowie dessen Erfassung von Fingerabdruckdaten und/oder Übertragung derselben an den Prozessor 2018 und/oder einen sicheren Prozessor 2040. Das Modul 2038 auch interagieren mit der Berührungs-I/O-Vorrichtung 2012, dem Grafikmodul 2028 oder einer anderen grafischen Anzeige. Das Modul 2038 kann ausgebildet sein als Hardware, Software, Firmware oder eine beliebige Kombination davon. Obwohl das Modul 2038 gezeigt ist als angeordnet in dem Medium 2001, kann das gesamte Modul 2038 oder Teile des Moduls 2038 in anderen Komponenten innerhalb des Systems 2000 ausgebildet sein oder kann vollständig als eine separate Komponente innerhalb des Systems 2000 ausgebildet sein.
  • Das I/O-Subsystem 2006 ist gekoppelt an die Berührungs-I/O-Vorrichtung 2012 sowie an eines oder mehrere andere I/O-Vorrichtungen 2014 zum Steuern oder Ausführen verschiedener Funktionen. Die Berührungs-I/O-Vorrichtung 2012 kommuniziert mit dem Verarbeitungssystem 2004 über den Berührungs-I/O-Vorrichtungscontroller 2032, der verschiedene Komponenten zum Verarbeiten von Benutzerberührungseingaben umfasst (z. B. Scanning Hardware). Einer oder mehrere Eingabecontroller 2034 empfangen/senden elektrische Signale von/zu anderen I/O-Vorrichtungen 2014. Andere I/O-Vorrichtungen 2014 können physikalische Buttons, Dials, Schiebeschalter, Sticks, Tastaturen, Touchpads, zusätzliche Anzeigebildschirm oder eine beliebige Kombination davon beinhalten.
  • Wenn als Berührungsbildschirm ausgebildet, zeigt die Berührungs-I/O-Vorrichtung 2012 eine visuelle Ausgabe für den Benutzer in einer GUI an. Die visuelle Ausgabe kann Text, Grafik, Video und eine beliebige Kombination davon umfassen. Ein Teil oder die gesamte visuelle Ausgabe kann Benutzerschnittstellen-Objekten entsprechen. Die Berührungs-I/O-Vorrichtung 2012 bildet eine berührungsempfindliche Oberfläche, die Berührungseingaben von dem Benutzer akzeptiert. Die Berührungs-I/O-Vorrichtung 2012 und der Berührungsbildschirmcontroller 2032 (zusammen mit jedem verknüpften Modul und/oder Satz von Instruktionen im Medium 2001) erkennt und verfolgt Berührungen und beinahe Berührungen (und jede Bewegung oder jedes Loslassen der Berührung) auf der Berührungs-I/O-Vorrichtung 2012 und wandelt die erkannte Berührungseingabe in eine Interaktion mit grafischen Objekten um, wie beispielsweise eines oder mehrere Benutzerschnittstellen-Objekte. In dem Fall, in dem die Vorrichtung 2012 ausgebildet ist als ein Berührungsbildschirm, kann der Benutzer direkt mit grafischen Objekten interagieren, die auf dem Berührungsbildschirm angezeigt werden. Alternativ kann in dem Fall, in dem die Vorrichtung 2012 als eine Berührungsvorrichtung ausgestaltet ist, anders als ein Berührungsbildschirm (z. B. ein Touchpad), der Benutzer indirekt interagieren mit grafischen Objekten, die auf einem separaten Anzeigebildschirm angezeigt werden, ausgestaltet als I/O-Vorrichtung 2014.
  • Die Berührungs-I/O-Vorrichtung 2012 kann analog sein zu der Multitouch empfindlichen Oberfläche, die in den folgenden US-Patenten beschrieben ist: 6 323 846 (Westerman et al.), 6 570 557 (Westerman et al.) und/oder 6 677 932 (Westerman) und/oder US-Patent-Veröffentlichung 2002/0015024 A1 , von denen jede hiermit durch Verweis aufgenommen ist.
  • Ausführungsformen, in denen die Berührungs-I/O-Vorrichtung 2012 ein Berührungsbildschirm ist, kann der Berührungsbildschirm LCD-Liqui Crystal Display)-Technologie verwenden, LPD-(Light Emitting Polymer Display)-Technology, OLED (Organic LED), oder OEL (Organic Electro Luminescence), obwohl andere Anzeigetechniken in anderen Ausführungsformen verwendet werden können.
  • Rückmeldungen können durch die Berührungs-I/O-Vorrichtung 2012 basierend auf der Berührungseingabe des Benutzers bereitgestellt werden sowie als ein Zustand oder Zustände dessen, was angezeigt wird, und/oder des rechnenden Systems. Eine Rückmeldung kann optisch (z. B. durch ein Lichtsignal oder ein angezeigtes Bild), mechanisch (z. B. haptische Rückmeldung, Berührungsrückmeldung, Kraftrückmeldung oder Ähnliches), elektrisch (z. B. elektrische Stimulation), olfaktorisch, akustisch (z. B. ein Piep oder Ähnliches), oder auf ähnliche Weise oder in einer beliebigen Kombination davon und in variabler oder nicht variabler Weise übertragen werden.
  • Das System 2000 umfasst ein Leistungssystem 2044 zum Versorgen mit Leistung der verschiedenen Hardwarekomponenten, und kann ein Leistungsmanagementsystem, eine oder mehrere Leistungsquellen, ein Wiederaufladesystem, einen Schaltkreis zum Erkennen von Leistungsversagen, einen Leistungsumwandler oder Inverter, einen Leistungsstatusindikator und jegliche andere Komponenten umfassen, die typischerweise verknüpft sind mit dem Erzeugen, Managen und Verteilen von Leistung in tragbaren Vorrichtungen.
  • In einigen Ausführungsformen können die Peripherieschnittstelle 2016, der eine oder die mehreren Prozessoren 2018 und der Speichercontroller 2020 implementiert sein auf einem einzelnen Chip, wie beispielsweise dem Verarbeitungssystem 2004. In einigen anderen Ausführungsformen können sie auf separaten Chips implementiert sein.
  • Zusätzlich zu dem Vorstehenden kann das System 2000 einen sicheren Prozessor 2040 umfassen, der über einen Fingerabdruck-I/O-Controller 2044 in Kommunikation mit einem Fingerabdrucksensor 2042 steht. Der sichere Prozessor 2040 kann implementiert sein als eine oder mehrere Verarbeitungseinheiten. Der sichere Prozessor kann implementiert sein als eine oder mehrere Verarbeitungseinheiten. Der Betrieb dieser verschiedenen Elemente wird nun beschrieben.
  • Der Fingerabdrucksensor 2042 kann betrieben werden, um kapazitiv eine Reihe von Bildern oder Knoten zu erfassen. Diese Knoten können einen Fingerabdruck bilden, wenn sie zusammen aufgenommen werden. Der vollständige Knotensatz kann bezeichnet werden als ein Netz. Obwohl der Fingerabdrucksensor als kapazitiv betrieben beschrieben wird, sollte verstanden werden, dass dies ein Beispiel ist. In verschiedenen Implementierungen kann der Fingerabdrucksensor ein optischer, kapazitiver, Ultraschall-, und/oder beliebiger anderer Mechanismus zum Erfassen eines oder mehrerer Bilder und eines oder mehrerer Teile eines oder mehrerer Fingerabdrücke sein. Es wird verstanden, dass die hier diskutierten Ausführungsformen mit jedem geeigneten Fingerabdrucksensor arbeiten können, einschließlich Streifen- oder Zeilensensoren, Array- oder anderen zweidimensionalen Sensoren usw.
  • Jeder Knoten in dem Netz kann separat erfasst werden durch den Fingerabdrucksensor 2042, der ein Array-Sensor sein kann. Im Allgemeinen gibt es etwas Überlappung zwischen Bildern in Knoten, die benachbarte Anteile eines Fingerabdrucks repräsentieren. Eine solche Überlappung kann helfen, den Fingerabdruck aus den Knoten zusammenzusetzen, da verschiedene Bilderkennungstechniken eingesetzt werden können, um die Überlappung dazu zu verwenden, benachbarte Knoten in dem Netz korrekt zu identifizieren und/oder miteinander auszurichten.
  • Erfasste Fingerabdruckdaten können durch den Fingerabdruck-I/O-Controller 2044 an den Prozessor 2018 und/oder den sicheren Prozessor 2040 übertragen werden. In einigen Ausführungsformen werden die Daten direkt von dem Fingerabdruck-I/O-Controller 2044 an den sicheren Prozessor 2040 weitergegeben. Die Fingerabdruckdaten werden durch den Fingerabdrucksensor 2042, den Fingerabdruck-I/O-Controller 2044 oder ein anderes Element vor der Übertragung an einen Prozessor verschlüsselt, verschleiert oder anderweitig geschützt vor dem Zugriff durch eine nicht autorisierte Vorrichtung oder ein Element. Der sichere Prozessor 2040 kann die Daten entschlüsseln, um die Knoten zu rekonstruieren. In einigen Ausführungsformen können unverschlüsselte Daten direkt an den sicheren Prozessor 2040 von dem Fingerabdruck-Controller 2044 übertragen werden (oder den Sensor 2042, falls kein Controller vorhanden ist). Der sichere Prozessor kann dann diese Daten verschlüsseln.
  • Fingerabdruckdaten können, entweder als Knoten oder als Netze, in dem computerlesbaren Medium 2001 gespeichert sein und es kann auf sie bei Bedarf zugegriffen werden. In einigen Ausführungsformen kann nur der sichere Prozessor 2040 auf gespeicherte Fingerabdruckdaten zugreifen, während in anderen Ausführungsformen sowohl der sichere Prozessor als auch der Prozessor 2018 auf solche Daten zugreifen können.
  • 3 ist ein Flussdiagramm 3000, das eine erste Ausführungsform eines Berührungsverarbeitungsverfahrens darstellt. In Operation 3004 bezieht zu Beginn das Berührungsverarbeitungsmodul 2026 Fingerabdruckdaten von der Berührungseingabe, die in die elektronische Vorrichtung 1000 durch einen Fingerabdrucksensor eingegeben wurde. Dieser Sensor kann verknüpft sein mit einem Berührungsbildschirm, einer Eingabe (z. B. einem Button oder Schalter), einem Gehäuse usw. Der Sensor kann solchen Elementen unterliegen oder andernfalls benachbart sein oder in deren Nähe sein. Sobald das Berührungsverarbeitungsmodul 2026 Fingerabdruckdaten in der Operation 3004 bezieht, wird die Steuerung weitergereicht an die Operation 3008.
  • In Operation 3008 analysiert das Berührungsverarbeitungsmodul 2026 die Fingerabdruckdaten, um zu bestimmen, ob die Art, in der die Berührungseingabe eingegeben wurde, darauf hindeutet, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung 1000 eine bestimmte Anweisung ausführen soll. Die Berührungseingabe kann eine andernfalls Routineoperation der elektronischen Vorrichtung 1000 anweisen, so wie das Eingeben einer Zahl in eine Nummerntastatur, um die Vorrichtung zu entsperren. Die Berührungseingabe kann jedoch mit einem bestimmten Finger oder einer bestimmten Fingersequenz eingegeben werden, zu der der Benutzer festgelegt hat, dass sie eine Anweisung angibt, die durch die elektronische Vorrichtung ausgeführt werden soll.
  • Die Korrelation zwischen einem bestimmten Finger oder einer Sequenz von Fingern kann durch den Benutzer zu einem früheren Zeitpunkt programmiert werden. Zum Beispiel kann die Benutzerin die elektronische Vorrichtung so programmieren, dass sie Eingaben, die sie mit ihrem kleinen Finger macht, als eine Anweisung erkennt, einen ”911”-Anruf zu tätigen oder auf andere Weise Notrufdienste zu kontaktieren. In einem anderen Beispiel kann der Benutzer die elektronische Vorrichtung so programmieren, dass eine Eingabe, die mit einer bestimmten Sequenz von Fingern, wie beispielsweise kleiner Finger-Ringfinger-kleiner Finger, als eine Anweisung erkannt wird, einen Notruf abzusetzen. Unabhängig davon, welche Routineanweisung der Benutzer angeblich eingibt, gibt der Benutzer somit auch die zuvor festgelegte Anweisung ein, falls der Benutzer die Routineanweisung mit dem zuvor festgelegten Finger oder der Fingersequenz eingibt. Zum Beispiel kann die Benutzerin vorgeblich ihre Vorrichtung entsperren, indem sie dies jedoch mit ihrem festgelegten ”911”-Finger tut, ruft sie auch die Polizei an.
  • Beim Analysieren der Fingerabdruckdaten gleicht das Berührungsverarbeitungsmodul 2026 eine Liste aus einer oder mehreren festgelegten Anweisungen mit den bezogenen Fingerabdruckdaten ab. Falls das Berührungsverarbeitungsmodul 2026 entdeckt, dass Fingerabdruckdaten darauf hinweisen, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 3020 weitergereicht, wo die Anweisung ausgeführt wird. Falls nicht, wird die Steuerung an die Operation 3024 weitergereicht. In der Operation 3024 wird keine festgelegte Finger- oder Fingersequenzanweisung ausgeführt. Jedoch kann in der Operation 3024 eine beliebige Routineanweisung ausgeführt werden, die durch die Berührungseingabe angezeigt ist.
  • 4 ist ein Flussdiagramm 4000, das eine zweite Ausführungsform eines Berührungsverarbeitungsverfahrens darstellt. In dem im Flussdiagramm 4000 dargestellten Verfahren wird eine festgelegte Anweisung sowohl durch Fingerabdruckdaten als auch durch Timingdaten angezeigt. Durch Analysieren sowohl der Fingerabdruckdaten als auch der Timingdaten hat das in 4 dargestellte Verfahren eine größere Entropiestufe als das in 3 dargestellte Verfahren.
  • Zu Beginn bezieht in Operation 4004 das Berührungsverarbeitungsmodul 2026 Fingerabdruckdaten von der Berührungseingabe, wie oben in Verbindung mit der Operation 3004 beschrieben. Zusätzlich bezieht das Berührungsverarbeitungsmodul 2026 Timingdaten, wenn die Berührungseingabe durch den Berührungsbildschirm eingegeben wird. In einer Ausführungsform umfassen die Timingdaten Zeitintervalle zwischen separaten Berührungen, die zusammen die Berührungseingabe bilden. Sobald das Berührungsverarbeitungsmodul 2026 Fingerabdruckdaten und Timingdaten in der Operation 4004 bezieht, kann die Steuerung an die Operation 4008 weitergereicht werden.
  • In der Operation 4008 analysiert das Berührungsverarbeitungsmodul 2026 die Fingerabdruckdaten, um zu bestimmen, ob die Art, in der die Berührungseingabe eingegeben wurde, darauf hinweist, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wie oben in Verbindung mit der Operation 3008 beschrieben. Wenn das Berührungsverarbeitungsmodul 2026 entdeckt, dass Fingerabdruckdaten darauf hinweisen, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 4012 weitergereicht. Wenn nicht, wird die Steuerung an die Operation 4024 weitergereicht.
  • In der Operation 4012 analysiert das Berührungsverarbeitungsmodul 2026 die Timingdaten, um zu bestimmen, ob die Art, in der die Berührungseingabe eingegeben wurde, darauf hinweist, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll. Insbesondere kann die Berührungseingabe mit einer bestimmten Geschwindigkeit oder Kadenz eingegeben werden, zu der der Benutzer festgelegt hat, dass sie auf eine Anweisung hinweist, die durch die elektronische Vorrichtung ausgeführt werden soll. Wie die Korrelationen zwischen einem Finger oder einer Fingersequenz und einer bestimmten Anweisung können die Korrelationen zwischen Geschwindigkeit oder Kadenz und einer bestimmten Anweisung zu einem früheren Zeitpunkt durch den Benutzer programmiert werden.
  • Wenn das Berührungsverarbeitungsmodul 2026 entdeckt, dass die Timingdaten darauf hindeuten, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 4020 weitergeleitet, wo die Anweisung ausgeführt wird. Wenn nicht, wird die Steuerung an die Operation 4024 weitergereicht. Wie oben in Verbindung mit der Operation 3024 beschrieben, wird in der Operation 4024 keine festgelegte Anweisung ausgeführt. Gleichwohl kann in der Operation 3024 eine beliebige Routineanweisung ausgeführt werden, die durch die Berührungseingabe angezeigt ist.
  • 5 ist ein Flussdiagramm, das eine dritte Ausführungsform eines Berührungsverarbeitungsverfahrens darstellt. In dem durch das Flussdiagramm 5000 dargestellten Verfahren wird eine festgelegte Anweisung sowohl durch Fingerabdruckdaten als auch durch Timingdaten angezeigt. Durch Analysieren von Fingerabdruckdaten, Timingdaten und Kraftdaten hat das in 5 dargestellte Verfahren ein größeres Entropielevel als die Verfahren, die in den 3 und 4 dargestellt sind.
  • In Operation 5004 bezieht das Berührungsverarbeitungsmodul 4026 zu Beginn Fingerabdruckdaten und Timingdaten von der Berührungseingabe, wie oben in Verbindung mit der Operation 4004 beschrieben. Zusätzlich bezieht das Berührungsverarbeitungsmodul 2026 Kraftdaten, wenn die Berührungseingabe über den Berührungsbildschirm eingegeben wird. In einer Ausführungsform zeigen die Kraftdaten eine Kraftmenge an, die durch eine oder mehrere Fingerspitzen des Benutzers auf den Berührungsbildschirm aufgebracht wurde, als die Berührungseingabe eingegeben wurde. Sobald das Berührungsverarbeitungsmodul 2026 Fingerabdruckdaten, Timingdaten und Kraftdaten in der Operation 5004 bezieht, kann die Steuerung an die Operation 5008 weitergereicht werden.
  • In der Operation 5008 analysiert das Berührungsverarbeitungsmodul 2026 die Fingerabdruckdaten, um zu bestimmen, ob die Art, in der die Berührungseingabe eingegeben wurde, darauf hinweist, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wie oben in Verbindung mit der Operation 3008 beschrieben. Wenn das Berührungsverarbeitungsmodul 2026 entdeckt, dass Fingerabdruckdaten darauf hindeuten, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 5012 weitergereicht. Wenn nicht, wird die Steuerung an die Operation 5024 weitergereicht.
  • In der Operation 5012 analysiert das Berührungsverarbeitungsmodul 2026 die Timingdaten, um zu bestimmen, ob die Art, in der die Berührungseingabe eingegeben wurde, darauf hindeutet, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wie oben im Zusammenhang mit der Operation 4012 beschrieben. Wenn das Berührungsverarbeitungsmodul 2026 entdeckt, dass die Timingdaten darauf hindeuten, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 5016 weitergereicht. Wenn nicht, wird die Steuerung an die Operation 5024 weitergereicht.
  • In der Operation 5016 analysiert das Berührungsverarbeitungsmodul 2026 die Kraftdaten, um zu bestimmen, ob die Art, in der Berührungseingabe eingegeben wurde, darauf hindeutet, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll. Insbesondere kann die Berührungseingabe mit einer bestimmten Kraft eingegeben werden, zu der der Benutzer festgelegt hat, dass sie auf eine bestimmte Anweisung hinweist, die durch die elektronische Vorrichtung ausgeführt werden soll. Wie die Korrelationen zwischen einem Finger oder einer Fingersequenz und einer bestimmten Anweisung, können die Korrelationen zwischen Kraft und einer bestimmten Anweisung zu einem früheren Zeitpunkt durch den Benutzer programmiert werden.
  • Wenn das Berührungsverarbeitungsmodul 2026 entdeckt, dass die Kraftdaten darauf hindeuten, dass der Benutzer beabsichtigt, dass die elektronische Vorrichtung eine bestimmte Anweisung ausführen soll, wird die Steuerung an die Operation 5020 weitergereicht, wo die Anweisung ausgeführt wird. Wenn nicht, wird die Steuerung an die Operation 5024 weitergereicht. Wie oben in Verbindung mit der Operation 3024 beschrieben, wird in der Operation 5024 keine festgelegte Anweisung ausgeführt. Jedoch kann in der Operation 5024 jede Routineanweisung ausgeführt werden, die durch die Berührungseingabe angezeigt ist.
  • In einer Implementierung der hier beschriebenen Verfahren legt der Benutzer fest, dass die Anweisung, die durch einen bestimmten Finger oder eine bestimmte Sequenz von Fingern angezeigt ist, eine heimliche Anweisung ist, die durch die elektronische Vorrichtung ausgeführt wird, ohne einen ersichtlichen Hinweis, dass die heimliche Anweisung ausgeführt wird. Der Benutzer könnte diese Anweisung verwenden, um Notrufdienste anzurufen, ohne dass diese Tatsache einem Angreifer oder einer anderen aggressiven Person bekannt wäre, die den Notruf ausgelöst hat. Auf diese Weise implementiert die elektronische Vorrichtung 1000 eine ”Panikanweisung”, wie z. B. das Übertragen der geografischen Position der elektronischen Vorrichtung, und/oder das Übertragen von Audiostreaming- oder Videostreaming-Daten von dem Telefon umfassen kann. Zusätzlich kann eine ”Panik-Anweisung” die elektronische Vorrichtung 1000 veranlassen, bestimmte Daten oder Anwendungen aus dem Speicher der elektronischen Vorrichtung zu löschen oder diese zu verstecken. Auf diese Weise werden sensitive Daten wie beispielsweise Sozialversicherungsnummern und Ähnliches gelöscht, so dass sie nicht durch einen Täter entdeckt werden können, der die elektronische Vorrichtung 1000 stiehlt.
  • In einer anderen Implementierung der hier beschriebenen Verfahren legt der Benutzer fest, dass die Anweisung, die durch einen bestimmten Finger oder eine bestimmte Sequenz von Fingern angezeigt ist, eine Makroanweisung ist, die eine Reihe von Anweisungen umfasst, die, wenn sie zusammen ausgeführt werden, die Makroanweisung ausführen.
  • Schlussfolgerung
  • Die vorstehende Beschreibung hat eine breite Anwendung. Entsprechend ist die Diskussion einer jeden Ausführungsform lediglich als Beispiel zu verstehen und soll nicht so verstanden werden, dass der Umfang der Offenbarung, einschließlich der Ansprüche, auf diese Beispiele beschränkt wäre.

Claims (20)

  1. Verfahren zum Ausführen einer Anweisung in einer elektronischen Vorrichtung, umfassend: Empfangen einer Berührungseingabe durch eine Berührungsbildschirmkomponente einer elektronischen Vorrichtung; Beziehen von Fingerabdruckdaten von einer oder mehreren Fingerspitzen des Benutzers, die verwendet werden, um die Berührungseingabe durch den Berührungsbildschirm einzugeben; Analysieren der Fingerabdruckdaten zum Bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder einer bestimmten Sequenz von Fingern eingegeben wurde, zu der der Benutzer festgelegt hat, dass sie eine Anweisung anzeigt, die durch die elektronische Vorrichtung ausgeführt werden soll; und falls eine festgelegte Anweisung durch die Fingerabdruckdaten angezeigt ist, Ausführen der Anweisung.
  2. Verfahren nach Anspruch 1, wobei, falls eine festgelegte Anweisung nicht angezeigt ist durch die Fingerabdruckdaten, das Verfahren ferner umfasst: Ausführen einer beliebigen Anweisung, die explizit durch die Berührungseingabe angezeigt ist.
  3. Verfahren nach Anspruch 1, wobei die Berührungseingabe eine explizite Anweisung übermittelt, die durch die elektronische Vorrichtung ausgeführt werden soll, und wobei der Benutzer festgelegt hat, dass die Anweisung, die durch den bestimmten Finger oder die bestimmte Sequenz von Fingern angezeigt ist, eine heimliche Anweisung ist, die durch die elektronische Vorrichtung ausgeführt wird, ohne dass ein sichtbarer Hinweis erfolgt, dass die heimliche Anweisung ausgeführt wird, das Verfahren ferner umfassend: Ausführen der expliziten Anweisung; und während die explizite Anweisung ausgeführt wird, Ausführen der heimlichen Anweisung, ohne einen Hinweis auszugeben, dass die heimliche Anweisung ausgeführt wird.
  4. Verfahren nach Anspruch 3, wobei die heimliche Anweisung eine Panikanweisung ist, und wobei die Operation des Ausführens der Panikanweisung ein Senden einer Kommunikation an Notrufdienste umfasst.
  5. Verfahren nach Anspruch 4, wobei die Kommunikation an Notrufdienste ein Senden der geographischen Position der elektronischen Vorrichtung umfasst.
  6. Verfahren nach Anspruch 4, wobei die Kommunikation an Notrufdienste ein Senden von Audio-Streaming-Daten oder Video-Streaming-Daten von der elektronischen Vorrichtung umfasst.
  7. Verfahren nach Anspruch 1, wobei die Berührungseingabe eine Sequenz von individuellen Berührungseingaben umfasst, die zeitlich voneinander getrennt sind, das Verfahren ferner umfassend: Beziehen von Timing-Daten, wenn die Berührungseingabe durch den Berührungsbildschirm eingegeben wird, wobei die Timing-Daten Intervalle zwischen den individuellen Berührungen umfassen; Analysieren der Fingerabdruckdaten in Kombination mit den Timing-Daten, um zu bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder einer bestimmten Sequenz von Fingern und mit einer bestimmten Timing-Sequenz eingegeben wurde, zu der der Benutzer festgelegt hat, dass sie eine Anweisung anzeigen, die durch die elektronische Vorrichtung ausgeführt werden soll; und falls die festgelegte Anweisung angezeigt wird durch die Fingerabdruckdaten und die Timing-Daten, Ausführen der Anweisung.
  8. Verfahren nach Anspruch 7, ferner umfassend: Beziehen von Kraftdaten, wenn die Berührungseingabe durch den Berührungsbildschirm eingegeben wird, wobei die Kraftdaten eine Kraftmenge anzeigen, die durch eine oder mehrere Fingerspitzen des Benutzers gegen den Berührungsbildschirm angewendet wurde, als die Berührungseingabe eingegeben wurde; Analysieren der Fingerabdruckdaten in Kombination mit den Timing-Daten und den Kraftdaten, um zu bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder einer bestimmten Sequenz von Fingern, sowie mit einer bestimmten Timing-Sequenz und mit einer bestimmten Kraftmenge eingegeben wurde, zu denen allen der Benutzer festgelegt hat, dass sie eine Anweisung anzeigen, die durch die elektronische Vorrichtung ausgeführt werden soll; und falls eine festgelegte Anweisung angezeigt ist durch die Fingerabdruckdaten, die Timing-Daten und die Kraftdaten, Ausführen der Anweisung.
  9. Verfahren nach Anspruch 8, wobei die festgelegte Anweisung, die durch die Fingerabdruckdaten, die Timing-Daten und die Kraftdaten angezeigt ist, eine Panikanweisung ist.
  10. Verfahren nach Anspruch 1, wobei die Anweisung, die durch den bestimmten Finger oder die bestimmte Sequenz von Fingern angezeigt ist, eine Makroanweisung ist, die eine Reihe von Anweisungen umfasst, die, wenn sie zusammen ausgeführt werden, die Makroanweisung ausführen.
  11. Mobile Kommunikationsvorrichtung, umfassend: einen Prozessor, einen Berührungsbildschirm, der kommunikativ mit dem Prozessor gekoppelt ist, wobei der Berührungsbildschirm eingerichtet ist zum Empfangen von Eingaben durch einen Benutzer, der eine Oberfläche des Berührungsbildschirms kontaktiert oder beinahe kontaktiert; einen Fingerabdrucksensor, der kommunikativ mit dem Prozessor und mit dem Berührungsbildschirm gekoppelt ist, wobei der Fingerabdrucksensor eingerichtet ist zum Beziehen von Fingerabdruckdaten für eine oder mehrere Fingerspitzen des Benutzers, wenn der Benutzer eine Berührungseingabe durch den Berührungsbildschirm eingibt; und ein Berührungsverarbeitungsmodul, das in einem computerlesbaren Speichermedium gespeichert ist, wobei das Berührungsverarbeitungsmodul prozessorausführbaren Code umfasst, der, wenn er durch den Prozessor ausgeführt wird, die Fingerabdruckdaten analysiert, um zu bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder einer bestimmten Sequenz von Fingern eingegeben wurde, zu der der Benutzer festgelegt hat, dass sie eine Anweisung anzeigen, die durch die elektronische Vorrichtung ausgeführt werden soll, wobei, falls eine festgelegte Anweisung durch die Fingerabdruckdaten angezeigt ist, der Prozessor die Anweisung ausführt.
  12. Mobile Kommunikationsvorrichtung nach Anspruch 11, wobei, falls eine festgelegte Anweisung nicht angezeigt ist durch die Fingerabdruckdaten, der Prozessor eine beliebige Anweisung ausführt, die explizit durch die Berührungseingabe angezeigt ist.
  13. Mobile Kommunikationsvorrichtung nach Anspruch 11, wobei die Berührungseingabe eine explizite Anweisung übermittelt, die durch die elektronische Vorrichtung ausgeführt werden soll, wobei der Benutzer festgelegt hat, dass die Anweisung, die durch den bestimmten Finger oder die bestimmte Sequenz von Fingern angezeigt ist, eine heimliche Anweisung ist, die durch die elektronische Vorrichtung ausgeführt werden soll, ohne dass ein Hinweis sichtbar ist, dass die heimliche Anweisung ausgeführt wird, und wobei der Prozessor die explizite Anweisung ausführt, und während die explizite Anweisung ausgeführt wird, der Prozessor die heimliche Anweisung ausführt, ohne einen Hinweis auszugeben, dass die heimliche Anweisung ausgeführt wird.
  14. Mobile Kommunikationsvorrichtung nach Anspruch 13, wobei die heimliche Anweisung eine Panikanweisung ist, und wobei der Prozessor eine Kommunikation an Notrufdienste sendet als Teil eines Ausführens der Panikanweisung.
  15. Mobile Kommunikationsvorrichtung nach Anspruch 14, wobei die Kommunikation an Notrufdienste ein Senden der geographischen Position der elektronischen Vorrichtung umfasst.
  16. Mobile Kommunikationsvorrichtung nach Anspruch 14, wobei die Kommunikation an die Notrufdienste ein Senden von Audio-Streaming-Daten oder Video-Streaming-Daten von der elektronischen Vorrichtung umfasst.
  17. Mobile Kommunikationsvorrichtung nach Anspruch 11, wobei die Berührungseingabe eine Sequenz von individuellen Berührungseingaben umfasst, die zeitlich voneinander getrennt sind, und wobei der Prozessor: Timing-Daten bezieht, wenn die Berührungseingabe durch den Berührungsbildschirm eingegeben wird, wobei die Timing-Daten Zeitintervalle zwischen den individuellen Berührungen umfassen; die Fingerabdruckdaten in Kombination mit den Timing-Daten analysiert, um zu bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder einer bestimmten Sequenz von Fingern und mit einer bestimmten Timing-Sequenz eingegeben wurde, zu der der Benutzer festgelegt hat, dass sie eine Anweisung anzeigen, die durch die elektronische Vorrichtung ausgeführt werden soll; und falls eine festgelegte Anweisung angezeigt ist, durch die Fingerabdruckdaten und die Timing-Daten, Ausführen der Anweisung.
  18. Mobile Kommunikationsvorrichtung nach Anspruch 17, wobei der Prozessor: Kraftdaten bezieht, wenn die Berührungseingabe durch den Berührungsbildschirm eingegeben wird, wobei die Kraftdaten eine Kraftmenge anzeigen, die durch eine oder mehrere Fingerspitzen des Benutzers gegen den Berührungsbildschirm angewendet wurden, als die Berührungseingabe eingegeben wurde; die Fingerabdruckdaten in Kombination mit den Timing-Daten und den Kraftdaten analysiert, um zu bestimmen, ob die Berührungseingabe mit einem bestimmten Finger oder mit einer bestimmten Sequenz von Fingern, mit einer bestimmten Timing-Sequenz und mit einer bestimmten Kraftmenge eingegeben wurde, zu denen allen der Benutzer festgelegt hat, dass sie eine Anweisung anzeigen, die durch die elektronische Vorrichtung ausgeführt werden soll; und falls eine bestimmte Anweisung durch die Fingerabdruckdaten, die Timing-Daten und die Kraftdaten angezeigt sind, die Anweisung ausführt.
  19. Mobile Kommunikationsvorrichtung nach Anspruch 18, wobei die festgelegte Anweisung, die durch die Fingerabdruckdaten, die Timing-Daten und die Kraftdaten angezeigt ist, eine Panikanweisung ist.
  20. Mobile Kommunikationsvorrichtung nach Anspruch 11, wobei die Anweisung, die durch den bestimmten Finger oder die bestimmte Sequenz von Fingern angezeigt ist, eine Makroanweisung ist, die eine Reihe von Anweisungen umfasst, die, wenn sie zusammen ausgeführt werden, die Makroanweisung ausführen.
DE112013003261.9T 2012-06-29 2013-06-26 Biometrisch initiierte Kommunikation Active DE112013003261B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261666769P 2012-06-29 2012-06-29
US61/666,769 2012-06-29
US13/840,770 2013-03-15
US13/840,770 US9710092B2 (en) 2012-06-29 2013-03-15 Biometric initiated communication
PCT/US2013/047830 WO2014004631A1 (en) 2012-06-29 2013-06-26 Biometric initiated communication

Publications (2)

Publication Number Publication Date
DE112013003261T5 true DE112013003261T5 (de) 2015-04-23
DE112013003261B4 DE112013003261B4 (de) 2018-07-12

Family

ID=49777606

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013003261.9T Active DE112013003261B4 (de) 2012-06-29 2013-06-26 Biometrisch initiierte Kommunikation

Country Status (5)

Country Link
US (2) US9710092B2 (de)
CN (1) CN104335561B (de)
AU (1) AU2013280438B2 (de)
DE (1) DE112013003261B4 (de)
WO (1) WO2014004631A1 (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2596478B1 (de) * 2010-07-19 2019-09-04 Risst Ltd. Fingerabdrucksensoren und systeme mit fingerabdrucksensoren
US9710092B2 (en) 2012-06-29 2017-07-18 Apple Inc. Biometric initiated communication
KR102220447B1 (ko) * 2014-01-15 2021-02-25 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
US20150294516A1 (en) * 2014-04-10 2015-10-15 Kuo-Ching Chiang Electronic device with security module
US20160335469A1 (en) * 2014-04-10 2016-11-17 Kuo-Ching Chiang Portable Device with Security Module
US20170200038A1 (en) * 2014-04-10 2017-07-13 Kuo-Ching Chiang Portable Device with Security Module
US8838071B1 (en) 2014-04-30 2014-09-16 Oto Technologies Llc Secure communications smartphone system
WO2015183087A1 (en) * 2014-05-28 2015-12-03 Pobuda Miroslav Mobile phone comprising easy-to-use emergency call system
US9590984B2 (en) 2014-06-04 2017-03-07 Grandios Technologies, Llc Smartphone fingerprint pass-through system
US9391988B2 (en) 2014-06-04 2016-07-12 Grandios Technologies, Llc Community biometric authentication on a smartphone
EP2977882A1 (de) * 2014-07-25 2016-01-27 Motorola Solutions, Inc. Verfahren und Vorrichtung zur Identifizierung welche Fingern eine Berührungsbildschirm anfasst
WO2016039529A1 (ko) * 2014-09-11 2016-03-17 삼성전자 주식회사 어플리케이션의 잠금 상태를 제어하는 방법 및 이를 지원하는 전자장치
KR102334263B1 (ko) 2014-11-18 2021-12-03 삼성전자주식회사 지문 센서를 구동하는 방법 및 전자 장치
US9741342B2 (en) * 2014-11-26 2017-08-22 Panasonic Intellectual Property Corporation Of America Method and apparatus for recognizing speech by lip reading
US9338627B1 (en) * 2015-01-28 2016-05-10 Arati P Singh Portable device for indicating emergency events
US10387704B2 (en) 2015-06-29 2019-08-20 Qualcomm Incorporated Method and apparatus for enabling the touchscreen display of a mobile device
KR102468314B1 (ko) 2015-10-21 2022-11-17 삼성전자주식회사 Ui 제공 방법 및 이를 수행하는 전자 장치
CN106681622A (zh) * 2015-11-11 2017-05-17 中兴通讯股份有限公司 一种紧急通信方法、装置和终端设备
CN105447358A (zh) * 2015-12-04 2016-03-30 小米科技有限责任公司 设置密码的方法及装置
CN105657159A (zh) * 2015-12-22 2016-06-08 广东小天才科技有限公司 拨号方法、装置及终端设备
WO2017127846A1 (en) 2016-01-22 2017-07-27 Abdelmoneum Mahmoud Remote fingerprinting sensor
US10007343B2 (en) * 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
US10236541B2 (en) * 2016-08-31 2019-03-19 GM Global Technology Operations LLC Battery cell testing fixture
JP6123940B1 (ja) 2016-09-28 2017-05-10 富士ゼロックス株式会社 画像形成装置
CN106550118A (zh) 2016-10-17 2017-03-29 惠州Tcl移动通信有限公司 一种移动终端基于指纹识别的紧急求救方法及系统
WO2018132273A1 (en) * 2016-12-30 2018-07-19 Harman International Industries, Incorporated Voice recognition system
CN107045604A (zh) * 2017-02-22 2017-08-15 北京小米移动软件有限公司 信息处理方法及装置
US10367159B2 (en) * 2017-09-27 2019-07-30 Wuhan China Star Optoelectronics Semiconductor Display Technology Co., Ltd. Organic light-emitting device and organic light-emitting display apparatus
CN107862194B (zh) * 2017-11-22 2019-10-18 维沃移动通信有限公司 一种安全验证的方法、装置及移动终端

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2226741A (en) * 1938-10-24 1940-12-31 Oliver W Randolph Hammer mill
EP1717677B1 (de) 1998-01-26 2015-06-17 Apple Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingabeverfahren und Vorrichtung zur Integration von manuellen Eingaben
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7697729B2 (en) 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
JPWO2005106639A1 (ja) * 2004-04-30 2008-03-21 株式会社ディー・ディー・エス 操作入力装置及び操作入力プログラム
JP2007302089A (ja) * 2006-05-10 2007-11-22 Denso Corp 車両セキュリティシステム
US9235733B2 (en) 2006-08-11 2016-01-12 J. Douglas Birdwell Mobile biometrics information collection and identification
US8023700B2 (en) 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
CN101572107A (zh) * 2008-04-28 2009-11-04 卓然公司 单一通用输入/输出(gpio)管脚的电动机控制电路
TWI418764B (zh) * 2008-12-19 2013-12-11 Wistron Corp 指紋導航方法、建立指紋與導航目的地之連結的方法,及導航裝置
US20100192096A1 (en) * 2009-01-27 2010-07-29 Sony Corporation Biometrics based menu privileges
KR101549556B1 (ko) 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US20100237991A1 (en) 2009-03-17 2010-09-23 Prabhu Krishnanand Biometric scanning arrangement and methods thereof
KR101549558B1 (ko) 2009-03-18 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
WO2010149224A1 (en) 2009-06-26 2010-12-29 Nokia Corporation Method, apparatus and computer program code handling a user input
US8984596B2 (en) 2009-09-30 2015-03-17 Authentec, Inc. Electronic device for displaying a plurality of web links based upon finger authentication and associated methods
US8862092B2 (en) 2010-06-25 2014-10-14 Emergensee, Inc. Emergency notification system for mobile devices
US9201539B2 (en) * 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
US20130173925A1 (en) * 2011-12-28 2013-07-04 Ester Yen Systems and Methods for Fingerprint-Based Operations
US9710092B2 (en) 2012-06-29 2017-07-18 Apple Inc. Biometric initiated communication

Also Published As

Publication number Publication date
US9710092B2 (en) 2017-07-18
US10359876B2 (en) 2019-07-23
DE112013003261B4 (de) 2018-07-12
CN104335561B (zh) 2017-11-07
AU2013280438A1 (en) 2014-12-04
CN104335561A (zh) 2015-02-04
AU2013280438B2 (en) 2016-04-21
WO2014004631A1 (en) 2014-01-03
US20170315651A1 (en) 2017-11-02
US20140002388A1 (en) 2014-01-02

Similar Documents

Publication Publication Date Title
DE112013003261B4 (de) Biometrisch initiierte Kommunikation
DE112013003258T5 (de) Anmeldung unter Verwendung eines synthetischen Fingerabdruckbildes und Fingerabdruck-Erfassungssystems
US11829720B2 (en) Analysis and validation of language models
US9819676B2 (en) Biometric capture for unauthorized user identification
US10372962B2 (en) Zero fingerprint enrollment system for an electronic device
DE202016001214U1 (de) Benutzerschnittstelle für Zahlungen
US20160054907A1 (en) Brightness Adjustment Method and Device and Electronic Device
WO2014004210A1 (en) Fingerprint enrollment using partial fingerprints
CN105164714A (zh) 用户终端装置及其控制方法
DE102014114412B4 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
DE112006003515T5 (de) Entsperren einer Vorrichtung durch Ausführen von Gesten auf einem Entsperrungsbild
DE202012007707U1 (de) Vorrichtung zum Vorsehen einer Benutzerschnittstelle auf einer Vorrichtung, die Inhalt-Operatoren anzeigt
US20140004828A1 (en) Biometric Receipt
DE112016002384T5 (de) Hilfsschicht mit automatisierter Extraktion
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
CN105068735B (zh) 用户界面布局的调整方法及装置
DE112019000018T5 (de) Anheben, um zu sprechen
CN104199608B (zh) 在触摸终端上快速开启记录的方法及触摸终端
US9715584B2 (en) Biometric receipt
CN114779977A (zh) 界面显示方法、装置、电子设备及存储介质
CN110110102B (zh) 一种思维导图幻灯片播放方法及装置
CN107765980A (zh) 输入方法及装置、终端设备和计算机可读存储介质
CN106778125A (zh) 解锁方法、装置和设备
CN113347478B (zh) 显示方法和显示装置
CN106919302A (zh) 移动终端的操作控制方法及装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final