BR112014028774B1 - Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações - Google Patents

Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações Download PDF

Info

Publication number
BR112014028774B1
BR112014028774B1 BR112014028774-0A BR112014028774A BR112014028774B1 BR 112014028774 B1 BR112014028774 B1 BR 112014028774B1 BR 112014028774 A BR112014028774 A BR 112014028774A BR 112014028774 B1 BR112014028774 B1 BR 112014028774B1
Authority
BR
Brazil
Prior art keywords
fingerprint
display
user interface
fingerprint sensor
respective application
Prior art date
Application number
BR112014028774-0A
Other languages
English (en)
Other versions
BR112014028774A2 (pt
Inventor
Benjamin J. Pope
Daniel W. Jarvis
Nicholas G. Merz
Scott A. Myers
Michael A. Cretella
Michael Eng
James H. Foster
Terry L. Gilton
Myra Haggerty
Byron B. Han
M. Evans Hankey
Steven P. Hotelling
Brian R. Land
Stephen Brian Lynch
Paul Meade
Mushtaq A. Sarwar
John P. Ternus
Paul M. Thompson
Marcel van Os
John A. Wright
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of BR112014028774A2 publication Critical patent/BR112014028774A2/pt
Publication of BR112014028774B1 publication Critical patent/BR112014028774B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

MÉTODO, DISPOSITIVO ELETRÔNICO, MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR E APARELHO DE PROCESSAMENTO DE INFORMAÇÕES. A presente invenção refere-se a um dispositivo eletrônico (300, 700) com um visor (112, 450, 502) e um sensor de impressão digital (1002) que exibe, no visor (112, 450, 502), uma primeira interface de usuário. Durante a exibição da primeira interface de usuário no visor (112, 450, 502), o dispositivo detecta o movimento de uma impressão digital no sensor de impressão digital (1002). Em resposta à detecção do movimento da impressão digital no sensor de impressão digital (1002), de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção, o dispositivo navega através da primeira interface de usuário e, de acordo com uma determinação de que o movimento da impressão digital está em uma segunda direção diferente da primeira direção, o dispositivo exibe uma segunda interface de usuário diferente da primeira interface de usuário no visor (112, 450, 502).

Description

PEDIDOS RELACIONADOS
[0001] Este pedido reivindica prioridade ao Pedido de Patente Provisório no de série U.S. 61/794.710, depositado no dia 15 de março de 2013, intitulado "Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs"; ao Pedido de Patente Provisório no U.S. 61/667.926, depositado no dia 3 de julho de 2012, intitulado "Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs"; ao Pedido de Patente Provisório no U.S. 61/649.207, depositado no dia 18 de maio de 2012, intitulado "Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs", cujos pedidos são incorporados a título de referência no presente documento em suas totalidades.
CAMPO DA TÉCNICA
[0002] Isto se refere, de modo geral, a dispositivos eletrônicos com sensores de impressão digital, incluindo, porém sem limitação, dispositivos eletrônicos com sensores de impressão digital que detectam entradas para manipular as interfaces de usuário.
ANTECEDENTES DA INVENÇÃO
[0003] O uso de superfícies sensíveis ao toque como dispositivos de entrada para computadores e outros dispositivos de computação eletrônicos tem aumentado significativamente nos últimos anos. As superfícies sensíveis ao toque exemplificativas incluem tanto touchpads quanto visores de tela sensível ao toque. Tais superfícies são amplamente utilizadas para manipular os objetos de interface de usuário em um visor. Adicionalmente, alguns dispositivos eletrônicos inclu- em sensores de impressão digital para autenticação de usuários.
[0004] As manipulações exemplificativas incluem ajustar a posição e/ou tamanho de um ou mais objetos de interface de usuário ou ativar botões ou abrir arquivos/aplicativos representados por objetos de interface de usuário, assim como associar metadados a um ou mais objetos de interface de usuário ou manipular de outra maneira interfaces de usuário. Os objetos de interface de usuário exemplificativos incluem imagens digitais, vídeo, texto, ícones, elementos de controle tais como botões e outros gráficos. Um usuário precisará realizar, em algumas circunstâncias, tais manipulações em objetos de interface de usuário em um programa de gerenciamento de arquivo (por exemplo, Finder junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de gerenciamento de imagem (por exemplo, Aperture ou iPhoto junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de gerenciamento de conteúdo digital (por exemplo, vídeos e música) (por exemplo, iTunes junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de desenho, um aplicativo de apresentação (por exemplo, Keynote junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de processamento de palavras (por exemplo, Pages junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de criação de site da web (por exemplo, iWeb junto à Apple Inc. de Cupertino, Califórnia), um aplicativo de autoria de disco (por exemplo, iDVD junto à Apple Inc. de Cupertino, Califórnia) ou um aplicativo de planilha eletrônica (por exemplo, Numbers junto à Apple Inc. de Cupertino, Califórnia).
[0005] Mas os métodos para realizar essas manipulações são complexos e ineficazes. Adicionalmente, esses métodos levam mais tempo do que o necessário, desperdiçando assim energia. Essa última consideração é particularmente importante em dispositivos operados por bateria.
SUMÁRIO
[0006] Consequentemente, há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para manipular interfaces de usuário. Tais métodos e interfaces complementam ou substituem opcionalmente métodos convencionais para manipular interfaces de usuário. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[0007] As deficiências acima e outros problemas associados às interfaces de usuário para dispositivos eletrônicos com superfícies sensíveis ao toque são reduzidos ou eliminados pelos dispositivos revelados. Em algumas modalidades, o dispositivo é um computador de mesa. Em algumas modalidades, o dispositivo é portátil (por exemplo, um computador do tipo notebook, computador do tipo tablet ou dispositivo de mão). Em algumas modalidades, o dispositivo tem um touchpad. Em algumas modalidades, o dispositivo tem um visor sensível ao toque (também conhecido como uma "tela sensível ao toque" ou "visor de tela sensível ao toque"). Em algumas modalidades, o dispositivo tem um sensor de impressão digital. Em algumas modalidades, o dispositivo tem uma interface de usuário gráfica (GUI), um ou mais processadores, memória e um ou mais módulos, programas ou conjuntos de instruções armazenados na memória para realizar múltiplas funções. Em algumas modalidades, o usuário interage com a GUI primariamente através de contados dos dedos e gestos na superfície sensível ao toque e/ou o sensor de impressão digital. Em algumas modalidades, as funções incluem opcionalmente edição de imagem, desenho, apresentação, processamento de palavra, criação de site da web, autoria de disco, formação de planilha eletrônica, jogos, telefonemas, videoconferência, envio de e-mails, mensagens instantâneas, apoio de atividade física, fotografia digital, gravação de vídeo digital, navegação na web, reprodução de música digital e/ou reprodução de vídeo digital. As instruções executáveis para realizar essas funções são opcionalmente incluídas em um meio de armazenamento legível por computador não transitório ou outro programa de computador configurado para a execução por um ou mais processadores.
[0008] De acordo com algumas modalidades, um dispositivo ele trônico inclui um sensor de impressão digital, um visor e/ou uma superfície sensível ao toque, um ou mais processadores, memória e um ou mais programas; os um ou mais programas são armazenados na memória e configurados para serem executados pelos um ou mais processadores e os um ou mais programas incluem instruções para realizar as operações de qualquer um dos métodos descritos acima. De acordo com algumas modalidades, uma interface de usuário gráfica em um dispositivo eletrônico com um sensor de impressão digital, um visor, opcionalmente uma superfície sensível ao toque, uma memória e um ou mais processadores para executar um ou mais programas armazenados na memória inclui um ou mais dos elementos exibidos em qualquer um dos métodos descritos acima, que são atualizados em resposta a entradas, conforme descrito em qualquer um dos métodos descritos acima. De acordo com algumas modalidades, um meio de armazenamento legível por computador tem armazenado no mesmo as instruções que quando executadas por um dispositivo eletrônico com um sensor de impressão digital e opcionalmente um visor e/ou uma superfície sensível ao toque fazem com que o dispositivo realize as operações de qualquer um dos métodos descritos acima. De acordo com algumas modalidades, um dispositivo eletrônico inclui: um sensor de impressão digital e, opcionalmente, um visor e/ou uma superfície sensível ao toque; e meios para realizar as operações de qualquer um dos métodos descritos acima. De acordo com algumas modalidades, um aparelho de processamento de informações para o uso em um dispositivo eletrônico com um sensor de impressão digital e opcionalmente um visor e/ou uma superfície sensível ao toque inclui meios para realizar as operações de qualquer um dos métodos descritos acima.
[0009] Há uma necessidade de dispositivos eletrônicos com méto dos e interfaces mais rápidos e mais eficazes para interagir convenientemente com interfaces de usuário (por exemplo, para navegar através de um aplicativo, para comutar de uma interface de aplicativo para outra ou para exibir uma interface de usuário multitarefa) em um dispositivo de múltiplas funções portátil. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para a interação com interfaces de usuário (por exemplo, para navegar através de uma interface de usuário de aplicativo, comutar entre interfaces de usuário de aplicativo ou para exibir uma interface de usuário multitarefa). Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface de humano-máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00010] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e um sensor de impressão digital. O método inclui: exibir, no visor, uma primeira interface de usuário. O método inclui adicionalmente, ao exibir a primeira interface de usuário no visor, detectar o movimento de uma impressão digital no sensor de impressão digital. O método também inclui em resposta à detecção de movimento da impressão digital no sensor de impressão digital: em concordância com uma determinação de que o movimento da impressão digital está em uma primeira direção, navegar através da primeira interface de usuário; e em concordância com uma determinação de que o movimento da impressão digital está em uma segunda direção deferente da primeira direção, exibir uma segunda interface de usuário diferente da primeira interface de usuário no visor.
[00011] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma primeira interface de usuário, uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de exibição e à unidade de sensor de impressão digital. Em algumas modalidades, a unidade de processamento inclui uma unidade de detecção, uma unidade de navegação, uma unidade de habilitação de exibição e uma unidade de substituição. A unidade de processamento é configurada para: Ao exibir a primeira interface de usuário no visor, detectar o movimento de uma impressão digital no sensor de impressão digital; e em resposta à detecção do movimento da impressão digital no sensor de impressão digital: em concordância com uma determinação de que o movimento da impressão digital está em uma primeira direção, navegar através da primeira interface de usuário; e em concordância com uma determinação de que o movimento da impressão digital está em uma segunda direção deferente da primeira direção, habilitar a exibição de uma segunda interface de usuário diferente da primeira interface de usuário na unidade de exibição.
[00012] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para comutar entre as interfaces de usuário, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para a comutação entre interfaces de usuário.
[00013] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes que têm botões que servem para múltiplos propósitos (por exemplo, permitindo que o botão, mediante a ativação, faça com que o dispositivo realize uma primeira operação ou, alternativamente, uma segunda operação diferente da primeira, dependendo de determinados critérios). Tais métodos e interfaces podem complementar ou substituir métodos convencionais para permitir que os botões sirvam para múltiplos propósitos. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface de humano-máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria. Para dispositivos de múltiplas funções portáteis, tais métodos e interfaces também conservam espaço físico valioso no alojamento do dispositivo, permitindo uma tela maior e uma experiência de uso melhor.
[00014] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um botão que inclui um sensor de impressão digital integrado. O método inclui: detectar uma impressão digital no sensor de impressão digital integrado. O método inclui adicionalmente, ao continuar a detectar a impressão digital no sensor de impressão digital integrado, detectar a ativação do botão. O método inclui adicionalmente, em resposta à detecção da ativação do botão e em concordância com uma determinação de que a impressão digital não foi continuamente detectada no sensor de impressão digital integrado por mais do que um período de tempo predeterminado antes detecção da ativação do botão, realizar uma primeira operação, em que a primeira operação é uma operação predefinida associada à ativação do botão. O método inclui adicionalmente, em resposta à detecção da ativação do botão e em concordância com uma determinação de que a impressão digital foi continuamente detectada no sensor de impressão digital integrado por mais do que um período de tempo predeterminado antes detecção da ativação do botão, realizar uma segunda operação diferente da primeira operação, em que a segunda operação é uma operação associada a uma interface de usuário exibida no visor imediatamente antes da detecção da ativação do botão.
[00015] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de botão com uma unidade de sensor de impressão digital integrada; e uma unidade de processamento acoplada à unidade de botão. A unidade de processamento é configurada para: detectar uma impressão digital na unidade de sensor de impressão digital integrada. A unidade de processamento é configurada adicionalmente para: Ao continuar a detectar a impressão digital na unidade de sensor de impressão digital integrada, detectar a ativação da unidade de botão. A unidade de processamento é configurada adicionalmente para: em resposta à detecção da ativação da unidade de botão e em concordância com uma determinação de que a impressão digital não foi continuamente detectada na unidade de sensor de im-pressão digital integrada por mais do que um período de tempo prede-terminado antes detecção da ativação da unidade de botão, realizar uma primeira operação, em que a primeira operação é uma operação predefinida associada à ativação da unidade de botão. A unidade de processamento é configurada adicionalmente para: em resposta à detecção da ativação da unidade de botão e em concordância com uma determinação de que a impressão digital foi continuamente detectada na unidade de sensor de impressão digital integrada por mais do que um período de tempo predeterminado antes detecção da ativação da unidade de botão, realizar uma segunda operação diferente da primeira operação, em que a segunda operação é uma operação associada a uma interface de usuário exibida na unidade de exibição imediatamente antes da detecção da ativação da unidade de botão.
[00016] Assim, os dispositivos eletrônicos com botões com sensores de impressão digital integrados são dotados de métodos e interfaces mais rápidos e mais eficazes para permitir que os ditos botões sir- vam para múltiplos propósitos, aumentando assim a eficiência, eficácia e satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para permitir que os botões sirvam para múltiplos propósitos.
[00017] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para travar uma orientação de uma interface de usuário. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para travar uma orientação de uma interface de usuário. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface de humano-máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam energia e aumentam o tempo entre as cargas de bateria.
[00018] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e um sensor de impressão digital. O método inclui: exibir uma interface de usuário no visor, em que a interface de usuário tem um primeiro modo de operação específico para orientação associado a uma primeira orientação do dispositivo e um segundo modo de operação específico para orientação que é associado a uma segunda orientação do dispositivo que é diferente da primeira orientação do dispositivo; enquanto a orientação da interface de usuário não está travada, exibir a interface de usuário no primeiro modo de operação específico para orientação quando o dispositivo está na primeira orientação e exibir a interface de usuário no segundo modo de operação específico para orientação quando o dispositivo está na segunda orientação; detectar uma impressão digital no sensor de impressão digital; enquanto a interface de usuário está no primeiro modo de operação específico para orientação, detectar a rotação da impressão digital no sensor de impressão digital em uma primeira direção; em resposta à detecção da rotação da impressão di gital no sensor de impressão digital na primeira direção, travar a interface de usuário no primeiro modo de operação específico para orientação; e enquanto a interface de usuário está travada no primeiro modo de operação específico para orientação, detectar que o dispositivo está na segunda orientação e manter a interface de usuário no primeiro modo de operação específico para orientação.
[00019] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma interface de usuário, em que a interface de usuário tem um primeiro modo de operação específico para orientação associado a uma primeira orientação do dispositivo e um segundo modo de operação específico para orientação que é associado a uma segunda orientação do dispositivo que é diferente da primeira orientação do dispositivo, uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de exibição e à unidade de sensor de impressão digital. A unidade de processamento é configurada para: enquanto a orientação da interface de usuário não está travada: habilitar a exibição da interface de usuário no primeiro modo de operação específico para orientação quando o dispositivo está na primeira orientação e habilitar a exibição da interface de usuário no segundo modo de operação específico para orientação quando o dispositivo está na segunda orientação; detectar uma impressão digital na unidade de sensor de impressão digital; enquanto a interface de usuário está no primeiro modo de operação específico para orientação, detectar a rotação da impressão digital na unidade de sensor de impressão digital em uma primeira direção; em resposta à detecção da rotação da impressão digital na unidade de sensor de impressão digital na primeira direção, travar a interface de usuário no primeiro modo de operação específico para orientação; e enquanto a interface de usuário está travada no primeiro modo de operação específico para orientação, detectar que o dispositivo está na segunda orientação e manter a interface de usuário no primeiro modo de operação específico para orientação.
[00020] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para travar uma orientação da interface de usuário, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para travar uma orientação da interface de usuário.
[00021] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes de para controlar a redução de ruído no áudio gravado com um sensor de impressão digital. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para controlar a redução de ruído no áudio gravado com um sensor de impressão digital. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00022] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um sensor de impressão digital. O método inclui gravar mídia com o dispositivo, em que a gravação da mídia inclui gravar um áudio. O método inclui adicionalmente, ao gravar a mídia, reduzir, no áudio gravado, o ruído que ocorre em um primeiro lado do dispositivo, detectar uma impressão digital no sensor de impressão digital e, em resposta à detecção da impressão digital no sensor de impressão digital, cessar a redução de ruído que ocorre no primeiro lado do dispositivo.
[00023] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de sensor de impressão digital configurada para detectar impressões digitais e uma unidade de processamento acoplada ao sensor de impressão digital. A unidade de processamento é configurada para gravar mídia com o dispositivo, em que a gravação da mídia inclui gravar um áudio. A unidade de processamento é adicionalmente configurada para, ao gravar a mídia, reduzir, no áudio gravado, o ruído que ocorre em um primeiro lado do dispositivo, detectar uma impressão digital na unidade de sensor de impressão digital e, em resposta à detecção da impressão digital na unidade de sensor de impressão digital, cessar a redução de ruído que ocorre no primeiro lado do dispositivo.
[00024] Assim, os dispositivos eletrônicos com sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para controlar a redução de ruído no áudio gravado com um sensor de impressão digital, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para controlar a redução de ruído no áudio gravado com um sensor de impressão digital.
[00025] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para realizar as operações que são adaptadas para um usuário atual do dispositivo. Tais métodos e interfaces podem complementar ou substituir métodos convencionais que são adaptados para um usuário atual do dispositivo. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00026] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor, um elemento de entrada respectivo e um sensor de impressão digital. O método inclui: obter uma pluralidade de perfis, em que a pluralidade de perfis inclui um ou mais perfis específicos para usuário e um ou mais perfis com base em classe, distintos dos perfis específicos para usuário, que correspondem, cada um, a uma classe respectiva de usuário; detectar uma primeira impressão digital no sensor de impressão digital; selecionar um ou mais perfis com base em classe associados ao dispositivo como perfis ativos que correspondem à primeira impressão digital sem considerar a autenticação da primeira impressão digital como uma impressão digital anteriormente registrada, incluindo, em concordância com uma determinação de que a primeira impressão digital corresponde a uma impressão digital de um usuário em uma primeira classe de usuários que são associados a um primeiro perfil com base em classe, selecionar o primeiro perfil com base em classe como um perfil ativo; receber uma entrada com o elemento de entrada respectivo, em que a entrada corresponde a uma solicitação para realizar uma ou mais operações no dispositivo; e em resposta ao recebimento da entrada com o elemento de entrada respectivo enquanto o primeiro perfil com base em classe está selecionado como um perfil ativo, realizar uma respectiva operação com base na solicitação e no primeiro perfil com base em classe.
[00027] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição, uma unidade de elemento de entrada respectivo, uma unidade de sensor de impressão digital e uma unidade de processamento acoplada à unidade de exibição, à unidade de elemento de entrada respectivo e à unidade de sensor de impressão digital. Em algumas modalidades, a unidade de processamento inclui uma unidade de obtenção, uma unidade de detecção, uma unidade de seleção, uma unidade de realização, uma unidade de determinação e uma unidade de identificação. A unidade de processamento é configurada para: obter uma pluralidade de perfis, em que a plurali- dade de perfis inclui um ou mais perfis específicos para usuário e um ou mais perfis com base em classe, distintos dos perfis específicos para usuário, que correspondem, cada um, a uma classe respectiva de usuário; detectar uma primeira impressão digital na unidade de sensor de impressão digital; selecionar um ou mais perfis com base em classe associados ao dispositivo como perfis ativos que correspondem à primeira impressão digital sem considerar a autenticação da primeira impressão digital como uma impressão digital anteriormente registrada, incluindo, em concordância com uma determinação de que a primeira impressão digital corresponde a uma impressão digital de um usuário em uma primeira classe de usuários que são associados a um primeiro perfil com base em classe, selecionar o primeiro perfil com base em classe como um perfil ativo; receber uma entrada com a unidade de elemento de entrada respectivo, em que a entrada corresponde a uma solicitação para realizar uma ou mais operações no dispositivo; e em resposta ao recebimento da entrada com a unidade de elemento de entrada respectivo enquanto o primeiro perfil com base em classe está selecionado como um perfil ativo, realizar uma respectiva operação com base na solicitação e no primeiro perfil com base em classe.
[00028] Assim, dispositivos eletrônicos com visores, elementos de entrada respectivos e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para realizar as operações que são adaptadas para um usuário atual do dispositivo, aumentando assim a eficiência, eficácia e satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para realizar operações com base em um perfil com base em classe.
[00029] Há uma necessidade de dispositivos eletrônicos métodos e interfaces mais rápidos e mais eficazes para alterar as preferências de com base em impressões digitais. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para alterar as pre-ferências de registro. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria. Para dispositivos de múltiplas funções portáteis, tais métodos e interfaces permitem que dispositivos perdidos ou furtados sejam mais facilmente recuperados.
[00030] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor, um elemento de entrada respectivo e um sensor de impressão digital. O método inclui: detectar uma primeira impressão digital no sensor de impressão digital e determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo. O método inclui adicionalmente, após determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo e em concordância com uma determinação de que a primeira impressão digital é associada a um perfil de usuário respectivo associado ao dispositivo, definir o perfil de usuário respectivo como um perfil ativo. O método inclui adicionalmente, após determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo e em concordância com uma determinação de que a primeira impressão digital não é associada a qualquer perfil de usuário associado ao dispositivo, definir um perfil padrão como um perfil ativo. O método inclui adicionalmente, receber uma entrada com o elemento de entrada respectivo, em que a entrada corresponde a uma solicitação para realizar uma operação solicitada. O método inclui adicionalmente, em resposta ao recebimento da entrada com o elemento de entrada respectivo e em concordância com uma determinação de que o perfil de usuário respectivo é o perfil ativo, realizar um primeiro conjunto de uma ou mais operações associadas à operação solicitada em concordância com as preferências de registro do perfil de usuário respectivo. O método inclui adicionalmente, em resposta ao recebimento da entrada com o elemento de entrada respectivo e em concordância com uma determinação de que o perfil de usuário respectivo é o perfil ativo, em concordância com uma determinação de que o perfil padrão é o perfil ativo, realizar um segundo conjunto de uma ou mais operações associadas à operação solicitada em concordância com as preferências de registro do perfil padrão.
[00031] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de entrada respectiva configurada para receber uma entrada, em que a entrada corresponde a uma solicitação de realizar uma operação solicitada; uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de sensor de impressão digital e à unidade de entrada respectiva, sendo que a unidade de processamento é configurada para: detectar uma primeira impressão digital na unidade de sensor de impressão digital e determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo. A unidade de processamento é adicionalmente configurada para, após a determinação de se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo: em concordância com uma determinação de que a primeira impressão digital é associada a um perfil de usuário respectivo associado ao dispositivo, definir o perfil de usuário respectivo como um perfil ativo; e em concordância com uma determinação de que a primeira impressão digital não é associada a qualquer perfil de usuário associado ao dispositivo, definir um perfil padrão como um perfil ativo. A unidade de processamento é adicionalmente configurada para, em resposta ao recebimento da entrada com a unidade de entrada respectiva: em concordância com uma determinação de que o perfil de usuário respectivo é o perfil ativo, realizar um primeiro conjunto de uma ou mais operações associadas à operação solicitada em concordância com as preferências de registro do perfil de usuário respectivo; e em concordância com uma determinação de que o perfil padrão é o perfil ativo, realizar um segundo conjunto de operações associadas à operação solicitada em concordância com as preferências de registro do perfil padrão.
[00032] Assim, os dispositivos eletrônicos com elementos de entrada e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para alterar as preferências de registro com base em impressões digitais, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para alterar as preferências de registro.
[00033] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para realizar uma operação restrita respectiva com base nas informações de verificação de impressão digital (por exemplo, quando as informações de verificação de impressão digital satisfazem os critérios de autorização para a operação restrita respectiva). Tais métodos e interfaces podem complementar ou substituir métodos convencionais para realizar a operação restrita respectiva baseada. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00034] De acordo com algumas modalidades, um método inclui obter os critérios de verificação de impressão digital para controlar a verificação de impressões digitais. Para cada uma dentre uma pluralidade de entradas respectivas que correspondem a operações restritas respectivas, o método inclui adicionalmente identificar as característi- cas de impressão digital da entrada respectiva e determinar as informações de verificação de impressão digital para entrada respectiva com base pelo menos em parte em: uma comparação entre as características de impressão digital da entrada respectiva e características de impressão digital de uma ou mais impressões digitais anteriormente registradas; e os critérios de verificação de impressão digital. Finalmente, em resposta à detecção da entrada respectiva, o método inclui: em concordância com uma determinação de que as informações de verificação de impressão digital satisfazem os critérios de autorização respectivos para a operação restrita respectiva, realizar a operação restrita respectiva; e em concordância com uma determinação de que as informações de verificação de impressão digital não satisfazem os critérios de autorização respectivos para a operação restrita, renunciar a realização da operação restrita respectiva.
[00035] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir informações; uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de exibição e à unidade de sensor de impressão digital. A unidade de processamento é configurada para obter os critérios de verificação de impressão digital para controlar a verificação de impressões digitais. Para cada uma dentre uma pluralidade de entradas respectivas que corresponde a operações restritas respectivas, a unidade de processamento é adicionalmente configurada para identificar as características de impressão digital da entrada respectiva e determinar as informações de verificação de impressão digital para a entrada respectiva com base pelo menos em parte em: uma comparação entre as características de impressão digital da entrada respectiva e características de impressão digital de uma ou mais impressões digitais anteriormente registradas; e os critérios de verificação de impressão digital. Finalmente, em resposta à detecção da entrada respectiva, a unidade de processamento é configurada para: em concordância com uma determinação de que as informações de verificação de impressão digital satisfazem os critérios de autorização respectivos para a operação restrita respectiva, realizar a operação restrita respectiva; e em concordância com uma determinação de que as informações de verificação de impressão digital não satisfazem os critérios de autorização respectivos para a operação restrita, renunciar a realização da operação restrita respectiva.
[00036] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para realizar a operação restrita respectiva com base nas informações de verificação de impressão digital, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para realizar a operação restrita respectiva.
[00037] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para associar as informações de localização e identidade. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para associar as informações de localização e identidade. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00038] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e um sensor de impressão digital. O método inclui exibir um mapa no visor e detectar uma entrada de ativação. A entrada de ativação é associada a uma localização exibida no mapa que corresponde a uma localização geográfica respectiva e uma impressão digital detectada no sensor de im- pressão digital. O método inclui adicionalmente, em resposta à detecção da entrada de ativação, identificar um usuário que corresponde à impressão digital e realizar uma operação associada à localização geográfica respectiva e ao usuário.
[00039] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir um mapa; uma unidade de sensor de impressão digital configurada para detectar uma impressão digital e uma unidade de processamento acoplada à unidade de exibição e à unidade de sensor de impressão digital. Em algumas modalidades, a unidade de exibição é uma unidade de visor sensível ao toque e a unidade de sensor de impressão digital detecta as impressões digitais na unidade de visor sensível ao toque. A unidade de processamento é configurada para: detectar uma entrada de ativação, sendo que a entrada de ativação é associada a: uma localização exibida no mapa que corresponde a uma localização geográfica respectiva e uma impressão digital detectada na unidade de sensor de impressão digital; e, em resposta à detecção da entrada de ativação: identificar um usuário que corresponde à impressão digital e realizar uma operação associada à localização geográfica respectiva e ao usuário.
[00040] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para associar as informações de localização e identidade, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para associar as informações de localização e identidade.
[00041] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para habilitar um ou mais usuário a criar e definir seu próprio espaço de trabalho ou área de trabalho pessoal. Consequentemente, as modalidades reveladas fornecem métodos para designar espaços de trabalho respectivos a um ou mais usuários com base em uma detecção das impressões digitais dos usuários nos contatos que o usuário coloca na superfície sensível ao toque para definir os limites de um espaço de trabalho respectivo dentro de um espaço de trabalho compartilhado maior em um dispositivo de múltiplas funções e para associar seu espaço de trabalho respectivo a suas definições de usuário personalizadas respectivas com base em suas preferências individuais. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para designar espaços de trabalho a um ou mais usuários. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos opera-dos por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00042] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor, uma superfície sensível ao toque e um sensor de impressão digital. O método inclui: detectar um primeiro conjunto de uma ou mais entradas na superfície sensível ao toque que definem uma primeira área da superfície sensível ao toque. O método inclui adicionalmente, após detectar o primeiro conjunto de uma ou mais entradas: determinar que o primeiro conjunto de uma ou mais entradas inclui um primeiro contato que inclui uma primeira impressão digital associada a um primeiro usuário; e associar a primeira área da superfície sensível ao toque ao primeiro usuário com base pelo menos em parte na determinação de que o primeiro conjunto de uma ou mais entradas inclui o primeiro contato que inclui a primeira impressão digital associada ao primeiro usuário.
[00043] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir um ou mais objetos de interface de usuário, uma unidade de superfície sensível ao toque configurada para receber um contato na unidade de superfície sensível ao toque, uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de exibição, à unidade de superfície sensível ao toque e à unidade de sensor de impressão digital. A unidade de processamento é configurada para: detectar um primeiro conjunto de uma ou mais entradas na unidade de superfície sensível ao toque que definem uma primeira área da unidade de superfície sensível ao toque; e após detectar o primeiro conjunto de uma ou mais entradas: determinar que o primeiro conjunto de uma ou mais entradas inclui um primeiro contato que inclui uma primeira impressão digital associada a um primeiro usuário; e associar a primeira área da unidade de superfície sensível ao toque ao primeiro usuário com base pelo menos em parte na determinação de que o primeiro conjunto de uma ou mais entradas inclui o primeiro contato que inclui a primeira impressão digital associada ao primeiro usuário.
[00044] Assim, os dispositivos eletrônicos com visores, superfícies sensíveis ao toque e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para associar áreas de uma superfície sensível ao toque a um ou mais usuários, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para designar espaços de trabalho a um ou mais usuários.
[00045] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para treinar um usuário em técnicas de movimentação de dedos apropriadas utilizadas, por exemplo, ao digitar em um teclado de computador ou pressionar uma tecla em um teclado musical (por exemplo, ao tocar um piano). Tais métodos e interfaces podem complementar ou substituir métodos con- vencionais para treinar um usuário em técnicas de movimentação de dedos apropriadas. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00046] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e uma superfície sensível ao toque. O método inclui: exibir uma interface de usuário que inclui um objeto de interface de usuário ativável respectivo e detectar um padrão de impressão digital de um contato na superfície sensível ao toque que corresponde a um seletor de foco que está sobre o objeto de interface de usuário ativável respectivo no visor. O método também inclui, em resposta à detecção do padrão de impressão digital do contato na superfície sensível ao toque que corresponde ao seletor de foco que está sobre o objeto de interface de usuário ativável respectivo no visor: analisar o padrão de impressão digital do contato na superfície sensível ao toque para determinar uma ou mais características de movimentação de dedos do contato e determinar se o contato satisfaz os critérios de movimentação de dedos preferenciais predefinidos com base nas uma ou mais características de movimentação de dedos. O método inclui adicionalmente, em concordância com uma determinação de que o contato não satisfaz os critérios de movimentação de dedos preferenciais, fornecer retroalimentação indicando que os critérios de movimentação de dedos preferenciais não foram satisfeitos e, em concordância com uma determinação de que o contato satisfaz os critérios de movimentação de dedos preferenciais, realizar uma operação associada ao objeto de interface de usuário ativável.
[00047] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma in terface de usuário, uma unidade de superfície sensível ao toque configurada para receber contatos de usuário e uma unidade de processamento acoplada à unidade de exibição e à unidade de superfície sensível ao toque. A unidade de processamento configurada para habilitar a exibição de uma interface de usuário que inclui um objeto de interface de usuário ativável respectivo e para detectar um padrão de impressão digital de um contato na unidade de superfície sensível ao toque que corresponde a um seletor de foco que está sobre o objeto de interface de usuário ativável respectivo na unidade de exibição. A unidade de processamento é também configurada para, em resposta à detecção do padrão de impressão digital do contato na unidade de superfície sensível ao toque que corresponde ao seletor de foco que está sobre o objeto de interface de usuário ativável respectivo na unidade de exibição, analisar o padrão de impressão digital do contato na unidade de superfície sensível ao toque para determinar uma ou mais características de movimentação de dedos do contato e determinar se o contato satisfaz os critérios de movimentação de dedos preferenciais predefinidos com base nas uma ou mais características de movimentação de dedos. A unidade de processamento é adicionalmente configurada para, em concordância com uma determinação de que o contato não satisfaz os critérios de movimentação de dedos preferenciais, fornecer retroalimentação indicando que os critérios de movimentação de dedos preferenciais não foram satisfeitos e, em concordância com uma determinação de que o contato satisfaz os critérios de movimentação de dedos preferenciais, realizar uma operação associada ao objeto de interface de usuário ativável.
[00048] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para operar uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada. Tais métodos e interfaces podem comple- mentar ou substituir métodos convencionais para operar uma superfície sensível ao toque. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00049] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e uma superfície sensível ao toque. O método inclui: detectar um contato em uma primeira região da superfície sensível ao toque, em que a primeira região da superfície sensível ao toque está em um modo de operação com sensibilidade reduzida; em resposta à detecção do contato: determinar se o contato satisfaz um ou mais critérios de ativação de sensor de impressão digital; em concordância com uma determinação de que o contato satisfaz a impressão digital, operar a primeira região da superfície sensível ao toque em um modo de operação com sensibilidade intensificada; e em concordância com uma determinação de que o contato não satisfaz os critérios de ativação de sensor de impressão digital, continuar a operar a primeira região da superfície sensível ao toque no modo de operação com sensibilidade reduzida.
[00050] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição, uma unidade de superfície sensível ao toque configurada para receber contatos e uma unidade de processamento acoplada à unidade de exibição e à unidade de superfície sensível ao toque. A unidade de processamento é configurada para: detectar um contato em uma primeira região da unidade de superfície sensível ao toque, em que a primeira região da unidade de superfície sensível ao toque está em um modo de operação com sensibilidade reduzida; em resposta à detecção do contato: determinar se o contato satisfaz os critérios de ativação de sensor de impressão digital; em concordância com uma determinação de que o contato satisfaz os critérios de ativação de sensor de impressão digital, operar a primeira região da unidade de superfície sensível ao toque em um modo de operação com sensibilidade intensificada; e em concordância com uma determinação de que o contato não satisfaz os critérios de ativação de sensor de impressão digital, continuar a operar a primeira região da unidade de superfície sensível ao toque no modo de operação com sensibilidade reduzida.
[00051] Assim, os dispositivos eletrônicos com visores e superfícies sensíveis ao toque são dotados de métodos e interfaces mais rápidos e mais eficazes para operar uma superfície sensível ao toque através da operação de uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada, aumentando assim a eficiência, eficácia e satisfação de usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para operar uma superfície sensível ao toque.
[00052] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para realizar as operações específicas nos dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para realizar operações específicas nos dispositivos. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00053] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e uma superfície sensível ao toque. O método inclui: associar uma primeira impressão digital a uma primeira operação; exibir, no visor, uma interface de usuário respectiva que inclui possibilidades para realizar uma pluralidade de operações diferentes da primeira operação; ao exibir a interface de usuário respectiva que inclui possibilidades para realizar uma pluralidade de operações diferentes da primeira operação, detectar um primeiro gesto que inclui detectar a primeira impressão digital na superfície sensível ao toque; e em resposta à detecção do primeiro gesto, realizar a primeira operação.
[00054] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma interface de usuário respectiva que inclui possibilidades para realizar uma pluralidade de operações diferentes de uma primeira operação, uma unidade de superfície sensível ao toque configurada para receber gestos e uma unidade de processamento acoplada à unidade de exibição e à unidade de superfície sensível ao toque. A unidade de processamento é configurada para: associar uma primeira impressão digital à primeira operação; ao habilitar a exibição da interface de usuário respectiva que inclui possibilidades para realizar a pluralidade de operações diferentes da primeira operação, detectar um primeiro gesto que inclui detectar uma primeira impressão digital na unidade de superfície sensível ao toque; e em resposta à detecção do primeiro gesto, realizar a primeira operação.
[00055] Assim, os dispositivos eletrônicos com visores, superfícies sensíveis ao toque e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para realizar operações associadas a gestos de impressão digital, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para realizar operações associadas a gestos de impressão digital.
[00056] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para exibir um controle respectivo para uma interface de usuário. Tais métodos e interfaces reduzem a carga cognitiva em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00057] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor, uma superfície sensível ao toque e um sensor de impressão digital. O método inclui exibir uma interface de usuário no visor. O método inclui adicionalmente detectar uma primeira impressão digital associada ao movimento de um controle respectivo para a interface de usuário na superfície sensível ao toque, em que a primeira impressão digital corresponde a um sele- tor de foco em uma primeira localização no visor que não inclui o controle respectivo. Em resposta à detecção da primeira impressão digital, o método inclui exibir o controle respectivo na primeira localização do visor.
[00058] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma interface de usuário, uma unidade de superfície sensível ao toque configurada para receber um ou mais contatos; uma unidade de sensor de impressão digital; e uma unidade de processamento acoplada à unidade de exibição, à unidade de superfície sensível ao toque e à unidade de sensor de impressão digital. A unidade de processamento é configurada para: detectar uma primeira impressão digital associada ao movimento de um controle respectivo para a interface de usuário na unidade de superfície sensível ao toque, em que a primeira impressão digital corresponde a um seletor de foco em uma primeira localização na unidade de exibição que não inclui o controle respectivo; e em resposta à detecção da primeira impressão digital, habilitar a exibição do controle respectivo na primeira localização na unidade de exibição.
[00059] Assim, os dispositivos eletrônicos com visores, superfícies sensíveis ao toque e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para exibir um controle respectivo para uma interface de usuário.
[00060] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para configurar um segundo dispositivo eletrônico como um visor auxiliar. Tais métodos e interfaces reduzem o fardo cognitivo em um usuário e produzem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00061] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e um sensor de impressão digital. O método inclui: detectar uma primeira impressão digital no sensor de impressão digital do primeiro dispositivo eletrônico em um primeiro instante, em que a primeira impressão digital é registrada a um usuário respectivo. O método também inclui receber uma comunicação de um segundo dispositivo eletrônico, distinto do primeiro dis- positivo eletrônico, que inclui informações que indicam que uma segunda impressão digital foi detectada em um sensor de impressão digital do segundo dispositivo em um segundo instante. O método inclui adicionalmente, em resposta à detecção da primeira impressão digital e ao recebimento da comunicação do segundo dispositivo eletrônico: determinar se os critérios de visor auxiliar predefinidos foram satisfeitos, em que os critérios de visor auxiliar incluem um critério que é satisfeito quando a segunda impressão digital é registrada para o usuário respectivo. O método inclui adicionalmente, em concordância com uma determinação de que os critérios de visor auxiliar são satisfeitos, enviar uma resposta ao segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico; e em concordância com uma determinação de que os critérios de visor auxiliar não são satisfeitos, renunciar o envio da resposta ao segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como o visor auxiliar para o primeiro dispositivo eletrônico.
[00062] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma primeira interface de usuário, uma unidade de sensor de impressão digital e uma unidade de processamento acoplada à unidade de exibição e à unidade de sensor de impressão digital. A unidade de processamento é configurada para detectar uma primeira impressão digital na unidade de sensor de impressão digital do primeiro dispositivo eletrônico em um primeiro instante, em que a primeira impressão digital é registrada para um usuário respectivo. A unidade de processamento é também configurada para receber uma comunicação de um segundo dispositivo eletrônico, distinto do primeiro dispositivo eletrônico, que inclui informações que indicam que uma segunda impressão digital foi detectada em uma unidade de sensor de impressão digital do segundo dispositivo em um segundo instante. A unidade de processamento é adicionalmente configurada, em resposta à detecção da primeira impressão digital e ao recebimento da comunicação do segundo dispositivo eletrônico, para determinar se os critérios de visor auxiliar predefi- nidos foram satisfeitos, em que os critérios de visor auxiliar incluem um critério que é satisfeito quando a segunda impressão digital é registrada para o usuário respectivo. A unidade de processamento é adicionalmente configurada para, em concordância com uma determinação de que os critérios de visor auxiliar são satisfeitos, enviar uma resposta ao segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico; e em concordância com uma determinação de que os critérios de visor auxiliar não são satisfeitos, renunciar o envio da resposta ao segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como o visor auxiliar para o primeiro dispositivo eletrônico.
[00063] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para configurar um dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para configurar um segundo dispositivo eletrônico como um visor auxiliar.
[00064] Há uma necessidade de dispositivos eletrônicos com métodos e interfaces mais rápidos e mais eficazes para alterar parâmetros de formação de feixe com base na orientação de impressão digital. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para alterar parâmetros de formação de feixe. Tais métodos e interfaces reduzem o fardo cognitivo em um usuário e produ- zem uma interface entre humano e máquina mais eficaz. Para dispositivos operados por bateria, tais métodos e interfaces conservam potência e aumentam o tempo entre as cargas de bateria.
[00065] De acordo com algumas modalidades, um método é realizado em um dispositivo eletrônico com um visor e um sensor de impressão digital. Embora uma primeira impressão digital seja detectada em uma primeira orientação no sensor de impressão digital, o método inclui operar um conjunto de um ou mais elementos de áudio em concordância com um primeiro conjunto de parâmetros de formação de feixe. O método inclui adicionalmente: detectar uma impressão digital subsequente que tem uma segunda orientação diferente da primeira orientação no sensor de impressão digital, em que a impressão digital subsequente é selecionada dentre um conjunto que consiste na primeira impressão digital com uma orientação alterada e uma segunda impressão digital distinta da primeira impressão digital; e em resposta à detecção da impressão digital subsequente que tem a segunda orientação no sensor de impressão digital, operar o conjunto de um ou mais elementos de áudio em concordância com um segundo conjunto de parâmetros de formação de feixe.
[00066] De acordo com algumas modalidades, um dispositivo eletrônico inclui uma unidade de exibição configurada para exibir informações; um sensor de impressão digital; um conjunto de uma ou mais unidades de áudio para gerar e/ou capturar sinais de áudio; e uma unidade de processamento acoplada à unidade de exibição, à unidade de sensor de impressão digital ao conjunto de uma ou mais unidades de áudio. Embora uma primeira impressão digital seja detectada em uma primeira orientação na unidade de sensor de impressão digital, a unidade de processamento é configurada para operar um conjunto de uma ou mais unidades de áudio em concordância com um primeiro conjunto de parâmetros de formação de feixe. A unidade de proces- samento é configurada adicionalmente para: detectar uma impressão digital subsequente que tem uma segunda orientação diferente da primeira orientação na unidade de sensor de impressão digital, em que a impressão digital subsequente é selecionada dentre um conjunto que consiste na primeira impressão digital com uma orientação alterada e uma segunda impressão digital distinta da primeira impressão digital; e em resposta à detecção da impressão digital subsequente que tem a segunda orientação na unidade de sensor de impressão digital, operar o conjunto de uma ou mais unidades de áudio em concordância com um segundo conjunto de parâmetros de formação de feixe diferente do primeiro conjunto de parâmetros de formação de feixe.
[00067] Assim, os dispositivos eletrônicos com visores e sensores de impressão digital são dotados de métodos e interfaces mais rápidos e mais eficazes para alterar parâmetros de formação de feixe com base na orientação de impressão digital, aumentando assim a eficiência, eficácia e a satisfação do usuário com tais dispositivos. Tais métodos e interfaces podem complementar ou substituir métodos convencionais para alterar parâmetros de formação de feixe.
BREVE DESCRIÇÃO DOS DESENHOS
[00068] Para um melhor entendimento das várias modalidades descritas, deve ser feita referência à Descrição das Modalidades abaixo, em combinação com os desenhos a seguir em que numerais de referência similares se referem a partes correspondentes por todas as Figuras.
[00069] A Figura 1 A é um diagrama de blocos que ilustra um dispositivo de múltiplas funções portátil com um visor sensível ao toque e um sensor de impressão digital de acordo com algumas modalidades.
[00070] A Figura 1B é um diagrama de blocos que ilustra componentes exemplificativos para manipulação de eventos de acordo com algumas modalidades.
[00071] A Figura 2 ilustra um dispositivo de múltiplas funções portátil que tem uma tela sensível ao toque e um sensor de impressão digital de acordo com algumas modalidades.
[00072] A Figura 3 é um diagrama de blocos de um dispositivo de múltiplas funções exemplificativo com um visor e uma pluralidade de sensores incluindo um sensor de impressão digital e, opcionalmente, uma superfície sensível ao toque de acordo com algumas modalidades.
[00073] A Figura 4A ilustra uma interface de usuário exemplificativa para um menu de aplicativos em um dispositivo de múltiplas funções portátil de acordo com algumas modalidades.
[00074] A Figura 4B ilustra uma interface de usuário exemplificativa para um dispositivo de múltiplas funções com um sensor de impressão digital e uma superfície sensível ao toque que é separada do visor de acordo com algumas modalidades.
[00075] A Figura 4C ilustra uma representação esquemática de duas mãos com impressões digitais associadas de acordo com algumas modalidades.
[00076] A Figura 4D ilustra diferentes tipos de rotação de uma impressão digital em um sensor de impressão digital de acordo com algumas modalidades.
[00077] As Figuras 5A a 5N ilustram interfaces de usuário exempli- ficativas para interagir com as interfaces de usuário em concordância com o movimento de um dedo em um sensor de impressão digital de acordo com algumas modalidades.
[00078] As Figuras 6A a 6C são fluxogramas que ilustram um método de interagir com interfaces de usuário em concordância com o movimento de um dedo em um sensor de impressão digital de acordo com algumas modalidades.
[00079] A Figura 7 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00080] As Figuras 8A a 8O ilustram interfaces de usuário exempli- ficativas para serem utilizadas em conjunto com botões de múltiplos propósitos de acordo com algumas modalidades.
[00081] As Figuras 9A a 9C são fluxogramas que ilustram um método para permitir um botão para servir a múltiplos propósitos de acordo com algumas modalidades.
[00082] A Figura 10 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00083] As Figuras 11A a 11F ilustram interfaces de usuário exem- plificativas para travar uma orientação de interface de usuário de acordo com algumas modalidades.
[00084] As Figuras 12A e 12B são fluxogramas que ilustram um método para travar uma orientação de interface de usuário de acordo com algumas modalidades.
[00085] A Figura 13 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00086] As Figuras 14A a 14D ilustram interfaces de usuário exem- plificativas para controlar a redução de ruído no áudio gravado com um sensor de impressão digital de acordo com algumas modalidades.
[00087] A Figura 15 é um fluxograma que ilustra um método para controlar a redução de ruído no áudio gravado com um sensor de impressão digital de acordo com algumas modalidades.
[00088] A Figura 16 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00089] As Figuras 17A a 17K ilustram interfaces de usuário exem- plificativas para realizar operações com base em um perfil com base em classe de acordo com algumas modalidades.
[00090] As Figuras 18A a 18B são fluxogramas que ilustram um método para realizar operações com base em um perfil com base em classe de acordo com algumas modalidades.
[00091] A Figura 19 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00092] As Figuras 20A a 20F ilustram interfaces de usuário exem- plificativas implantadas em dispositivos que alteram as preferências de registro com base nas impressões digitais.
[00093] As Figuras 21A a 21B são fluxogramas que ilustram um método para alterar as preferências de registro com base nas impressões digitais, de acordo com algumas modalidades.
[00094] A Figura 22 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00095] As Figuras 23A a 23G ilustram interfaces de usuário exem- plificativas para realizar uma operação restrita respectiva com base nas informações de verificação de impressão digital de acordo com algumas modalidades.
[00096] As Figuras 24A a 24D são fluxogramas que ilustram um método para realizar uma operação restrita respectiva com base nas informações de verificação de impressão digital de acordo com algumas modalidades.
[00097] A Figura 25 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[00098] As Figuras 26A a 26G ilustram interfaces de usuário exem- plificativas para associar as informações de localização e identidade de acordo com algumas modalidades.
[00099] A Figura 27 é um fluxograma que ilustra um método para associar as informações de localização e identidade de acordo com algumas modalidades.
[000100] A Figura 28 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000101] As Figuras 29A a 29S ilustram interfaces de usuário exem- plificativas para designar espaços de trabalho a um ou mais usuários de acordo com algumas modalidades.
[000102] As Figuras 30A e 30B são fluxogramas que ilustram um método para designar espaços de trabalho a um ou mais usuários de acordo com algumas modalidades.
[000103] A Figura 31 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000104] As Figuras 32A a 32S ilustram interfaces de usuário exem- plificativas para treinar um usuário em técnicas de movimentação de dedos apropriadas de acordo com algumas modalidades.
[000105] As Figuras 33A a 33C são fluxogramas que ilustram um método para treinar um usuário em técnicas de movimentação de dedos apropriadas de acordo com algumas modalidades.
[000106] A Figura 34 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000107] As Figuras 35A a 35J ilustram interfaces de usuário exem- plificativas para operar uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada de acordo com algumas modalidades.
[000108] As Figuras 36A e 36B são fluxogramas que ilustram um método para operar uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada de acordo com algumas modalidades.
[000109] A Figura 37 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000110] As Figuras 38A a 38P ilustram interfaces de usuário exem- plificativas para realizar operações associadas a gestos de impressão digital de acordo com algumas modalidades.
[000111] As Figuras 39A a 39E são fluxogramas que ilustram um método para realizar operações associadas a gestos de impressão digital de acordo com algumas modalidades.
[000112] A Figura 40 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000113] As Figuras 41A a 41K ilustram interfaces de usuário exem- plificativas para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo de acordo com algumas modalidades.
[000114] As Figuras 42A a 42C são fluxogramas que ilustram um método para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo de acordo com algumas modalidades.
[000115] A Figura 43 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000116] As Figuras 44A a 44EE ilustram interfaces de usuário exemplificativas para configurar um segundo dispositivo eletrônico como um visor auxiliar de acordo com algumas modalidades.
[000117] As Figuras 45A a 45D são fluxogramas que ilustram um método para configurar um segundo dispositivo eletrônico como um visor auxiliar de acordo com algumas modalidades.
[000118] A Figura 46 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
[000119] As Figuras 47A a 47L ilustram interfaces de usuário exem- plificativas para alterar parâmetros de formação de feixe com base na orientação de impressão digital de acordo com algumas modalidades.
[000120] As Figuras 48A e 48B são fluxogramas que ilustram um método para alterar parâmetros de formação de feixe com base na orientação de impressão digital de acordo com algumas modalidades.
[000121] A Figura 49 é um diagrama de blocos funcional de um dispositivo eletrônico de acordo com algumas modalidades.
DESCRIÇÃO DAS MODALIDADES
[000122] Os métodos, dispositivos e GUIs descritos no presente documento respondem a entradas em um sensor de impressão digital em vez de ou adicionalmente a entradas em uma superfície sensível ao toque ou outro dispositivo de entrada. Em algumas implantações, uma superfície sensível ao toque com uma resolução espacial que é alta o suficiente para detectar características de impressão digital formadas por cristas de impressão digital individual é utilizada como um sensor de impressão digital. Quando um sensor de impressão digital é utilizado sem uma superfície sensível ao toque separada, o sensor de impressão digital pode servir como um substituto para muitas das funções da superfície sensível ao toque com um fator de forma muito menor, conforme o sensor de impressão digital pode detectar o movimento de um contato sobre o sensor de impressão digital mesmo quando a impressão digital tem uma área que é tão grande quando ou maior do que a área do sensor de impressão digital. Quando um sensor de impressão digital é utilizado adicionalmente a uma superfície sensível ao toque separada, o sensor de impressão digital pode aumentar a superfície sensível ao toque fornecendo uma detecção precisa de movimentos espirais de um contato, identificando diferentes impressões digitais dos dedos que são utilizados para realizar gestos no sensor de impressão digital e identificando um usuário de corrente do dispositivo. Adicionalmente, quando um sensor de impressão digital é utilizado adicionalmente a um visor de tela sensível ao toque separado, o sensor de impressão digital pode detectar entradas de toque em situações em que é vantajoso evitar ter os dedos obscurecendo porções do visor (por exemplo, ao visualizar um mapa, um vídeo ou um jogo). Quando a superfície sensível ao toque é utilizada como um sensor de impressão digital, a superfície sensível ao toque tem opcionalmente definições de resolução espacial que podem ser definidas de modo a comutar a su- perfície sensível ao toque (ou regiões da superfície sensível ao toque) entre um modo de resolução baixa e um modo de resolução alta automaticamente, sem a intervenção de usuário. Em muitas situações, o modo de resolução baixa consume menos potência do que o modo de resolução alta. Uma vantagem de operar a superfície sensível ao toque em um modo de resolução baixa quando a detecção de impressão digital não é necessária e comutar a superfície sensível ao toque ou uma região da superfície sensível ao toque para o modo de alta resolução em uma base conforme necessário é que tal abordagem conserva potência enquanto ainda fornece sensoriamento de característica de impressão digital de alta resolução conforme necessário para melhorar a experiência de usuário de usar o dispositivo. Em implantações em que a superfície sensível ao toque é utilizada como um sensor de impressão digital, o termo "sensor de impressão digital" é utilizado para se referir à superfície sensível ao toque ou uma região da superfície sensível ao toque, que está atualmente no modo de resolução alta.
[000123] Várias abordagens diferentes para fornecer uma interface de usuário intuitiva em que entradas de um ou mais sensores de impressão digital são utilizadas para manipular uma interface de usuário de um dispositivo eletrônico conforme descrito abaixo. Usar uma ou mais dessas abordagens (opcionalmente em conjunto uma com a outra) ajuda a fornecer uma interface de usuário que fornece intuitivamente aos usuários informações e funcionalidade adicionais, reduzindo assim a carga cognitiva do usuário e aumentando a interface entre humano e máquina. Tais melhoras na interface entre humano e máquina habilitam usuários a usarem o dispositivo de modo mais rápido e mais eficaz. Para dispositivos operados por bateria, essas melhoras conservam potência e aumentam o tempo entre as cargas de bateria. Para facilitar a explicação, sistemas, métodos e interfaces de usuário para incluir exemplos ilustrativos de algumas dessas abordagens são descritos abaixo, conforme segue:
[000124] • Abaixo, as Figuras 5A a 5N ilustram interfaces de usuário exemplificativas para interagir com as interfaces de usuário em concordância com o movimento de um dedo em um sensor de impressão digital. • Abaixo, as Figuras 6A a 6C são fluxogramas que ilustram um método de interagir com interfaces de usuário em concordância com o movimento de um dedo em um sensor de impressão digital. As interfaces de usuário nas Figuras 5A a 5N são utilizadas para ilustrar os processos nas Figuras 6A a 6C.
[000125] • Abaixo, as Figuras 8A a 8O ilustram interfaces de usuário exemplificativas para permitir que os botões sirvam a múltiplos propósitos. As Figuras 9A a 9C são fluxogramas que ilustram um método para permitir que os botões sirvam a múltiplos propósitos. As interfaces de usuário nas Figuras 8A a 8O são utilizadas para ilustrar os processos nas Figuras 9A a 9C.
[000126] • Abaixo, as Figuras 11A a 11F ilustram interfaces de usuá rio exemplificativas para travar uma orientação de interface de usuário. As Figuras 12A e 12B são fluxogramas que ilustram um método para travar uma orientação de interface de usuário. As interfaces de usuário nas Figuras 11A a 11F são utilizadas para ilustrar os processos nas Figuras 12A e 12B.
[000127] • Abaixo, as Figuras 14A a 14D ilustram interfaces de usuá rio exemplificativas para controlar a redução de ruído no áudio gravado com um sensor de impressão digital. A Figura 15 é um fluxograma que ilustra um método para controlar a redução de ruído no áudio gravado com um sensor de impressão digital. As interfaces de usuário nas Figuras 14A a 14D são utilizadas para ilustrar os processos na Figura 15.
[000128] • Abaixo, as Figuras 17A a 17K ilustram interfaces de usuá rio exemplificativas para realizar operações com base em um perfil com base em classe. As Figuras 18A a 18B são fluxogramas que ilus- tram um método para realizar operações com base em um perfil com base em classe. As interfaces de usuário nas Figuras 17A a 17K são utilizadas para ilustrar os processos nas Figuras 18A e 18B.
[000129] • Abaixo, as Figuras 20A a 20F ilustram interfaces de usuá rio exemplificativas implantadas em dispositivos que alteram as preferências de registro com base nas impressões digitais. As Figuras 21A a 21B são fluxogramas que ilustram um método para alterar as preferências de registro com base nas impressões digitais. As interfaces de usuário nas Figuras 20A a 20F são utilizadas para ilustrar os processos nas Figuras 21A e 21B.
[000130] • Abaixo, as Figuras 23A a 23G ilustram interfaces de usuá rio exemplificativas para realizar uma operação restrita respectiva com base nas informações de verificação de impressão digital.
[000131] As Figuras 24A a 24D são fluxogramas que ilustram um método para realizar uma operação restrita respectiva com base nas informações de verificação de impressão digital. As interfaces de usuário nas Figuras 23A a 23G são utilizadas para ilustrar os processos nas Figuras 24A a 24D.
[000132] • Abaixo, as Figuras 26A a 26G ilustram interfaces de usuá rio exemplificativos para associar as informações de localização e identidade. A Figura 27 é um fluxograma que ilustra um método para associar as informações de localização e identidade. As interfaces de usuário nas Figuras 26A a 26G são utilizadas para ilustrar os processos na Figura 27.
[000133] • Abaixo, as Figuras 29A a 29S ilustram interfaces de usuário exemplificativas para associar áreas de uma superfície sensível ao toque a um ou mais usuários. As Figuras 30A e 30B são fluxogramas que ilustram um método para associar áreas de uma superfície sensível ao toque a um ou mais usuários. As interfaces de usuário nas Figuras 29A a 29S são utilizadas para ilustrar os processos nas Figuras 30A e 30B.
[000134] • Abaixo, as Figuras 32A a 32S ilustram interfaces de usuá rio exemplificativas para treinar um usuário em técnicas de movimentação de dedos apropriadas. As Figuras 33A a 33C são fluxogramas que ilustram um método para treinar um usuário em técnicas de movimentação de dedos apropriadas. As interfaces de usuário nas Figuras 32A a 32S são utilizadas para ilustrar os processos nas Figuras 33A a 33C.
[000135] • Abaixo, as Figuras 35A a 35J ilustram interfaces de usuá rio exemplificativas para operar uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada. As Figuras 36A e 36B são fluxogramas que ilustram um método para operar uma porção de uma superfície sensível ao toque em um modo de operação com sensibilidade intensificada. As interfaces de usuário nas Figuras 35A a 35J são utilizadas para ilustrar os processos nas Figuras 36A e 36B.
[000136] • Abaixo, as Figuras 38A a 38P ilustram interfaces de usuá rio exemplificativas para realizar operações associadas a gestos de impressão digital. As Figuras 39A a 39E são fluxogramas que ilustram um método para realizar operações associadas a gestos de impressão digital. As interfaces de usuário nas Figuras 38A a 38P são utilizadas para ilustrar os processos nas Figuras 39A a 39E.
[000137] • Abaixo, as Figuras 41A a 41K ilustram interfaces de usuá rio exemplificativas para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo. As Figuras 42A a 42C são fluxogramas que ilustram um método para exibir um controle respectivo para uma interface de usuário com base na detecção de uma primeira impressão digital associada ao movimento do controle respectivo. As interfaces de usuário nas Figuras 41A a 41K são utilizadas para ilustrar os processos nas Figuras 42A a 42C.
[000138] • Abaixo, as Figuras 44A a 44EE ilustram interfaces de usuário exemplificativas para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico. As Figuras 45A a 45D são fluxogramas que ilustram um método para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico. As interfaces de usuário nas Figuras 44A a 44EE são utilizadas para ilustrar os processos nas Figuras 45A a 45D.
[000139] • Abaixo, as Figuras 47A a 47L ilustram interfaces de usuá rio exemplificativas para alterar parâmetros de formação de feixe com base na orientação de impressão digital. As Figuras 48A e 48B são fluxogramas que ilustram um método para alterar parâmetros de formação de feixe com base na orientação de impressão digital. As interfaces de usuário nas Figuras 47A a 47L são utilizadas para ilustrar os processos nas Figuras 48A e 48B.
DISPOSITIVOS EXEMPLIFICATIVOS
[000140] Referência será feita agora em detalhes às modalidades, cujos exemplos são ilustrados nos desenhos anexos. Na descrição detalhada a seguir, vários detalhes específicos são estabelecidos a fim de fornecer um entendimento completo das várias modalidades descritas. Entretanto, será evidente a um versado na técnica que as várias modalidades descritas podem ser praticadas sem esses detalhes específicos. Em outras ocorrências, métodos, procedimentos, componentes, circuitos e redes bem conhecidos não foram descritos em detalhes de modo a não obscurecer desnecessariamente os aspectos das modalidades.
[000141] Será entendido também que, embora os termos primeiro, segundo, etc. sejam utilizados, em algumas ocorrências, no presente documento para descrever vários elementos, esses elementos não devem ser limitados por esses termos. Esses termos são somente uti- lizados para distinguir um elemento do outro. Por exemplo, um primeiro contato poderia ser chamado de um segundo contato e, similarmente, um segundo contato poderia ser chamado de um primeiro contato, sem se afastar do escopo das várias modalidades descritas. Tanto o primeiro contato quanto o segundo contato são contatos, mas os mesmos não são o mesmo contato.
[000142] A terminologia utilizada na descrição das várias modalidades descritas no presente documento é para o propósito de descrever modalidades particulares somente e não se destina a ser limitante. Conforme utilizado na descrição das várias modalidades descritas e nas concretizações, as formas no singular "um", "uma", "o" e "a" destinam-se a incluir as formas no plural também, a não ser que o contexto indique claramente de outra maneira. Também será entendido que o termo "e/ou" conforme utilizado no presente documento se refere a e abrange quaisquer e todas as combinações possíveis de um ou mais dos itens listados associados. Será adicionalmente entendido que os termos "inclui", "que inclui", "compreende" e/ou "que compreende", quando utilizados neste relatório descritivo, especificam a presença de recursos, números inteiros, etapas, operações, elementos e/ou componentes relatados, mas não elimina a presença ou adição de um ou mais outros recursos, números inteiros, etapas, operações, elementos, componentes e/ou grupos dos mesmos.
[000143] Conforme utilizado no presente documento, o termo "se" é opcionalmente interpretado para significar "quando" ou "mediante" ou "em resposta à determinação" ou "em resposta à detecção", dependendo do contexto. Similarmente, a frase "se for determinado" ou "se [uma condição ou evento declarado] for detectado" é opcionalmente interpretada para significar "mediante a determinação" ou "em resposta à determinação" ou "mediante a detecção [da condição ou evento declarado]" ou "em resposta à detecção [da condição ou evento decla- rado]", dependendo do contexto.
[000144] As modalidades de dispositivos eletrônicos, interfaces de usuário para tais dispositivos e processos associados para usar tais dispositivos são descritas. Em algumas modalidades, o dispositivo é um dispositivo de comunicações portátil, tal como um telefone móvel, que também contém outras funções, tal como funções de reprodutor de música e/ou PDA. As modalidades exemplificativas dos dispositivos de múltiplas funções portáteis incluem, sem limitação, os dispositivos iPhone®, iPod Touch® e iPad® junto à Apple Inc. de Cupertino, Califórnia. Outros dispositivos eletrônicos portáteis, tais como computadores do tipo laptops ou tablet com superfícies sensíveis ao toque (por exemplo, visores de tela sensível ao toque e/ou touchpads), são opcionalmente utilizados. Deve-se entender também que, em algumas modalidades, o dispositivo não é um dispositivo de comunicações portátil, mas é um computador de mesa com uma superfície sensível ao toque (por exemplo, um visor de tela sensível ao toque e/ou um touchpad).
[000145] Na discussão que segue, um dispositivo eletrônico que inclui um visor e uma superfície sensível ao toque é descrito. Deve-se entender, entretanto, que o dispositivo eletrônico inclui opcionalmente um ou mais outros dispositivos de interface de usuário físicos, tal como um teclado físico, um mouse e/ou um joystick.
[000146] O dispositivo suporta tipicamente uma variedade de aplicativos, tal como um ou mais dos seguintes: um aplicativo de desenho, um aplicativo de apresentação, um aplicativo de processamento de palavras, um aplicativo de criação de site da web, um aplicativo de autoria de disco, um aplicativo de planilha eletrônica, um aplicativo de jogos, um aplicativo de telefone, um aplicativo de videoconferência, um aplicativo de e-mail, um aplicativo de mensagens instantâneas, um aplicativo de apoio de atividade física, um aplicativo de gerenciamento de foto, um aplicativo de câmera digital, um aplicativo de câmera de vídeo digital, um aplicativo de navegação na web, um aplicativo reprodutor de música digital e/ou um aplicativo reprodutor de vídeo digital.
[000147] Os vários aplicativos que são executados no dispositivo op-cionalmente usam pelo menos um dispositivo de interface de usuário comum, tal como a superfície sensível ao toque. Uma ou mais funções da superfície sensível ao toque assim como as informações correspondentes exibidas no dispositivo são opcionalmente ajustadas e/ou variadas de um aplicativo para o próximo e/ou dentro de um aplicativo respectivo. Desse modo, uma arquitetura física comum (tal como a superfície sensível ao toque) do dispositivo opcionalmente suporta a variedade de aplicativos com interfaces de usuário que são intuitivos e transparentes ao usuário.
[000148] A atenção é direcionada agora para as modalidades de dispositivos portáteis com visores sensíveis ao toque. A Figura 1 A é um diagrama de blocos que ilustra o dispositivo de múltiplas funções portátil 100 com visores sensíveis ao toque 112 de acordo com algumas modalidades. O visor sensível ao toque 112 é algumas vezes chamado de uma "tela sensível ao toque" para conveniência e é algumas vezes conhecido como ou chamado de um sistema de exibição sensível ao toque. O dispositivo 100 inclui a memória 102 (que inclui opcionalmente um ou mais meios de armazenamento legíveis por computador), o controlador de memória 122, uma ou mais unidades de proces-samento (CPU's) 120, a interface de periféricos 118, o conjunto de circuitos RF 108, o conjunto de circuitos de áudio 110, o alto-falante 111, microfone 113, o subsistema de entrada/saída (I/O) 106, outros dispositivos de entrada ou controle 116 e a porta externa 124. O dispositivo 100 inclui opcionalmente um ou mais sensores ópticos 164. O dispositivo 100 inclui opcionalmente um ou mais sensores de intensidade 165 para detectar a intensidade dos contatos no dispositivo 100 (por exemplo, uma superfície sensível ao toque tal como o sistema de exibição sensível ao toque 112 do dispositivo 100). O dispositivo 100 inclui opcionalmente um ou mais geradores de saída tátil 167 para gerar saídas táteis no dispositivo 100 (por exemplo, gerando saídas táteis em uma superfície sensível ao toque tal como o sistema de exibição sensível ao toque 112 do dispositivo 100 ou touchpad 355 do dispositivo 300). Esses componentes se comunicam opcionalmente através de um ou mais barramentos de comunicação ou linhas de sinal 103.
[000149] Conforme utilizado no relatório descritivo e nas concretizações, o termo "intensidade" de um contato em uma superfície sensível ao toque se refere à força ou pressão (força por unidade de área) de um contato (por exemplo, um contato de dedo) na superfície sensível ao toque ou a um substituto (proxy) para a força ou pressão força ou pressão na superfície sensível ao toque. A intensidade de um contato tem uma faixa de valores que inclui pelo menos quatro valores distintos e inclui mais tipicamente centenas de valores distintos (por exemplo, pelo menos 256). A intensidade de um contato é opcionalmente determinada (ou medida) com o uso de várias abordagens e vários sensores ou combinações de sensores. Por exemplo, um ou mais sensores de força debaixo ou adjacentes à superfície sensível ao to-que são opcionalmente utilizados para medir a força em vários pontos na superfície sensível ao toque. Em algumas implantações, as medidas de força de múltiplos sensores de força são combinadas (por exemplo, uma média ponderada) para determinar uma força estimada de um contato. Similarmente, uma ponta sensível à pressão de uma caneta é opcionalmente utilizada para determinar uma pressão da caneta na superfície sensível ao toque. Alternativamente, o tamanho da área de contato na superfície sensível ao toque e/ou alterações do mesmo, a capacitância da superfície sensível ao toque próxima ao contato e/ou alterações da mesma e/ou a resistência da superfície sensível ao toque próxima ao contato e/ou alterações da mesma são opcionalmente utilizados como um substituto para a força ou pressão do contato na superfície sensível ao toque. Em algumas implantações, as medidas substitutas para a força ou pressão de contato são utilizadas diretamente para determinar se um limite de intensidade foi excedido (por exemplo, o limite de intensidade é descrito em unidades correspondentes às medidas substitutas). Em algumas implantações, as medidas substitutas para a força ou pressão de contato são convertidas em uma força ou pressão estimada e a força ou pressão estimada é utilizada para determinar se um limite de intensidade foi excedido (por exemplo, o limite de intensidade é um limite de pressão medido em unidades de pressão).
[000150] Conforme utilizado no relatório descritivo e nas concretizações, o termo "saída tátil" se refere ao deslocamento físico de um dispositivo em relação a uma posição anterior do dispositivo, deslocamento físico de um componente (por exemplo, uma superfície sensível ao toque) de um dispositivo em relação a outro componente (por exemplo, alojamento) do dispositivo ou deslocamento do componente em relação a um centro da massa do dispositivo que será detectado por um usuário com a sensação de toque do usuário. Por exemplo, nas situações em que o dispositivo ou o componente do dispositivo está em contato com uma superfície de um usuário que é sensível ao toque (por exemplo, um dedo, palma ou outra parte de uma mão do usuário), a saída tátil gerada pelo deslocamento físico será interpretada pelo usuário como uma sensação tátil que corresponde a uma alteração percebida nas características físicas do dispositivo ou componente do dispositivo. Por exemplo, o movimento de uma superfície sensível ao toque (por exemplo, um visor sensível ao toque ou trackpad) é, opcionalmente, interpretado pelo usuário como um "clique para baixo" ou "clique para cima" de um botão atuador físico. Em alguns casos, um usuário sentirá uma sensação tátil tal como um "clique para baixo" ou "clique para cima" mesmo quando não há nenhum movimento de um botão atuador físico associado à superfície sensível ao toque que é fisicamente pressionado (por exemplo, deslocado) pelos movimentos dos usuários. Como outro exemplo, o movimento da superfície sensível ao toque é, opcionalmente, interpretado ou percebido pelo usuário como "aspereza" da superfície sensível ao toque, mesmo quando não há nenhuma alteração na lisura da superfície sensível ao toque. Embora tais interpretações de toque por um usuário sejam submetidas às percepções sensoriais individualizadas do usuário, há muitas percepções sensoriais de toque que são comuns a uma grande maioria de usuários. Assim, quando uma saída tátil é descrita como correspondendo a uma percepção sensorial particular de um usuário (por exemplo, um "clique para cima", um "clique para baixo", "aspereza"), a não ser que declarado de outra maneira, a saída tátil gerada corresponde ao deslocamento físico do dispositivo ou de um componente do mesmo que gerará a percepção sensorial descrita para um usuário típico (ou comum).
[000151] Deve-se observado que o dispositivo 100 é somente um exemplo de um dispositivo de múltiplas funções portátil e que o dispositivo 100 tem opcionalmente mais ou menos componentes do que o mostrado, combina opcionalmente dois ou mais componentes ou tem opcionalmente uma configuração ou disposição diferente dos componentes. Os vários componentes mostrados na Figura 1A são implantados em hardware, software ou uma combinação tanto de hardware quanto de software, incluindo um ou mais circuitos integrados específicos para aplicativo e/ou processamento de sinal.
[000152] A memória 102 inclui opcionalmente memória de acesso aleatória de alta velocidade e também inclui opcionalmente uma memória não volátil, tal como um ou mais dispositivos de armazenamento de disco magnético, dispositivos de memória flash ou outros dispositivos de memória de estado sólido não volátil. O acesso à memória 102 por outros componentes do dispositivo 100, tal como a CPU 120 e a interface de periféricos 118, é controlado opcionalmente pelo controlador de memória 122.
[000153] A interface de periféricos 118 pode ser utilizada para acoplar periféricos de entrada e de saída do dispositivo à CPU 120 e memória 102. O um ou mais processadores 120 rodam ou executam vários programas de software e/ou conjuntos de instruções armazenados na memória 102 para realizar várias funções para o dispositivo 100 e para processar dados.
[000154] Em algumas modalidades, a interface de periféricos 118, CPU 120 e o controlador de memória 122 são implantados opcionalmente em um único chip, tal como o chip 104. Em algumas outras modalidades, os mesmos são implantados opcionalmente em chips separados.
[000155] O conjunto de circuitos RF (radiofrequência) 108 recebe e envia sinais RF, também chamados de sinais eletromagnéticos. O conjunto de circuitos RF 108 converte sinais elétricos em/de sinais eletromagnéticos e se comunica com redes de comunicações e outros dispositivos de comunicações por meio dos sinais eletromagnéticos. O conjunto de circuitos RF 108 inclui opcionalmente o conjunto de circuitos bem conhecido para realizar essas funções, incluindo, porém sem limitação, um sistema de antena, um transceptor RF, um ou mais amplificadores, um sintonizador, um ou mais osciladores, um processador de sinal digital, um conjunto de chips CODEC, um cartão de módulo de identidade de assinante (SIM), memória e assim por diante. O conjunto de circuitos RF 108 se comunica opcionalmente com as redes, tal como a Internet, também referenciada como Rede de Alcance Mundial (WWW), uma intranet e/ou uma rede sem fio, tal como uma rede de telefone celular, uma rede de área local sem fio (LAN) e/ou uma rede de área metropolitana (MAN) e outros dispositivos por comunicação sem fio. A comunicação sem fio usa opcionalmente qualquer um dentre uma pluralidade de padrões de comunicações, protocolos e tecnologias, incluindo, porém sem limitação o Sistema Global para Comunicações Móveis (GSM), Ambiente GSM de Dados Aprimorado (EDGE), acesso de pacote de enlace descendente de alta velocidade (HSDPA), acesso de pacote de enlace ascendente de alta velocidade (HSUPA), Evolução Apenas de Dados (EV-DO), HSPA, HSPA+, HSPA de Célula Dupla (DC-HSPDA), evolução de longo prazo (LTE), comunicação de campo próximo (NFC), acesso múltiplo de divisão de código de banda larga (W-CDMA), acesso múltiplo de divisão de código (CDMA), acesso múltiplo de divisão de tempo (TDMA), Bluetooth, Fidelidade Sem Fio (Wi-Fi) (por exemplo, IEEE 802.1 la, IEEE 802.1 lb, IEEE 802.1 lg e/ou IEEE 802.1 In), voz sobre Protocolo de Internet (VoIP), Wi-MAX, um protocolo para e-mail (por exemplo, protocolo de acesso de mensagem de Internet (IMAP) e/ou protocolo dos correios (POP)), mensagens instantâneas (por exemplo, protocolo de presença e mensagens extensíveis (XMPP), Protocolo de Iniciação de Sessão para Mensagens Instantâneas Extensões de Alavancagem de Presença (SIMPLE), Mensagens Instantâneas e Serviço de Presença (IMPS)) e/ou Serviço de Mensagem Curta (SMS) ou qualquer outro protocolo de comunicação adequado, incluindo protocolos de comunicação não ainda desenvolvidos a partir da data de depósito deste documento.
[000156] O conjunto de circuitos de áudio 110, o alto-falante 111 e o microfone 113 fornecem uma interface de áudio entre um usuário e o dispositivo 100. O conjunto de circuitos de áudio 110 recebe dados de áudio da interface de periféricos 118, converte os dados de áudio em um sinal elétrico e transmite o sinal elétrico para alto-falante 111. O alto-falante 111 converte o sinal elétrico em ondas de som audíveis por humanos. O conjunto de circuitos de áudio 110 também recebe sinais elétricos convertidos pelo microfone 113 a partir de ondas de som. O conjunto de circuitos de áudio 110 converte o sinal elétrico em dados de áudio e transmite os dados de áudio para a interface de periféricos 118 para o processamento. Os dados de áudio são opcionalmente recuperados da e/ou transmitidos para a memória 102 e/ou o conjunto de circuitos RF 108 pela interface de periféricos 118. Em algumas modalidades, o conjunto de circuitos de áudio 110 também inclui um conector de auscultador (por exemplo, 212, Figura 2). O conector de auscultador fornece uma interface entre o conjunto de circuitos de áudio 110 e periféricos de entrada/saída de áudio removíveis, tal como fones de ouvido somente de saída ou um auscultador tanto com saída (por exemplo, um fone de ouvido para um ou ambos os ouvidos) quanto entrada (por exemplo, um microfone).
[000157] O subsistema I/O 106 acopla os periféricos de entra- da/saída no dispositivo 100, tal como a tela sensível ao toque 112 e outros dispositivos de controle de entrada 116, à interface de periféricos 118. O subsistema I/O 106 inclui opcionalmente o controlador de exibição 156, controlador de sensor óptico 158, controlador de sensor de intensidade 159, controlador de retroalimentação háptica 161 e um ou mais controladores de entrada 160 para outros dispositivos de entrada ou controle. Os um ou mais controladores de entrada 160 rece- bem/enviam sinais elétricos de/para outros dispositivos de entrada ou controle 116. Os outros dispositivos de entrada ou controle 116 incluem opcionalmente botões físicos (por exemplo, botões de pressão, botões oscilantes, etc.), dígitos, comutadores deslizantes, joysticks, rodas de clique e assim por diante. Em algumas modalidades alternativas, o(s) controlador(es) de entrada 160 são, opcionalmente, acoplados a qualquer um (ou nenhum) dos seguintes: um teclado, porta infravermelho, porta USB e um dispositivo apontador tal como um mou se. Os um ou mais botões (por exemplo, 208, Figura 2) incluem opcionalmente um botão para cima/para baixo para o controle de volume do alto-falante 111 e/ou microfone 113. Os um ou mais botões incluem opcionalmente um botão de pressão (por exemplo, 206, Figura 2).
[000158] O visor sensível ao toque 112 fornece uma interface de entrada e uma interface de saída entre o dispositivo e um usuário. O controlador de exibição 156 recebe e/ou envia sinais elétricos da/para a tela sensível ao toque 112. A tela sensível ao toque 112 exibe uma saída visual ao usuário. A saída visual inclui opcionalmente gráficos, texto, ícones, vídeos e qualquer combinação dos mesmos (chamados coletivamente de "gráficos"). Em algumas modalidades, algumas ou todas as saídas visuais correspondem a objetos de interface de usuário.
[000159] A tela sensível ao toque 112 tem uma superfície sensível ao toque, sensor ou conjunto de sensores que aceita a entrada do usuário com base no contato háptico e/ou tátil. A tela sensível ao toque 112 e o controlador de exibição 156 (juntamente com quaisquer módulos associados e/ou conjuntos de instruções na memória 102) detectam o contato (e qualquer movimento ou interrupção do contato) na tela sensível ao toque 112 e converte o contato detectado na interação com objetos de interface de usuário (por exemplo, uma ou mais teclas de função, ícones, páginas da web ou imagens) que são exibi-dos na tela sensível ao toque 112. Em uma modalidade exemplificati- va, um ponto de contato entre a tela sensível ao toque 112 e o usuário corresponde a um dedo do usuário.
[000160] A tela sensível ao toque 112 usa opcionalmente tecnologia LCD (visor de cristal líquido), tecnologia LPD (visor de polímero emissor de luz) ou tecnologia LED (diodo emissor de luz), embora outras tecnologias de exibição sejam utilizadas em outras modalidades. A tela sensível ao toque 112 e o controlador de exibição 156 detectam opcionalmente o contato e qualquer movimento ou interrupção do mesmo com o uso de qualquer uma dentre uma pluralidade de tecnologias de sensoriamento de toque agora conhecidas ou posteriormente desenvolvidas, incluindo, porém sem limitação, tecnologias de onda acústica de superfície, infravermelho, resistivas e capacitivas, assim como outros arranjos de sensor de proximidade ou outros elementos para determinar um ou mais pontos de contato com a tela sensível ao toque 112. Em uma modalidade exemplificativa, a tecnologia de sensoria- mento de capacitância mútua projetada é utilizada, tal como essa encontrada no iPhone®, iPod Touch®, e iPad® junto à Apple Inc. de Cupertino, Califórnia.
[000161] A tela sensível ao toque 112 tem opcionalmente uma resolução de vídeo em excesso de 100 dpi. Em algumas modalidades, a tela sensível ao toque tem uma resolução de vídeo de aproximadamente 160 dpi. O usuário opcionalmente faz contato com a tela sensível ao toque 112 com o uso de qualquer objeto ou anexo adequado, tal como uma caneta, um dedo e assim por diante. Em algumas modalidades, a interface de usuário é projetada para funcionar primariamente com contatos e gestos com base em dedo, que podem ser menos precisos do que a entrada com base em caneta devido à área de contato maior de um dedo na tela sensível ao toque. Em algumas modalidades, o dispositivo traduz a entrada com base em dedo bruta em uma posição ou comando de apontador/cursor precisa para realizar as ações desejadas pelo usuário.
[000162] Em algumas modalidades, adicionalmente à tela sensível ao toque, o dispositivo 100 inclui opcionalmente um touchpad (não mostrado) para ativar ou desativar funções particulares. Em algumas modalidades, o touchpad é uma área sensível ao toque do dispositivo que, diferente da tela sensível ao toque, não exibe saída visual. O touchpad é, opcionalmente, uma superfície sensível ao toque que é separada da tela sensível ao toque 112 ou uma extensão da superfície sensível ao toque formada pela tela sensível ao toque.
[000163] O dispositivo 100 também inclui o sistema de potência 162 para alimentar os vários componentes. O sistema de potência 162 inclui opcionalmente um sistema de gerenciamento de potência, uma ou mais fontes de potência (por exemplo, bateria, corrente alternada (CA)), um sistema de recarga, um circuito de detecção de falha de potência, um conversor ou inversor de potência, um indicador de situação de potência (por exemplo, um diodo emissor de luz (LED)) e quaisquer outros componentes associados à geração, gerenciamento e distribuição de potência em dispositivos portáteis.
[000164] O dispositivo 100 também inclui opcionalmente um ou mais sensores ópticos 164. A Figura 1A mostra um sensor óptico acoplado ao controlador de sensor óptico 158 no subsistema I/O 106. O sensor óptico 164 inclui opcionalmente fototransistores de semicondutor de óxido metálico complementar (CMOS) ou dispositivo acoplado à carga (CCD). O sensor óptico 164 recebe luz do ambiente, projetado através de uma ou mais lentes e converte a luz em dados que representam uma imagem. Em combinação com o módulo de imageamento 143 (também chamado de módulo de câmera), o sensor óptico 164 captura opcionalmente imagens paradas ou vídeo. Em algumas modalidades, um sensor óptico é localizado atrás do dispositivo 100, oposto ao visor de tela sensível ao toque 112 na frente do dispositivo, de modo que o visor de tela sensível ao toque seja habilitado para o uso como um visor eletrônico para a aquisição de imagem parada e/ou de vídeo. Em algumas modalidades, outro sensor óptico é localizado na frente do dispositivo de modo que a imagem do usuário seja, opcionalmente, obtida para videoconferência enquanto o usuário visualiza os outros participantes da videoconferência no visor de tela sensível ao toque.
[000165] O dispositivo 100 também inclui opcionalmente um ou mais sensores de intensidade de contato 165. A Figura 1A mostra um sen sor de sensibilidade de contato acoplado ao controlador de sensor de sensibilidade 159 no subsistema I/O 106. O sensor de intensidade de contato 165 inclui opcionalmente um ou mais medidores tensão piezo- resistivos, sensores de força capacitivos, sensores de força elétricos, sensores de força piezoelétricos, sensores de força ópticos, superfícies sensíveis ao toque capacitivas ou outros sensores de intensidade (por exemplo, sensores utilizados para medir a força (ou pressão) de um contato em uma superfície sensível ao toque). O sensor de intensidade de contato 165 recebe as informações de intensidade de contato (por exemplo, informações de pressão ou um proxy para informações de pressão) do ambiente. Em algumas modalidades, pelo menos um sensor de intensidade de contato é colocalizado com ou próximo a uma superfície sensível ao toque (por exemplo, sistema de exibição sensível ao toque 112). Em algumas modalidades, pelo menos um sensor de intensidade de contato é localizado atrás do dispositivo 100, oposto ao visor de tela sensível ao toque 112 que é localizado na frente do dispositivo 100.
[000166] O dispositivo 100 também inclui opcionalmente um ou mais sensores de proximidade 166. A Figura 1A mostra o sensor de proximidade 166 acoplado à interface de periféricos 118. Alternativamente, o sensor de proximidade 166 é acoplado ao controlador de entrada 160 no subsistema I/O 106. Em algumas modalidades, o sensor de proximidade desativa e desabilita a tela sensível ao toque 112 quando o dispositivo de múltiplas funções é colocado próximo ao ouvido do usuário (por exemplo, quando o usuário está fazendo uma chamada de telefone).
[000167] O dispositivo 100 também inclui opcionalmente um ou mais geradores de saída tátil 167. A Figura 1A mostra um gerador de saída tátil acoplado ao controlador de retroalimentação háptico 161 no subsistema I/O 106. O gerador de saída tátil 167 inclui opcionalmente um ou mais dispositivos eletroacústicos tais como alto-falantes ou outros componentes de áudio e/ou dispositivos eletromecânicos que convertem energia em movimento linear tal como um motor, solenoide, polímero eletroativo, atuador piezoelétrico, atuador eletroestático ou outro componente de geração de saída tátil (por exemplo, um componente que converte sinais elétricos em saídas táteis no dispositivo). O sensor de intensidade de contato 165 recebe instruções de geração de retroalimentação tátil do módulo de retroalimentação háptico 133 e gera saídas táteis no dispositivo 100 que têm a capacidade de serem percebidas por um usuário do dispositivo 100. Em algumas modalidades, pelo menos um gerador de saída tátil é colocalizado com ou próximo a uma superfície sensível ao toque (por exemplo, sistema de exibição sensível ao toque 112) e, opcionalmente, gerar uma saída tátil movendo-se a superfície sensível ao toque verticalmente (por exemplo, para den- tro/para fora de uma superfície de dispositivo 100) ou lateralmente (por exemplo, para frente e para trás no mesmo plano que uma superfície do dispositivo 100). Em algumas modalidades, pelo menos um sensor de gerador de saída tátil é localizado atrás do dispositivo 100, oposto ao visor de tela sensível ao toque 112 que é localizado na frente do dispositivo 100.
[000168] O dispositivo 100 também inclui opcionalmente um ou mais acelerômetros 168. A Figura 1A mostra o acelerômetro 168 acoplado à interface de periféricos 118. Alternativamente, o acelerômetro 168 é opcionalmente acoplado a um controlador de entrada 160 no subsistema I/O 106. Em algumas modalidades, as informações são exibidas no visor de tela sensível ao toque em uma vista de retrato ou uma vista de paisagem com base na análise dos dados recebidos dos um ou mais acelerômetros. O dispositivo 100 inclui opcional e adicionalmente ao(s) acelerômetro(s) 168, um magnetômetro (não mostrado) e um receptor GPS (ou GLONASS ou outro sistema de navegação global) (não mostrado) para obter informações em relação à localização e orientação (por exemplo, retrato ou paisagem) do dispositivo 100.
[000169] Em algumas modalidades, o dispositivo 100 também inclui (ou está em comunicação com) um ou mais sensores de impressão digital 169. A Figura 1A mostra o sensor de impressão digital 169 acoplado à interface de periféricos 118. Alternativamente, os sensores de impressão digital 169 são opcionalmente acoplados a um controlador de entrada 160 no subsistema I/O 106. Entretanto, em uma modalidade comum, operações de identificação de impressão digital são realizadas com o uso do hardware de computação dedicado seguro (por exemplo, um ou mais processadores, memória e/ou barramentos de comunicações) que tem recursos de segurança adicionais de modo a aprimorar a segurança das informações de impressão digital determinadas pelos sensores de impressão digital. Conforme utilizado no presente documento, um sensor de impressão digital é um sensor que pode distinguir características de impressão digital (algumas vezes chamadas de "recursos de minúcia") das cristas e vales da pele tais como aqueles en-contrados nos dedos da mão e dedos do pé de humanos. Um sensor de impressão digital pode usar qualquer uma dentre uma variedade de técnicas para distinguir as características de impressão digital, incluindo, porém sem limitação: imageamento de impressão digital óptico, imageamento de impressão digital ultrassônico, imageamento de impressão digital de capacitância ativa e imageamento de impressão digital de capacitância passiva. Adicionalmente à distinção das características de impressão digital em impressões digitais, em algumas modalidades, o sensor de impressão digital 169 pode rastrear o movimento das características de impressão digital ao longo do tempo e determi- nar/caracterizar assim o movimento da impressão digital ao longo do tempo no sensor de impressão digital. Embora o sensor de impressão digital (por exemplo, o Sensor de Impressão Digital 169) na Figura 1A seja mostrado como sendo separado da superfície sensível ao toque (por exemplo, o Sistema de exibição Sensível ao Toque 112), deve ser entendido que em algumas implantações, a superfície sensível ao toque (por exemplo, o Sistema de exibição Sensível ao Toque 112) tem uma resolução espacial que é alta o suficiente para detectar as características de impressão digital formadas por cristas de impressão digital individuais e é utilizada como um sensor de impressão digital em vez de ou adicionalmente a um sensor de impressão digital separado (por exemplo, o Sensor de Impressão Digital 169). Em algumas modalidades, o dispositivo 100 inclui um conjunto de um ou mais sensores de orientação que são utilizados para determinar uma orientação de um dedo ou mão sobre ou próximo ao dispositivo (por exemplo, uma orientação de um dedo que está sobre o sensor de impressão digital 169). Adicionalmente, em algumas modalidades, o conjunto de um ou mais sensores de orientação é utilizado adicionalmente a ou em vez de um sensor de impressão digital para detectar a rotação de um contato que está interagindo com o dispositivo (por exemplo, em um ou mais dos métodos descritos abaixo, em vez de usar um sensor de impressão digital para detectar a rotação de um contato/impressão digital, o conjunto de um ou mais sensores de orientação é utilizado para detectar a rotação do contato que inclui a impressão digital, com ou sem detectar as características da impressão digital).
[000170] Em algumas modalidades, as características das impressões digitais e as comparações entre as características das impressões digitais detectadas e as características das impressões digitais armazenadas são realizadas pelo hardware de computação dedicado seguro (por exemplo, um ou mais processadores, memória e/ou bar- ramentos de comunicações) que são separados dos processadores 120, de modo a melhorar a segurança dos dados de impressão digital gerados, armazenados e processados pelo sensor de impressão digi- tal 169. Em algumas modalidades, as características das impressões digitais e as comparações entre as características das impressões digitais detectadas e as características das impressões digitais armazenadas são realizadas por processadores 120 com o uso do módulo de análise de impressão digital 131.
[000171] Em algumas modalidades, os componentes de software armazenados na memória 102 incluem o sistema operacional 126, módulo de comunicação (ou conjunto de instruções) 128, módulo de contato/movimento (ou conjunto de instruções) 130, módulo de análise de impressão digital 131, módulo gráfico (ou conjunto de instruções) 132, módulo de entrada de texto (ou conjunto de instruções) 134, módulo de Sistema de Posicionamento Global (GPS) module (ou conjunto de instruções) 135 e aplicativos (ou conjuntos de instruções) 136. Ademais, em algumas modalidades, a memória 102 armazena o estado interno global/de dispositivo 157, conforme mostrado nas Figuras 1A e 3. O estado interno global/de dispositivo 157 inclui um ou mais dentre: estado de aplicativo ativo, indicando quais aplicativos, se houver, estão atualmente ativos; estado de exibição, indicando quais aplicativos, vistas ou outras informações ocupam várias regiões do visor de tela sensível ao toque 112; estado de sensor, incluindo as informações obtidas a partir dos vários sensores do dispositivo e dispositivos de controle de entrada 116; e informações de localização em relação à localização e/ou atitude do dispositivo.
[000172] O sistema operacional 126 (por exemplo, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS ou um sistema operacional incorporado tal como Vx Works) inclui vários componentes de software e/ou unidades para controlar e gerenciar tarefas de sistema geral (por exemplo, gerenciamento de memória, controle de dispositivo de armazenamento, gerenciamento de potência, etc.) e facilita a comunicação entre vários componentes de hardware e software.
[000173] O módulo de comunicação 128 facilita a comunicação com outros dispositivos através de uma ou mais portas externas 124 e também inclui vários componentes de software para manipular os dados recebidos pelo conjunto de circuitos RF 108 e/ou porta externa 124. A porta externa 124 (por exemplo, Barramento Serial Universal (USB), FIREWIRE, etc.) é adaptada para se acoplar diretamente a outros dispositivos ou indiretamente através de uma rede (por exemplo, a Internet, LAN sem fio, etc.). Em algumas modalidades, a porta externa é um conector de múltiplos pinos (por exemplo, 30 pinos) que é o mesmo que ou similar ao e/ou compatível com o conector de 30 pinos utilizado em dispositivos iPod (marca registrada da Apple Inc.).
[000174] O módulo de contato/movimento 130 detecta opcionalmente o contato com a tela sensível ao toque 112 (em conjunto com o controlador de exibição 156) e outros dispositivos sensíveis ao toque (por exemplo, um touchpad ou roda de clique física). O módulo de conta- to/movimento 130 inclui vários componentes de software para realizar operações relacionadas à detecção do contato, tal como determinar se o contato ocorreu (por exemplo, detectar um evento de dedo para baixo), determinar uma intensidade do contato (por exemplo, a força ou a pressão do contato ou um substituto para a força ou pressão do contato), determinar se há movimento do contato e rastrear o movimento através da superfície sensível ao toque (por exemplo, detectar um ou mais eventos de arrasto de dedo) e determinar se o contato cessou (por exemplo, detectar um evento de dedo para cima ou uma interrupção no contato). O módulo de contato/movimento 130 recebe dados de contato da superfície sensível ao toque. Determinar o movimento do ponto de contato, que é representado por uma série de dados de contato, inclui opcionalmente determinar rapidez (magnitude), velocidade (magnitude e direção) e/ou uma aceleração (uma alteração na magnitude e/ou direção) do ponto de contato. Essas operações são opcio- nalmente aplicadas a contatos únicos (por exemplo, contatos de um dedo) ou a contatos múltiplos simultâneos (por exemplo, contatos de múltiplos dedos/"multitoque"). Em algumas modalidades, o módulo de contato/movimento 130 e o controlador de exibição 156 detectam o contato em um touchpad.
[000175] Em algumas modalidades, o módulo de contato/movimento 130 usa um conjunto de um ou mais limites de intensidade para determinar se uma operação foi realizada por um usuário (por exemplo, para determinar se um usuário "clicou" em um ícone). Em algumas modalidades, pelo menos um subconjunto dos limites de intensidade é determinado em concordância com os parâmetros de software (por exemplo, os limites de intensidade não são determinados pelos limites de ativação de atuadores físicos particulares e podem ser ajustados sem alterar o hardware físico do dispositivo 100). Por exemplo, um limite de "clique" de mouse de um trackpad ou visor de tela sensível ao toque pode ser estabelecido a qualquer um dentre uma grande faixa de valores limite predefinidos sem alterar o hardware de trackpad ou visor de tela sensível ao toque. Adicionalmente, em algumas implantações, a um usuário do dispositivo são fornecidas as definições de software para ajustar um ou mais dentre o conjunto de limites de intensidade (por exemplo, ajustando-se os limites de intensidade individuais e/ou ajustando-se uma pluralidade de limites de intensidade de uma vez com um parâmetro de "intensidade" de clique de nível de sistema).
[000176] O módulo de contato/movimento 130 detecta opcionalmente uma entrada de gesto por um usuário. Diferentes gestos na superfície sensível ao toque têm diferentes padrões de contato (por exemplo, diferentes movimentos, temporizações e/ou intensidades de contatos detectados). Assim, um gesto é opcionalmente detectado através da detecção de um padrão de contato particular. Por exemplo, a detecção de um gesto de toque de dedo inclui a detecção de um evento de dedo para baixo seguida pela detecção de um evento de dedo para cima (elevação) na mesma posição (ou substancialmente a mesma posição) que o evento de dedo para baixo (por exemplo, na posição de um ícone). Como outro exemplo, a detecção de um gesto de deslizamento de dedo na superfície sensível ao toque inclui a detecção de um evento de dedo para baixo seguida pela detecção de um ou mais eventos de arrasto de dedo e subsequentemente seguida pela detecção de um evento de dedo para cima (elevação).
[000177] O módulo gráfico 132 inclui vários componentes de software conhecidos para renderizar e exibir gráficos na tela sensível ao toque 112 ou outro visor, incluindo componentes para alterar o impacto visual (por exemplo, brilho, transparência, saturação, contraste e outra propriedade visual) dos gráficos que são exibidos. Conforme utilizado no presente documento, o termo "gráficos" inclui qualquer objeto que possa ser exibido a um usuário, incluindo, sem limitação, texto, páginas da web, ícones (tal como objetos de interface de usuário incluindo teclas de função), imagens digitais, vídeos, animações e similares.
[000178] Em algumas modalidades, o módulo gráfico 132 armazena dados que representam os gráficos a serem utilizados. Cada gráfico é opcionalmente designado a um código correspondente. O módulo gráfico 132 recebe, de aplicativos, etc., um ou mais códigos que especificam os gráficos a serem exibidos juntamente com, se necessário, os dados de coordenada e outros dados de propriedade gráfica e, então, gera dados de imagem de tela para a saída para o controlador de exibição 156.
[000179] O módulo de retroalimentação háptico 133 inclui vários componentes de software para gerar instruções utilizadas por gera- dor(es) de saída tátil 167 para produzir saídas táteis em uma ou mais localizações no dispositivo 100 em resposta às interações de usuário com o dispositivo 100.
[000180] O módulo de entrada de texto 134, que é opcionalmente um componente do módulo gráfico 132 fornece teclados macios para inserir texto em vários aplicativos (por exemplo, contatos 137, e-mail 140, IM 141, navegador 147 e qualquer outro aplicativo que precise de entrada de texto).
[000181] O módulo de GPS 135 determina a localização do dispositivo e fornece essas informações para o uso em vários aplicativos (por exemplo, para o telefone 138 para o uso na discagem com base em localização, para a câmera 143 como metadados de gravura/vídeo e para aplicativos que fornecem serviços com base em localização tal como widgets de clima, widgets de páginas amarelas locais e widgets de mapa/navegação).
[000182] Os aplicativos 136 incluem opcionalmente os módulos a seguir (ou conjuntos de instruções) ou subconjunto ou superconjunto dos mesmos:
[000183] • módulo de contatos 137 (algumas vezes chamado de ca tálogo de endereços ou lista de contatos);
[000184] • módulo de telefone 138;
[000185] • módulo de videoconferência 139;
[000186] • módulo de cliente de e-mail 140;
[000187] • módulo de mensagens instantâneas (IM) 141;
[000188] • módulo de apoio de atividade física 142;
[000189] • módulo de câmera 143 para imagens paradas e/ou de ví deo;
[000190] • módulo de gerenciamento de imagem 144;
[000191] • módulo de navegador 147;
[000192] • módulo de calendário 148;
[000193] • módulos de widget 149, que incluem opcionalmente um ou mais dentre: widget de clima 149-1, widget de bolsa 149-2, widget de calculadora 149-3, widget de despertador 149-4, widget de dicionário 149-5 e outros widgets obtidos pelo usuário, assim como widgets criados por usuário 149-6;
[000194] • módulo criador de widget 150 para fazer widgets criados por usuário 149-6;
[000195] • módulo de pesquisa 151;
[000196] • módulo reprodutor de vídeo e música 152, que é, opcio nalmente, feito de um módulo reprodutor de vídeo e um módulo reprodutor de música;
[000197] • módulo de notas 153;
[000198] • módulo de mapa 154; e/ou
[000199] • módulo de vídeo online 155.
[000200] Os exemplos de outros aplicativos 136 que são armazenados, opcionalmente, na memória 102 incluem outros aplicativos de processamento de palavras, outros aplicativos de edição de imagens, aplicativos de desenho, aplicativos de apresentação, aplicativos habilitados por JAVA, codificação, gerenciamento de direitos digitais, reconhecimento de voz e replicação de voz.
[000201] Em combinação com a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de contatos 137 é opcionalmente utilizado para gerenciar um catálogo de endereços ou lista de contatos (por exemplo, armazenado no estado interno de aplicativo 192 do módulo de contatos 137 na memória 102 ou memória 370), incluindo: adicionar nome(s) ao catálogo de endereços; apagar nome(s) do catálogo de endereços; associar número(s) de telefone, endere- ço(s) de e-mail, endereço(s) físico(s) ou outras informações com um nome; associar uma imagem a um nome; categorizar e ordenar no-mes; fornecer números de telefone ou endereços de e-mail para iniciar e/ou facilitar as comunicações pelo telefone 138, videoconferência 139, e-mail 140 ou IM 141; e assim por diante.
[000202] Em combinação com o conjunto de circuitos RF 108, o conjunto de circuitos de áudio 110, o alto-falante 111, o microfone 113, a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de telefone 138 é utilizado opcionalmente para inserir uma sequência de caracteres que corresponde a um número de telefone, acessar um ou mais números de telefone em catálogo de endereços 137, modificar um número de telefone que foi inserido, discar um número de telefone, conduzir uma conversação e desconectar ou desligar quando a conversação está concluída. Conforme notado acima, a comunicação sem fio usa opcionalmente qualquer um dentre uma pluralidade de padrões de comunicações, protocolos e tecnologias.
[000203] Em combinação com o conjunto de circuitos RF 108, o conjunto de circuitos de áudio 110, o alto-falante 111, o microfone 113, a tela sensível ao toque 112, o controlador de exibição 156, o sensor óptico 164, o controlador de sensor óptico 158, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134, a lista de contato 137 e o módulo de telefone 138, o módulo de videoconferência 139 inclui instruções executáveis para iniciar, conduzir e terminar uma videoconferência entre um usuário e um ou mais outros participantes de acordo com as instruções de usuário.
[000204] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de cliente de e-mail 140 inclui instruções executáveis para criar, enviar, receber e gerenciar o e-mail em resposta às instruções de usuário. Em combinação com o módulo de gerenciamento de imagem 144, o módulo de cliente de e-mail 140 torna muito fácil criar e enviar e-mails com imagens paradas ou de vídeo tiradas com o módulo de câmera 143.
[000205] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de mensagens instantâneas 141 inclui instruções executáveis para inserir uma sequência de caracteres que corresponde a uma mensagem instantânea, para modificar caracteres inseridos anteriormente, para transmitir uma mensagem instantânea respectiva (por exemplo, com um protocolo de Serviço de Mensagem Curta (SMS) ou Serviço de Mensagem Multimídia (MMS) para mensagens instantâneas com base em telefonia ou com o uso de XMPP, SIMPLE ou IMPS para mensagens instantâneas com base em Internet), para receber mensagens instantâneas e para visualizar as mensagens instantâneas recebidas. Em algumas modalidades, as mensagens instantâneas transmitidas e/ou recebidas incluem opcionalmente gráficos, fotos, arquivos de áudio, arquivos de vídeo e/ou outros anexos conforme são suportados em um Serviço de Mensagens Aprimorado (EMS) e/ou MMS. Conforme utilizado no presente documento, as "mensagens instantâneas" se referem tanto a mensagens com base em telefonia (por exemplo, mensagens enviadas com o uso de SMS ou MMS) quanto as mensagens com base em Internet (por exemplo, mensagens enviadas com o uso de XMPP, SIMPLE ou IMPS).
[000206] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134, o módulo GPS 135, o módulo de mapa 154 e o módulo reprodutor de música 146, o módulo de apoio de atividade física 142 inclui instruções executáveis para criar atividades físicas (por exemplo, com objetivos de tempo, distância e/ou queima de caloria); se comunicar com sensores de atividade física (dispositivos de esportes); receber dados de sensor de atividade física; calibrar os sensores utilizados para monito- rar uma atividade física; selecionar e reproduzir música para uma atividade física; e exibir, armazenar e transmitir dados de atividade física.
[000207] Em combinação com a tela sensível ao toque 112, o controlador de exibição 156, o(s) sensor(es) óptico(s) 164, o controlador de sensor óptico 158, o módulo de contato 130, o módulo gráfico 132 e o módulo de gerenciamento de imagem 144, o módulo de câmera 143 inclui instruções executáveis para capturar imagens paradas ou vídeo (incluindo um fluxo de vídeo) e armazenar as mesmas na memória 102, modificar as características de imagens paradas ou vídeo ou apagar uma imagem parada ou vídeo da memória 102.
[000208] Em combinação com a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, módulo gráfico 132, o módulo de entrada de texto 134 e o módulo de câmera 143, o módulo de gerenciamento de imagem 144 inclui instruções executáveis para dispor, modificar (por exemplo, editar) ou manipular de outra maneira, rotular, apagar, apresentar (por exemplo, em um álbum ou apresentação de slides digital) e armazenar imagens paradas e/ou de vídeo.
[000209] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de navegador 147 inclui instruções executáveis para navegar na Internet em concordância com instruções de usuário, incluindo pesquisar, ligar a, receber e exibir páginas da web ou porções nas mesmas, assim como anexos e outros arquivos ligados a páginas da web.
[000210] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134, o módulo de cliente de e-mail 140 e o módulo de navegador 147, o módulo de calendário 148 inclui instruções executáveis para criar, exibir, modificar e armazenar calendários e dados associados a calendários (por exemplo, entradas de calendário, listas de ações, etc.) de acordo com as instruções de usuário.
[000211] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134 e o módulo de navegador 147, os módulos de widget 149 são miniaplicativos que são opcionalmente transferidos por download e utilizados por um usuário (por exemplo, widget de clima 149-1, widget de bolsa 149-2, widget de calculadora 149-3, widget de despertador 149-4 e widget de dicionário 149-5) ou criados pelo usuário (por exemplo, widget criado por usuário 149-6). Em algumas modalidades, um widget inclui um arquivo HTML (Linguagem de Marcação de Hipertexto), um arquivo CSS (Folhas de Estilo em Cascata) e um arquivo JavaScript. Em algumas modalidades, um widget inclui um arquivo XML (Linguagem de Marcação Extensível) e um arquivo JavaScript (por exemplo, Yahoo! Widgets).
[000212] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134 e o módulo de navegador 147, o módulo criador de widget 150 é utilizado opcionalmente por um usuário para criar widgets (por exemplo, transformando uma porção especificada por usuário de uma página da web em um widget).
[000213] Em combinação com a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de pesquisa 151 inclui instruções executáveis para pesquisar por texto, música, som, imagem, vídeo e/ou outros arquivos na memória 102 que correspondem a um ou mais critérios de pesquisa (por exemplo, um ou mais termos de pesquisa especificados por usuário) de acordo com as instruções de usuário.
[000214] Em combinação com a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o conjunto de circuitos de áudio 110, o alto-falante 111, o conjunto de circuitos RF 108 e o módulo de navegador 147, o módulo reprodutor de vídeo e música 152 inclui instruções executáveis que permitem que o usuário transfira por download e reproduza as músicas gravadas ou outros arquivos de som armazenados em um ou mais formatos de arquivo, tal como arquivos MP3 ou AAC e instruções executáveis para exibir, apresentar ou reproduzir de outra maneira vídeos (por exemplo, na tela sensível ao toque 112 ou em um visor externo conectado por meio da porta externa 124). Em algumas modalidades, o dispositivo 100 inclui opcionalmente a funcionalidade de um reprodutor de MP3, tal como um iPod (marca registrada da Apple Inc.).
[000215] Em combinação com a tela sensível ao toque 112, o controlador de exibição 156, o módulo de contato 130, o módulo gráfico 132 e o módulo de entrada de texto 134, o módulo de notas 153 inclui instruções executáveis para criar e gerenciar notas, listas de ações e similares de acordo com as instruções de usuário.
[000216] Em combinação com o conjunto de circuitos RF 108, a tela sensível ao toque 112, o controlador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o módulo de entrada de texto 134, o módulo GPS 135 e o módulo de navegador 147, o módulo de mapa 154 são utilizados opcionalmente para receber, exibir, modificar e armazenar mapas e dados associados a mapas (por exemplo, direções de condução; dados em armazenamentos e outros pontos de interesse em ou próximos a uma localização particular; e outros dados com base em localização) de acordo com as instruções de usuário.
[000217] Em combinação com a tela sensível ao toque 112, o contro- lador de sistema de exibição 156, o módulo de contato 130, o módulo gráfico 132, o conjunto de circuitos de áudio 110, o alto-falante 111, o conjunto de circuitos RF 108, o módulo de entrada de texto 134, o módulo de cliente de e-mail 140 e o módulo de navegador 147, o módulo de vídeo online 155 inclui instruções que permitem que o usuário acesse, navegue, receba (por exemplo, por transmissão contínua e/ou transferência por download), receber (por exemplo, na tela sensível ao toque ou no visor externo conectado por meio da porta externa 124), enviar um e-mail com um enlace para um vídeo online particular e gerenciar de outra maneira vídeos online em um ou mais formatos de arquivo, tal como H.264. Em algumas modalidades, o módulo de mensagens instantâneas 141, em vez do módulo de cliente de e-mail 140, é utilizado para enviar um enlace para um vídeo online particular.
[000218] Cada um dos aplicativos e módulos identificados acima corresponde a um conjunto de instruções executáveis para realizar uma ou mais funções descritas acima e os métodos descritos neste aplicativo (por exemplo, os métodos implantados por computador e outros métodos de processamento de informações descritos no presente documento). Esses módulos (isto é, conjuntos de instruções) não precisam ser implantados como programas de software, procedimentos e módulos separados e, assim, vários subconjuntos desses módulos são opcionalmente combinados ou redispostos de outra maneira em várias modalidades. Em algumas modalidades, a memória 102 armazena opcionalmente um subconjunto dos módulos e estruturas de dados identificados acima. Ademais, a memória 102 armazena opcionalmente os módulos e estruturas de dados adicionais não descritos acima.
[000219] Em algumas modalidades, o dispositivo 100 é um dispositivo em que a operação de um conjunto de funções predefinido no dispositivo é realizada exclusivamente através de uma tela sensível ao toque e/ou um touchpad. Usando-se uma tela sensível ao toque e/ou um touchpad como o dispositivo de controle de entrada primário para a operação do dispositivo 100, o número de dispositivos de controle de entrada físicos (tal como botões de pressão, dígitos e similares) no dispositivo 100 é reduzido opcionalmente.
[000220] O conjunto predefinido de funções que são realizadas exclusivamente através de uma tela sensível ao toque e/ou um touchpad opcionalmente inclui navegação entre interfaces de usuário. Em algumas modalidades, o touchpad, quando tocado pelo usuário, navega o dispositivo 100 para um menu principal, inicial ou raiz de qualquer interface de usuário que é exibida no dispositivo 100. Em tais modalidades, um "botão de menu" é implantado com o uso de um touchpad. Em algumas outras modalidades, o botão de menu é um botão de ação físico ou outro dispositivo de controle de entrada físico ao invés de um touchpad.
[000221] A Figura 1B é um diagrama de blocos que ilustra componentes exemplificativos para manipulação de eventos em conformidade com algumas modalidades. Em algumas modalidades, a memória 102 (nas Figuras 1A) ou 370 (Figura 3) inclui um classificador de eventos 170 (por exemplo, no sistema operacional 126) e um respectivo aplicativo 136-1 (por exemplo, qualquer um dos aplicativos mencionados anteriormente 137-13, 155, 380 a 390).
[000222] O classificador de eventos 170 recebe informações de evento e determina o aplicativo 136-1 e visualização de aplicativo 191 de aplicativo 136-1 ao qual entregar as informações de evento. O classificador de eventos 170 inclui um monitor de eventos 171 e um módulo de módulo despachante de eventos 174. Em algumas modalidades, o aplicativo 136-1 inclui um estado interno de aplicativo 192, que indica a(s) visualização(ões) de aplicativo atual(is) exibidas no visor sensível ao toque 112 quando o aplicativo está ativo ou em execução. Em algumas modalidades, o estado interno global/dispositivo 157 é utilizado pelo classificador de eventos 170 para determinar qual(is) aplicativo(s) está(estão) atualmente ativo(s) e o estado interno de aplicativo 192 é utilizado pelo classificador de eventos 170 para determinar as visualizações de aplicativo 191 às quais entregar as informações de evento.
[000223] Em algumas modalidades, o estado interno de aplicativo 192 inclui informações adicionais, tais como uma ou mais dentre: informações de retomada a serem utilizadas quando o aplicativo 136-1 retoma a execução, informações de estado de interface de usuário que indicam informações que são exibidas ou que estão prontas para exibição pelo aplicativo 136-1, uma fila de estados para habilitar o usuário a retornar para um estado ou visualização de aplicativo anterior 136-1 e um fila refazer/desfazer de ações anteriores tomadas pelo usuário.
[000224] O monitor de eventos 171 recebe informações de evento de interface de periféricos 118. As informações de evento incluem informações sobre um subevento (por exemplo, um toque de usuário em um visor sensível ao toque 112, como parte de um gesto de múltiplos toques). A interface de periféricos 118 transmite informações que recebe do subsistema I/O 106 ou de um sensor, tal como sensor de proximidade 166, acelerômetro(s) 168 e/ou microfone 113 (através de conjunto de circuitos de áudio 110). As informações que a interface de periféricos 118 recebe do subsistema I/O 106 inclui informações do visor sensível ao toque 112 ou de uma superfície sensível ao toque.
[000225] Em algumas modalidades, o monitor de eventos 171 envia solicitações à interface de periféricos 118 em intervalos predeterminados. Em resposta, a interface de periféricos 118 transmite informações de evento. Em outras modalidades, a interface de periférico 118 transmite informações de evento apenas quando há um evento significativo (por exemplo, recebimento de uma entrada acima de um limite de ruído predeterminado e/ou por mais que uma duração predeterminada).
[000226] Em algumas modalidades, o classificador de eventos 170 também inclui um módulo de determinação de visualização de ocorrência 172 e/ou um módulo de determinação de reconhecedor de evento ativo 173.
[000227] O módulo de determinação de visualização de ocorrência 172 fornece procedimentos de software para determinar onde um su- bevento ocorre dentro de uma ou mais visualizações, quando o visor sensível ao toque 112 exibe mais de uma visualização. As visualizações são feitas de controle e outros elementos que um usuário pode ver no visor.
[000228] Outro aspecto da interface de usuário associada a um aplicativo é um conjunto de visualizações, algumas vezes chamadas no presente documento de visualizações de aplicativo ou janela de interface de usuário, em que informações são exibidas e gestos baseados em toque ocorrem. As visualizações de aplicativo (de um respectivo aplicativo) em que um toque é detectado opcionalmente correspondem a níveis programáticos dentro de uma hierarquia programática ou de visualização do aplicativo. Por exemplo, a visualização de nível mais inferior em que um toque é detectado é, opcionalmente, chamada de vista de ocorrência, e o conjunto de eventos, que são reconhecidos como entradas apropriadas, é, opcionalmente, determinado com base, pelo menos em parte, na visualização de ocorrência do toque inicial que começa um gesto baseado em toque.
[000229] O módulo de determinação de visualização de ocorrência 172 recebe informações relacionadas a subeventos de um gesto baseado em toque. Quando um aplicativo tem múltiplas visualizações organizadas em uma hierarquia, o módulo de determinação de visualização de ocorrência 172 identifica uma visualização de ocorrência como a visualização mais inferior na hierarquia que poderia manipular o subevento. Na maioria das circunstâncias, a visualização de ocor- rência é a visualização de nível mais inferior em que um subevento de inicialização ocorre (isto é, o primeiro subevento na sequência de su- beventos que formam um evento ou um evento potencial). Uma vez que a visualização de ocorrência seja identificada pelo módulo de determinação de visualização de ocorrência, a visualização de ocorrência tipicamente recebe todos os subeventos relacionados à mesma fonte de toque ou entrada para a qual a mesma foi identificada como a visualização de ocorrência.
[000230] O módulo de determinação de reconhecedor de evento ativo 173 determina qual vista ou vistas dentro de uma hierarquia de vistas deve receber uma sequência particular de subeventos. Em algumas modalidades, o módulo de determinação de reconhecedor de evento ativo 173 determina que apenas a visualização de ocorrência deve receber uma sequência particular de subeventos. Em outras modalidades, o módulo de determinação de reconhecedor de evento ativo 173 determina que todas as visualizações que incluir a localização física de um subevento são visualizações ativamente envolvidas e, portanto, determinar que todas as visualizações ativamente envolvidas devem receber uma sequência particular de subeventos. Em outras modalidades, mesmo se subeventos de toques tiverem sido inteiramente confinados à área associada a uma visualização particular, as visualizações superiores na hierarquia poderiam ainda permanecer como visualizações ativamente envolvidas.
[000231] O módulo despachante de eventos 174 despacha as informações de evento para um reconhecedor de evento (por exemplo, o reconhecedor de eventos 180). Nas modalidades que incluem o módulo de determinação de reconhecedor de evento ativo 173, o módulo despachante de eventos 174 entrega as informações de evento a m reconhecedor de evento determinado pelo módulo de determinação de reconhecedor de evento ativo 173. Em algumas modalidades, o módu- lo despachante de eventos 174 armazena em uma fila de eventos as informações de evento, que são recuperadas por um módulo receptor de evento respectivo 182.
[000232] Em algumas modalidades, o sistema operacional 126 inclui o classificador de eventos 170. Alternativamente, o aplicativo 136-1 inclui o classificador de eventos 170. Em ainda outras modalidades, o classificador de eventos 170 é um módulo independente ou uma parte de outro módulo armazenado na memória 102, tal como o módulo de contato/movimento 130.
[000233] Em algumas modalidades, o aplicativo 136-1 inclui uma pluralidade de manipuladores de evento 190 e uma ou mais visualizações de aplicativo 191, cada uma das quais inclui instruções para manipular eventos de toque que ocorrem dentro de uma vista respectiva da interface de usuário do aplicativo. Cada visualização de aplicativo 191 do aplicativo 136-1 inclui um ou mais reconhecedores de eventos 180. Tipicamente, uma visualização de aplicativo respectiva 191 inclui uma pluralidade de reconhecedores de eventos 180. Em outras modalidades, um ou mais dos reconhecedores de eventos 180 são parte de um módulo separado, tal como um kit de interface de usuário (não mostrado) ou um objeto de nível superior de qual o aplicativo 136-1 herda métodos e outras propriedades. Em algumas modalidades, um manipulador de evento respectivo 190 inclui um ou mais dentre: atualizador de dados 176, atualizador de objeto 177, atualizador de GUI 178 e/ou dados de evento 179 recebidos do classificador de eventos 170. O manipulador de evento 190 utiliza ou executa opcionalmente o atuali- zador de dados 176, atualizador de objeto 177 ou atualizador de GUI 178 para atualizar o estado interno de aplicativo 192. Alternativamente, uma ou mais das visualizações de aplicativo 191 inclui um ou mais manipuladores de evento respectivos 190. Também, em algumas modalidades, um ou mais dentre o atualizador de dados 176, atualizador de objeto 177 e o atualizador de GUI 178 são incluídos em uma visualização de aplicativo respectiva 191.
[000234] Um reconhecedor de eventos respectivo 180 recebe as informações de evento (por exemplo, os dados de evento 179) do classificador de eventos 170 e identifica um evento das informações de evento. O reconhecedor de eventos 180 inclui o receptor de eventos 182 e comparador de eventos 184. Em algumas modalidades, o reco- nhecedor de eventos 180 também inclui pelo menos um subconjunto de: metadados 183 e instruções de entrega de eventos 188 (que incluem opcionalmente instruções de entrega de subeventos).
[000235] O receptor de eventos 182 recebe as informações de evento do classificador de eventos 170. As informações de evento incluem informações sobre um subevento, por exemplo, um toque ou um movimento de toque. Dependendo do subevento, as informações de evento também incluem informações adicionais, tal como a localização do subevento. Quando o subevento diz respeito a um movimento de toque, as informações de evento também incluem opcionalmente a velocidade e direção do subevento. Em algumas modalidades, os eventos incluem a rotação do dispositivo de uma orientação para outra (por exemplo, de uma orientação de retrato para uma orientação de paisagem ou vice-versa) e as informações de evento incluem informações correspondentes sobre a orientação atual (também chamada de atitude de dispositivo) do dispositivo.
[000236] O comparador de eventos 184 compara as informações de evento às definições de evento ou subevento predefinidas e, com base na comparação, determina um evento ou subevento ou determina ou atualiza o estado de um evento ou subevento. Em algumas modalidades, o comparador de eventos 184 inclui definições de evento 186. As definições de evento 186 contêm definições dos eventos (por exemplo, sequências predefinidas dos subeventos), por exemplo, o evento 1 (187-1), o evento 2 (187- 2) e outros. Em algumas modalidades, os subeventos em um evento 187 incluem, por exemplo, começo de toque, final de toque, movimento de toque, cancelamento de toque e toques múltiplos. Em um exemplo, a definição para o evento 1 (187-1) é um toque duplo em um objeto exibido. O toque duplo, por exemplo, compreende um primeiro toque (começo de toque) no objeto exibido para uma fase predeterminada, uma primeira elevação (final de toque) para uma fase predeterminada, um segundo toque (começo de toque) no objeto exibido para uma fase predeterminada e uma segunda elevação (final de toque) para uma fase predeterminada. Em outro exemplo, a definição para o evento 2 (187-2) é um toque de arrasto em um objeto exibido. O arrasto, por exemplo, compreende um toque (ou contato) no objeto exibido para uma fase predeterminada, um movimento do toque através do visor sensível ao toque 112 e elevação do toque (final de toque). Em algumas modalidades, o evento também inclui informações para um ou mais manipuladores de evento associados 190.
[000237] Em algumas modalidades, a definição de evento 187 inclui uma definição de um evento para um objeto de interface de usuário respectivo. Em algumas modalidades, o comparador de eventos 184 realiza um teste de ocorrência para determinar qual objeto de interface de usuário é associado a um subevento. Por exemplo, em uma visualização de aplicativo na qual três objetos de interface de usuário são exibidos no visor sensível ao toque 112, quando um toque é detectado no visor sensível ao toque 112, o comparador de eventos 184 realiza um teste de ocorrência para determinar qual dos três objetos de interface de usuário é associado ao toque (subevento). Se cada objeto exibido for associado a um manipulador de evento respectivo 190, o comparador de eventos usa o resultado do teste de ocorrência para determinar qual manipulador de evento 190 deve ser ativado. Por exemplo, o comparador de eventos 184 seleciona um manipulador de evento associado ao subevento e o objeto que ativa o teste de ocorrência.
[000238] Em algumas modalidades, a definição para um evento respectivo 187 também inclui ações atrasadas que atrasam a entrega das informações de evento até após ter sido determinado se a sequência de subeventos corresponde ou não ao tipo de evento do reconhecedor de eventos.
[000239] Quando um reconhecedor de eventos respectivo 180 determina que a série de subeventos não corresponde a qualquer um dos eventos nas definições de evento 186, o reconhecedor de eventos respectivo 180 insere um estado de evento impossível, um evento sem sucesso ou evento finalizado, após o qual o mesmo desconsidera os subeventos subsequentes do gesto baseado em toque. Nessa situação, outros reconhecedores de eventos, se houver, que permanecem ativos para a visualização de ocorrência continuam a rastrear e processar os subeventos de um gesto baseado em toque em andamento.
[000240] Em algumas modalidades, um reconhecedor de eventos respectivo 180 inclui metadados 183 com propriedades configuráveis, sinalizadores e/ou listas que indicam como o sistema de entrega de eventos deve realizar a entrega de subevento para reconhecedores de eventos ativamente envolvidos. Em algumas modalidades, os metadados 183 incluem propriedades configuráveis, sinalizadores e/ou listas que indicam como os reconhecedores de eventos interagem ou são habilitados para interagir entre si. Em algumas modalidades, os metadados 183 incluem propriedades configuráveis, sinalizadores e/ou listas que indicam se os subeventos são entregues a níveis variáveis na vista ou hierarquia programática.
[000241] Em algumas modalidades, um reconhecedor de eventos respectivo 180 ativa o manipulador de evento 190 associado a um evento quando um ou mais subeventos particulares de um evento são reconhecidos. Em algumas modalidades, um reconhecedor de eventos respectivo 180 entrega as informações de evento associadas ao evento para o manipulador de evento 190. A ativação de um manipulador de evento 190 é distinta do envio (e envio deferido) de subeventos a uma visualização de ocorrência respectiva. Em algumas modalidades, o reconhecedor de eventos 180 dispara um sinalizador associado ao evento reconhecido e o manipulador de evento 190 associado ao sinalizador capta o sinalizador e realiza um processo predefinido.
[000242] Em algumas modalidades, as instruções de entrega de evento 188 incluem instruções de entrega de subevento que entregam as informações de evento sobre um subevento sem ativar um manipulador de evento. Ao invés disso, as instruções de entrega de subeven- to entregam as informações de evento a manipuladores de evento associados à série de subeventos ou a vistas ativamente envolvidas. Os manipuladores de evento associados à série de subeventos ou com vistas ativamente envolvidas recebem as informações de evento e realizam um processo predeterminado.
[000243] Em algumas modalidades, o atualizador de dados 176 cria e atualiza os dados utilizados no aplicativo 136-1. Por exemplo, o atua- lizador de dados 176 atualiza o número de telefone utilizado no módulo de contatos 137 ou armazena um arquivo de vídeo utilizado no módulo reprodutor de vídeo 145. Em algumas modalidades, o atualizador de objeto 177 cria e atualiza os objetos utilizados no aplicativo 136-1. Por exemplo, o atualizador de objeto 176 cria um novo objeto de interface de usuário ou atualiza a posição de um objeto de interface de usuário. O atualizador de GUI 178 atualiza a GUI. Por exemplo, o atualizador de GUI 178 prepara as informações de exibição e envia as mesmas para o módulo gráfico 132 para a exibição em um visor sensível ao toque.
[000244] Em algumas modalidades, o manipulador(es) de eventos 190 inclui(em) ou tem(têm) acesso ao atualizador de dados 176, atua- lizador de objeto 177 e atualizador de GUI 178. Em algumas modalidades, o atualizador de dados 176, o atualizador de objeto 177 e o atualizador de GUI 178 são incluídos em um único módulo de um aplicativo respectivo 136-1 ou visualização de aplicativo 191. Em outras modalidades, os esmos são incluídos em dois ou mais módulos de software.
[000245] Deve ser entendido que a discussão anterior em relação à manipulação de evento dos toques de usuário em visores sensíveis ao toque também se aplica a outras formas de entradas de usuário para operar dispositivos de múltiplas funções 100 com dispositivos de entrada, nem todos os quais são iniciados em telas sensíveis ao toque. Por exemplo, o movimento de mouse e pressionamentos de botão de mouse, opcionalmente coordenados com retenções ou pressionamen- tos de teclado múltiplos ou únicos; movimentos de contato tais como toques, arrastos, rolagens, etc., em touchpads; entradas de caneta; movimento do dispositivo; instruções orais; movimentos de olho detectados; entradas biométricas; e/ou qualquer combinação dos mesmos são opcionalmente utilizadas como entradas que correspondem a su- beventos que definem um evento a ser reconhecido.
[000246] A Figura 2 ilustra um dispositivo de múltiplas funções portáteis 100 que tem uma tela sensível ao toque 112 em conformidade com algumas modalidades. A tela sensível ao toque exibe opcionalmente um ou mais gráficos dentro da interface de usuário (UI) 200. Nessa modalidade, assim como outros descritos abaixo, um usuário é habilitado para selecionar um ou mais dos gráficos fazendo-se um gesto nos gráficos, por exemplo, com um ou mais dedos 202 (não desenhados à escala na figura) ou uma ou mais canetas 203 (não desenhadas à escala na figura). Em algumas modalidades, a seleção de um ou mais gráficos ocorre quando o usuário interrompe o contato com os um ou mais gráficos. Em algumas modalidades, o gesto inclui opcionalmente um ou mais toques, um ou mais deslizamentos (da esquerda para a direita, da direita para a esquerda, para cima e/ou para baixo) e/ou um giro de um dedo (da direita para a esquerda, da esquerda para a direita, para cima e/ou para baixo) que fez contato com o dispositivo 100. Em algumas implantações ou circunstâncias, o contato inadvertido com um gráfico não seleciona o gráfico. Por exemplo, um gesto de deslizamento que se estende sobre um ícone de aplicativo opcionalmente não seleciona o aplicativo correspondente quando o gesto correspondente à seleção é um toque.
[000247] O dispositivo 100 também inclui opcionalmente um ou mais botões físicos, tal como botão de menu ou "início" 204. Conforme descrito anteriormente, o botão de menu 204 é, opcionalmente, utilizado para navegar para qualquer aplicativo 136 em um conjunto de aplicativos que são opcionalmente executados no dispositivo 100. Alternativamente, em algumas modalidades, o botão de menu é implantado como uma tecla de função em uma GUI exibida na tela sensível ao toque 112. Em algumas modalidades, o botão 204 inclui um sensor de impressão digital integrado 169-1 para identificar uma impressão digital que está interagindo com o botão 204 e/ou detectando o movimento da impressão digital no botão 204. O dispositivo também inclui opcionalmente um ou mais outros sensores de impressão digital 169-2 que são separados do botão 204 e são utilizados ao invés de ou em con-junto com um sensor de impressão digital 169-1 integrado no botão 204 para identificar um usuário que interage com o dispositivo e/ou detecta o movimento da impressão digital. Adicionalmente, um ou mais dos outros sensores de impressão digital 169-2 são opcionalmente associados a um botão (por exemplo, uma região sensível à pressão que é ativada através da detecção de uma entrada com uma intensidade acima de um limiar de intensidade de ativação ou um atuador físico que se move em resposta à força aplicada por um usuário). Nas implantações em que a superfície sensível ao toque (por exemplo, Tela Sensível ao Toque 112) tem uma resolução espacial que é alta o suficiente para detectar as características de impressão digital formadas por cristas de impressão digital individuais, a superfície sensível ao toque (por exemplo, Tela Sensível ao Toque 112) é opcionalmente utilizada como um sensor de impressão digital ao invés de ou adicionalmente a um sensor de impressão digital separado (por exemplo, Sensores de Impressão Digital 169-1 ou 169-2). Em algumas modalidades, o dispositivo 100 inclui um conjunto de um ou mais sensores de orientação que são utilizados para determinar uma orientação de uma mão no dispositivo 100.
[000248] Em uma modalidade, o dispositivo 100 includes a tela sensível ao toque 112, um botão de menu 204, um botão de pressão 206 para ligar/desligar o dispositivo e travar o dispositivo, botão(ões) de ajuste de volume 208, uma entrada para cartão de Módulo de Identidade de Assinante (SIM) 210, uma conexão de fone de ouvido 212, e uma porta externa de ancoragem/carregamento 124. O botão de pressão 206 é, opcionalmente, utilizado para ligar/desligar a energia no dispositivo por pressionamento do botão e retenção do botão no estado pressionado por um intervalo de tempo predefinido; para travar o dispositivo por pressionamento do botão e liberação do botão antes do intervalo de tempo predefinido ter transcorrido; e/ou para destravar o dispositivo ou iniciar um processo de destravamento. Em uma modalidade alternativa, o dispositivo 100 também aceita entrada verbal para ativação ou desativação de algumas funções através do microfone 113. O dispositivo 100 também, opcionalmente, inclui um ou mais sensores de intensidade de contato 165 para detectar a intensidade de contatos na tela sensível ao toque 112 e/ou um ou mais geradores de saída tátil 167 para gerar saídas táteis para um usuário do dispositivo 100.
[000249] A Figura 3 é um diagrama de blocos de um dispositivo de múltiplas funções exemplificativo com um visor e uma superfície sensível ao toque em conformidade com algumas modalidades. O dispositivo 300 não precisam ser portáteis. Em algumas modalidades, o dispositivo 300 é um computador do tipo laptop, um computador do tipo desktop, um computador do tipo tablet, um dispositivo reprodutor de multimídia, um dispositivo de navegação, um dispositivo educacional (tal como um brinquedo de aprendizagem de criança), um sistema de jogo, ou um dispositivo de controle (por exemplo, um controlador doméstico ou industrial). O dispositivo 300 tipicamente inclui uma ou mais unidades de processamento (CPUs) 310, uma ou mais interfaces de rede e outras comunicações 360, uma memória 370 e um ou mais barramentos de comunicação 320 para interconectar esses componentes. Os barramentos de comunicação 320 opcionalmente incluem um conjunto de circuitos (algumas vezes chamado de um conjunto de chips) que interconecta e controla as comunicações entre componentes do sistema. O dispositivo 300 inclui uma interface de entrada/saída (I/O) 330 que compreende o visor 340, que é tipicamente um visor com tela sensível ao toque. A interface I/O 330 também inclui opcionalmente um teclado e/ou mouse (ou outro dispositivo de apontamento) 350 e um touchpad 355, gerador de saída tátil 357 para gerar saídas táteis no dispositivo 300 (por exemplo, similar ao(s) gerador(es) de saída tátil 167 descrito(s) acima com referência à Figura 1A), sensores 359 (por exemplo, sensores ópticos, de aceleração, de proximidade, sensíveis ao toque e/ou de intensidade de contato similares ao(s) sensor(es) de intensidade de contato 165 descrito(s) acima com referência à Figura 1A, e/ou sensores de impressão digital similares ao(s) sensor(es) de impressão digital 169 descrito(s) acima com referência à Figura 1 A). Adicionalmente, em implantações em que a superfície sensível ao toque (por exemplo, Touchpad 355) tem uma resolução espacial que é alta o suficiente para detectar características da impressão digital formadas por sulcos de impressão digital individuais, a superfície sensível ao toque (por exemplo, Touchpad 355) é opcionalmente utilizada como um sensor de impressão digital em vez de, ou adicionalmente a, um sensor de impressão digital separado (por exemplo, um dos sensores 359). Em algumas modalidades, o dispositivo 300 inclui um conjunto de um ou mais sensores de orientação que são utilizados para determinar uma orientação de um dedo ou mão em ou próximo ao dispositivo (por exemplo, uma orientação de um dedo que está sobre o sensor de impressão digital 169). Adicionalmente, em algumas modalidades, o conjunto de um ou mais sensores de orientação é utilizado adicionalmente ou em vez de um sensor de impressão digital para detectar a rotação de um contato que está interagindo com o dispositivo. Por exemplo, em um ou mais dos métodos descritos abaixo, em vez de usar um sensor de impressão digital para detectar a rotação de uma impressão digital/contato, o conjunto de um ou mais sensores de orientação é utilizado para detectar a rotação do contato que inclui a impressão digital, com ou sem detectar características da impressão digital.
[000250] A memória 370 inclui memória de acesso aleatório de alta velocidade, tal como DRAM, SRAM, DDR RAM ou outros dispositivos de memória de estado sólido de acesso aleatório; e opcionalmente inclui memória não volátil, tal como um ou mais dispositivos de armazenamento de disco magnético, dispositivos de armazenamento de disco óptico, dispositivos de memória flash, ou outros dispositivos de armazenamento de estado sólido não volátil. A memória 370 opcionalmente inclui um ou mais dispositivos de armazenamento remotamente localizados em relação à(s) CPU(s) 310. Em algumas modalidades, a memória 370 armazena programas, módulos e estruturas de dados análogos aos programas, aos módulos e às estruturas de dados na me- mória 102 do dispositivo de múltiplas funções portátil 100 (Figura 1A), ou um subconjunto dos mesmos. Além disso, a memória 370 opcionalmente armazena programas, módulos e estruturas de dados adicionais não presentes na memória 102 do dispositivo de múltiplas funções portátil 100. Por exemplo, a memória 370 do dispositivo 300 opcionalmente armazena um módulo de desenho 380, um módulo de apresentação 382, um módulo de processamento de texto 384, um módulo de criação de site da web 386, um módulo de preparação de disco 388 e/ou um módulo de planilha eletrônica 390, enquanto a memória 102 do dispositivo de múltiplas funções portátil 100 (Figura 1A) opcionalmente não armazena esses módulos.
[000251] Cada um dos elementos identificados acima na Figura 3 é, opcionalmente, armazenado em um ou mais dos dispositivos de memória mencionados anteriormente. Cada um dos módulos identificados acima corresponde a um conjunto de instruções para realizar uma função descrita acima. Os módulos ou os programas identificados acima (isto é, conjuntos de instruções) não precisam ser implantados como módulos, procedimentos ou programas de software separados e, portanto, vários subconjuntos desses módulos são, opcionalmente, combinados ou redispostos de outro modo em várias modalidades. Em algumas modalidades, a memória 370 opcionalmente armazena um subconjunto dos módulos e estruturas de dados identificados acima. Além disso, a memória 370 opcionalmente armazena módulos e estru-turas de dados adicionais não descritos acima.
[000252] A atenção é agora direcionada às modalidades de interfaces de usuário ("UI") que são, opcionalmente, implantadas em dispositivo de múltiplas funções portátil 100.
[000253] A Figura 4A ilustra uma interface de usuário exemplificativa para um menu de aplicativos no dispositivo de múltiplas funções portátil 100 em conformidade com algumas modalidades. Interfaces de usuário similares são, opcionalmente, implantadas no dispositivo 300. Em algumas modalidades, a interface de usuário 400 inclui os seguintes elementos ou um subconjunto ou superconjunto dos mesmos:
[000254] • Indicador(es) de intensidade de sinal 402 para comunica- ção(ões) sem fio, tal como sinais de celular e Wi-Fi;
[000255] • Tempo 404;
[000256] • Indicador de Bluetooth 405;
[000257] • Indicador de situação de bateria 406;
[000258] • Bandeja 408 com ícones para aplicativos frequentemente utilizados, tal como:
[000259] o o Ícone 416 para módulo de telefone 138, identificado como "Fone", que opcionalmente inclui um indicador 414 do número de chamadas perdidas ou mensagens de correio de voz;
[000260] o o Ícone 418 para módulo de cliente de e-mail 140, iden tificado como "Correio", que opcionalmente inclui um identificador 410 do número de e-mails não lidos;
[000261] o o Ícone 420 para módulo de navegador 147, identifica do como "Navegador"; e
[000262] o o Ícone 422 para módulo de reprodutor de vídeo e mú sica 152, também referido como módulo de iPod (marca registrada da Apple Inc.) 152, identificado como "iPod"; e
[000263] • Ícones para outros aplicativos, tal como:
[000264] o o Ícone 424 para módulo IM 141, identificado como "Texto";
[000265] o o Ícone 426 para módulo de calendário 148, identifi cado como "Calendário";
[000266] o o Ícone 428 para módulo de gerenciamento de ima gem 144, identificado como "Fotos";
[000267] o o Ícone 430 para módulo de câmera 143, identificado como "Câmera";
[000268] o o Ícone 432 para módulo de vídeo online 155, identifi cado como "Vídeo Online";
[000269] o o Ícone 434 para widget de ações 149-2, identificado como "Ações";
[000270] o o Ícone 436 para módulo de mapa 154, identificado como "Mapa";
[000271] o o Ícone 438 para widget de clima 149-1, identificado como "Clima";
[000272] o o Ícone 440 para widget de despertador 149-4, identi ficado como "Relógio";
[000273] o o Ícone 442 para módulo de suporte de exercício 142, identificado como "Suporte de Exercício";
[000274] o o Ícone 444 para módulo de notas 153, identificado como "Notas"; e
[000275] o o Ícone 446 para um aplicativo ou módulo de aplicati vo de definições, que fornece acesso para definições para o dispositivo 100 e seus vários aplicativos 136.
[000276] Deve-se perceber que as identificações de ícone ilustradas na Figura 4A são meramente exemplificativas. Por exemplo, o ícone 422 para módulo reprodutor de vídeo e música 152 é identificado como "Música" ou "Reprodutor de Música". Outras identificações são, opcionalmente, utilizadas para vários ícones de aplicativo. Em algumas modalidades, uma identificação para um respectivo ícone de aplicativo inclui um nome de um aplicativo correspondente ao respectivo ícone de aplicativo. Em algumas modalidades, uma identificação para um ícone de aplicativo particular é distinto de um nome de um aplicativo correspondente ao ícone de aplicativo particular.
[000277] A Figura 4B ilustra uma interface de usuário exemplificativa em um dispositivo (por exemplo, dispositivo 300, Figura 3) com uma superfície sensível ao toque 451 (por exemplo, um computador do tipo tablet ou touchpad 355, Figura 3) que é separado do visor 450 (por exemplo, visor com tela sensível ao toque 112) com um sensor de impressão digital integrado 359-1 (ou separado 359-2) (por exemplo, um ou mais dos sensores 359 que operam de uma maneira análoga ao sensor de impressão digital 169 na Figura 1A). Adicionalmente, nas implantações em que a superfície sensível ao toque 451 tem uma resolução espacial que é alta o suficiente para detectar características de impressão digital formadas por sulcos de impressão digital individuais, a superfície sensível ao toque 451 é opcionalmente utilizada como um sensor de impressão digital em vez de, ou adicionalmente a, um sensor de impressão digital distinto (por exemplo, sensor de impressão digital integrado 359-1 ou sensor de impressão digital separado 3592). O dispositivo 300 também, opcionalmente, inclui um ou mais sensores de intensidade de contato (por exemplo, um ou mais dos sensores 359-3) para detectar a intensidade de contatos na superfície sensível ao toque 451 e/ou um ou mais geradores de saída tátil 357 para gerar saídas táteis para um usuário do dispositivo 300.
[000278] Embora alguns dos exemplos que seguem sejam dados com referência a entradas em um visor com tela sensível ao toque 112 (em que a superfície sensível ao toque e o visor são combinados), em algumas modalidades, o dispositivo detecta entradas em uma superfície sensível ao toque que é separada do visor, conforme mostrado na Figura 4B. Em algumas modalidades a superfície sensível ao toque (por exemplo, 451 na Figura 4B) tem um eixo geométrico primário (por exemplo, 452 na Figura 4B) que corresponde a um eixo geométrico primário (por exemplo, 453 na Figura 4B) no visor (por exemplo, 450). Em conformidade com essas modalidades, o dispositivo detecta contatos (por exemplo, 460 e 462 na Figura 4B) com a superfície sensível ao toque 451 em locais que correspondem aos respectivos locais no visor (por exemplo, na Figura 4B, 460 corresponde a 468 e 462 cor- responde a 470). Dessa forma, as entradas de usuário (por exemplo, contatos 460 e 462, e movimentos dos mesmos) detectadas pelo dispositivo na superfície sensível ao toque (por exemplo, 451 na Figura 4B) são utilizadas pelo dispositivo para manipular a interface de usuário no visor (por exemplo, 450 na Figura 4B) do dispositivo de múltiplas funções quando a superfície sensível ao toque está separada do visor. Deve-se entender que métodos similares podem ser, opcionalmente, utilizados para outras interfaces de usuário descritas no presente documento.
[000279] Adicionalmente, apesar de os seguintes exemplos serem dados primariamente com referência a entradas de dedo (por exemplo, contatos de dedo, gestos de tocar o dedo, gestos de deslizar o dedo), deve-se entender que, em algumas modalidades, uma ou mais das entradas de dedo são substituídas por entrada de outro dispositivo de entrada (por exemplo, uma entrada baseada em mouse ou entrada de caneta). Por exemplo, um gesto de deslizamento é, opcionalmente, substituído por um clique de mouse (por exemplo, ao invés de um contato) seguido por movimento do cursor ao longo do caminho do deslizamento (por exemplo, em vez de movimento do contato). Como outro exemplo, um gesto de tocar é, opcionalmente, substituído por um clique de mouse enquanto o cursor está localizado sobre a localização do gesto de tocar (por exemplo, em vez de detecção do contato seguido por parada de detecção do contato). Similarmente, quando múltiplas entradas de usuário são simultaneamente detectadas, deve-se entender que múltiplos mouses de computador são, opcionalmente, utilizados de modo simultâneo ou um mouse e contatos de dedo são, opcionalmente, utilizados de modo simultâneo.
[000280] Conforme utilizado no presente documento, o termo "seletor de foco" refere-se a um elemento de entrada indica uma parte atual de uma interface de usuário com a qual um usuário está interagindo. Em algumas implantações que inclui um cursor ou outro marcador de local, o cursor atua como um "seletor de foco", de modo que, quando uma entrada (por exemplo, uma entrada de pressão) é detectada em uma superfície sensível ao toque (por exemplo, touchpad 355,a Figura 3 ou superfície sensível ao toque 451 na Figura 4B), enquanto o cursor está sobre um elemento de interface de usuário particular (por exemplo, um botão, uma janela, um indicador ou outro elemento de interface de usuário ), o elemento de particular interface de usuário é ajustado em conformidade com a entrada detectada. Em algumas implantações que incluem um visor sensível ao toque (por exemplo, sistema de visor sensível ao toque 112 na Figura 1 A ou a tela sensível ao toque 112 na Figura 4 A) que habilita a interação direta com elementos de interface de usuário no visor sensível ao toque, um contato detectado na tela sensível ao toque atua como um "seletor de foco", de modo que quando uma entrada (por exemplo, uma entrada de pressão pelo contato) é detectada no visor sensível ao toque em uma localização de um elemento de interface de usuário particular (por exemplo, um botão, uma janela, um indicador ou outro elemento de interface de usuário), o elemento de interface de usuário particular é ajustado em conformidade com a entrada detectada. Em algumas implantações, o foco é movido de uma região de uma interface de usuário a outra região da interface de usuário sem movimento correspondente de um cursor ou um movimento de um contato de um visor sensível ao toque (por exemplo, com o uso de uma tecla tab ou teclas de seta para mover o foco de um botão para outro botão); nessas implantações, o seletor de foco move-se em conformidade com o movimento do foco entre diferentes regiões da interface de usuário. Sem considerar a forma específica tomada pelo seletor de foco, o seletor de foco é em geral o elemento de interface de usuário (ou contato em um visor sensível ao toque) que é controlado pelo usuário de modo a comunicar a interação pretendida do usuário com a interface de usuário (por exemplo, indicado ao dispositivo o elemento da interface de usuário com o qual o usuário pretende interagir). Por exemplo, a localização de um seletor de foco (por exemplo, um cursor, um contato ou uma caixa de seleção) sobre um respectivo botão enquanto uma entrada de pressão é detectada na superfície sensível ao toque (por exemplo, um touchpad ou tela sensível ao toque) indicará que o usuário pretende ativar o respectivo botão (e oposição a outros elementos de interface de usuário mostrados em um visor do dispositivo).
[000281] A Figura 4C mostra uma representação esquemática de duas mãos com impressões digitais associadas (impressão digital "dedo mínimo esquerdo"), LR (impressão digital "anular esquerdo"), LM (impressão digital "dedo médio esquerdo"), LI (impressão digital "indicador esquerdo"), LT (impressão digital "polegar esquerdo"), RT (impressão digital "polegar direito"), RI (impressão digital "indicador direito"), RM (impressão digital "dedo médio direito"), RR (impressão digital "anular direito"), RP (impressão digital "dedo mínimo direito"). Essas abreviações serão utilizadas com referências a outras figuras que mostram exemplos de interações com um sensor de impressão digital. Para alguns dos métodos descritos no presente documento, uma ou mais impressões digitais de um usuário são registradas por coleta de informações sobre a impressão digital que poderiam possibilitar que a impressão digital seja identificada. Essas impressões digitais registradas ou impressões digitais pré-registradas são também, algumas vezes, referidas como impressões digitais arroladas. Em muitas situações descritas abaixo, as impressões digitais detectadas em um sensor de impressão digital são comparadas contra impressões digitais previamente registradas (por exemplo, impressões digitais arroladas).
[000282] A Figura 4D mostra dois tipos diferentes de rotação de uma impressão digital em um sensor de impressão digital (por exemplo, o sensor de impressão digital 169 que está integrado no botão 204). No lado esquerdo da Figura 4D, está um exemplo de uma impressão digital "girando" em torno de um sensor de impressão digital, em que um centroide da impressão digital move-se em um movimento de em forma do número oito (por exemplo, um movimento do tipo do tipo circular) em torno de um centro do sensor de impressão digital. No lado direito da Figura 4D, está um exemplo de uma impressão digital "contorção" em um sensor de impressão digital, em que um eixo geométrico primário da impressão digital muda a orientação em relação ao sensor de impressão digital. Esses termos (por exemplo, "giro" e "contorção") serão utilizados para descrever diferentes tipos de rotação de uma impressão digital em um sensor de impressão digital em referência a ou-tras figuras que mostram exemplos de indicações com um sensor de impressão digital.
[000283] Conforme mostrado na Figura 4D, em algumas modalidades, o sensor de impressão digital é menor que, ou aproximadamente do mesmo tamanho que, uma impressão digital média. Portanto, em algumas modalidades, o sensor de impressão digital detecta o movimento da impressão digital (por exemplo, gestos da impressão digital) detectando o movimento de características de impressão digital da impressão digital em vez de ou adicionalmente a detectar o movimento das bordas da impressão digital. Em outras palavras, em algumas implantações, o sensor de impressão digital detecta o movimento da impressão digital não por determinação de movimento de um contorno da impressão digital (por exemplo, um "contato"), mas por detecção do movimento dos sulcos (ou pontos minuciosos específicos nos sulcos) da impressão digital sobre o sensor de impressão digital. Em relação à possibilidade de o sensor de impressão digital ser maior ou menor que a impressão digital, detectar o movimento de uma impressão digital (por exemplo, gestos de impressão digital) com base no movimento de características da impressão digital em vez de, ou adicionalmente a, detectar o movimento da impressão digital com base no movimento de uma borda ou um contorno da impressão digital possibilita que o movimento da impressão digital seja rastreado em muito mais detalhes e fornece a capacidade de rastrear o movimento da impressão digital mesmo quando uma impressão digital está cobrindo toda ou uma porção grande do sensor de impressão digital. INTERFACES DE USUÁRIO E PROCESSOS ASSOCIADOS Interação com Interfaces de Usuário
[000284] Muitos dispositivos eletrônicos têm interfaces gráficas de usuário que permitem que os usuários realizem uma variedade de funções e operações associadas às respectivas interfaces de usuário (por exemplo, tela inicial ou interfaces de execução de aplicativo com ícones selecionáveis pelo usuário para selecionar aplicativos a serem executados; as interfaces de aplicativo associadas aos aplicativos, tal como mapas para realizar operações de navegação, calculadores para realizar computação, visualizadores de foto para visualizar fotografias digitais, aplicativos de busca, aplicativos de câmera e similares; interfaces de usuário de sistema associadas a várias funções de nível de sistema). Durante a interação com tais interfaces, o usuário frequen-temente deseja navegar através de uma dada interface de usuário; ou par comutar de uma interface de usuário para outra (por exemplo, de uma interface de aplicativo de calculador para uma interface de aplicativo de visualização de foto; ou de uma interface de tela inicial para uma interface de aplicativo de câmera; e similares) ou para comutar de uma interface de usuário de aplicativo para uma interface de usuário de sistema (por exemplo, para uma interface de usuário de múltiplas tarefas). Algumas abordagens para navegar através de uma interface de usuário envolvem fazer gestos de deslizamento de longa duração através de uma porção substancial de uma superfície sensível ao to- que (tal como um visor com tela sensível ao toque). Algumas abordagens para comutar entre interfaces de usuário de aplicativo (por exemplo, comutar entre aplicativos) envolvem retornar para uma tela inicial e, então, alternar páginas da tela inicial para visualizar um ícone correspondente a um aplicativo desejado e, então, selecionar um ícone correspondente ao aplicativo desejado para executar o aplicativo desejado. Similarmente, algumas abordagens para comutar para uma interface de usuário de múltiplas tarefas envolvem fazer múltiplos contatos concorrentes com o botão de menu ou inicial a fim de exibir uma interface de usuário de sistema. Essas abordagens são inconvenientes e exigem que o usuário ou faça movimentos prolongados de um ou mais contatos de dedo com uma superfície sensível ao toque ou faça múltiplos contatos sequenciais com o dispositivo, o que pode levar muito tempo e ser difícil para um usuário lembrar.
[000285] As modalidades reveladas fornecem um método conveniente e eficiente de interação com as interfaces de usuário (por exemplo, ou navegando através de uma interface de usuário atual ou exibindo uma interface de usuário diferente) através do uso de um movimento único curto de uma impressão digital (por exemplo, detectado em um sensor de impressão digital localizado no dispositivo) em uma de duas direções. Durante a exibição de uma primeira interface de usuário (tal como uma interface de usuário de aplicativo), em resposta a detectar um movimento de impressão digital no sensor de impressão digital em uma primeira direção (por exemplo, horizontalmente, da direita para a esquerda, ou da esquerda para a direita), o dispositivo navega através da primeira interface de usuário (por exemplo, translada ou rola pelo menos uma porção do conteúdo na primeira interface de usuário) e em resposta a detectar um movimento de impressão digital no sensor de impressão digital em uma segunda direção (por exemplo, uma direção vertical, para cima), o dispositivo exibe uma segunda interface de usu- ário (por exemplo, uma interface de usuário de múltiplas tarefas ou a interface de usuário correspondente a um aplicativo utilizado mais recentemente). Como resultado, o usuário tem a conveniência aprimorada de interação com uma ou mais interfaces de usuário de duas formas diferentes — por exemplo, ou navegando através de uma primeira interface de usuário (ou atual) ou exibindo uma segunda interface de usuário— simplesmente por realização de um gesto que envolve o movimento de uma impressão digital em uma de duas direções em um sensor de impressão digital.
[000286] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1 A). O dispositivo descrito abaixo com referência a 5A a 5N e 6A a 6C inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A não ser que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e do software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência de explicação, as modalidades descritas com referência às Figuras 5A a 5N e 6A a 6C serão discutidas com referência ao visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2, no entanto, operações analógicas são, opcionalmente, realizadas em um dispositivo com um sensor de impressão digital integrado 359-1 em resposta a detectar as entradas descritas nas Figuras 5A a 5N no sensor de impressão digital integrado 359-1 durante a exibição das interfaces de usuário mostradas nas Figuras 5A a 5N no visor 450. Adicionalmente, operações análogas são, opcionalmente, realizadas em um dispositivo com uma tela sensível ao toque 112 em resposta a detectar os contatos descritos nas Figuras 5A a 5N em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) durante a exibição das interfaces de usuário mostradas nas Figuras 5A a 5N na tela sensível ao toque 112; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar do cursor 5N.
[000287] A Figura 5A ilustra uma primeira interface de usuário (por exemplo, uma interface de usuário de aplicativo, tal como uma interface de usuário de aplicativo de mapa) com conteúdo (por exemplo, um mapa e instruções de navegação) que é exibido em um visor 502 de um dispositivo portátil com múltiplas funções 100. Em algumas modalidades, o visor 502 é um visor sensível ao toque com um arranjo de sensores de toque que são responsivos ao toque. Conforme mostrado na Figura 5 A, o dispositivo 100 inclui um sensor de impressão digital 169. Em algumas modalidades, o sensor de impressão digital 169 é separado do visor 502. Ademais, conforme mostrado na Figura 5A, em algumas modalidades, o sensor de impressão digital 169 está integrado em um botão físico (por exemplo, botão inicial ou botão de menu 204). Em algumas modalidades, o dispositivo inclui uma superfície sensível ao toque (por exemplo, uma superfície sensível ao toque disposta com o visor na forma de um visor sensível ao toque, tal como o visor sensível ao toque 502; e/ou uma superfície sensível ao toque separada do visor no dispositivo), e o sensor de impressão digital é separado da superfície sensível ao toque. Em tais modalidades, apesar de o sensor de impressão digital ser responsivo ao local, proximidade e/ou toque de um contato de dedo (por exemplo, na forma de uma impressão digital) e ser opcionalmente responsivo ao movimento do contato de dedo (por exemplo, na forma de um movimento da impressão digital), a resolução espacial do sensor de impressão digital (por exemplo, para detectar a localização espacial e/ou o movimento do dedo) é maior que (por exemplo, mais sensível que) a resolução de superfícies sensíveis ao toque convencionais; tornando, assim, o sensor de impressão digital mais sensível a um movimento espacial de magnitude pequena do dedo do que as superfícies sensíveis ao toque convencionais.
[000288] As Figuras 5B a 5C ilustram, durante a exibição de uma primeira interface de usuário, a detecção de um movimento de uma impressão digital no sensor de impressão digital 169 em uma primeira direção (por exemplo, em uma direção lateral ou horizontal ou ao longo de um eixo geométrico curto do dispositivo de múltiplos propósitos; da direita para a esquerda); e em resposta, a navegação através da primeira interface de usuário. Em algumas modalidades, conforme mostrado na Figura 5B, enquanto a primeira interface de usuário (por exemplo, a interface de usuário de mapa) é exibida no visor 502, um movimento de uma impressão digital (por exemplo, impressão digital 510 e movimento associado 512) é detectado no sensor de impressão digital 169. Em resposta a detectar o movimento 512 da impressão digital 510 no sensor de impressão digital 169 (por exemplo, de uma localização de impressão digital 510 mostrado na Figura 5B para uma localização de impressão digital 510 mostrado na Figura 5C), o dispositivo navega através da primeira interface de usuário Por exemplo, o dispositivo translada pelo menos uma porção da primeira interface de usuário na direção do movimento da impressão digital 510 (por exemplo, da direita pra a esquerda) para exibir as porções adicionais da primeira interface de usuário, conforme mostrado na Figura 5C, que não foram previamente exibidas na Figura 5B. Portanto, em algumas modalidades, durante a exibição de uma primeira interface de usuário (por exemplo, correspondente a um primeiro pedido ou a uma interface de usuário de execução de aplicativo), em resposta a detectar um movimento de uma impressão digital em uma primeira direção (por exemplo, em uma direção lateral ou horizontal ou ao longo do eixo geométrico curto do dispositivo de múltiplos propósitos; da direita para a esquerda) em um sensor de impressão digital, o dispositivo navega através da primeira interface de usuário (por exemplo, translada pelo menos uma porção do conteúdo exibido na primeira interface de usuário).
[000289] As Figuras 5D a 5E ilustram, durante a exibição de uma primeira interface de usuário, a detecção de um movimento de uma impressão digital no sensor de impressão digital 169 em uma segunda direção (por exemplo, em uma direção vertical ou ao longo de um eixo geométrico longo do dispositivo de múltiplos propósitos para cima); e em resposta, a exibição de uma segunda interface de usuário diferente da primeira interface de usuário. Conforme mostrado na Figura 5D, em algumas modalidades, durante a exibição da primeira interface de usuário (por exemplo, aplicativo de mapa), o movimento de uma impressão digital (por exemplo, impressão digital 514 e movimento asso- ciado 516) é detectado no sensor de impressão digital 169 do dispositivo 100, em que o movimento correspondente 516 é em uma segunda direção (por exemplo, em uma direção vertical ou ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos; para cima, com referência à orientação do dispositivo 100 mostrado na Figura 5D). Em conformidade com uma determinação de que o movimento 516 da impressão digital 514 está na segunda direção (por exemplo, em uma direção para cima vertical, da localização da impressão digital 514 mostrada na Figura 5D para a localização da impressão digital 514 mostrada na Figura 5E), uma segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517 que inclui ícones selecionáveis por usuário correspondentes a um conjunto de aplicativos utilizados mais recentemente, tal como um aplicativo de notas, um aplicativo de câmera, um aplicativo visualizador de foto e um aplicativo de registro de gravador; em que a seleção dos ícones na interface de usuário de múltiplas tarefas 517 fará com que o dispositivo rode um aplicativo correspondente ao ícone selecionado como um aplicativo atualmente ativo, algumas vezes chamado de aplicativo de primeiro plano) é exibida, conforme mostrado na Figura 5E. Por exemplo, a seleção do ícone "notas" fará com que o dispositivo rode o aplicativo de notas como um aplicativo atualmente ativo e a seleção do ícone "câmera" fará com que o dispositivo rode o aplicativo de câmera como um aplicativo atualmente ativo.
[000290] Dessa forma, em algumas modalidades, a interface de usuário de aplicativo (por exemplo, a interface de usuário de aplicativo de mapa mostrada nas Figuras 5D a 5E) é pelo menos parcialmente substituída pela segunda interface de usuário (por exemplo, o aplicativo de mapa é parcialmente deslocado para cima e/ou pelo menos parcialmente ocultado pela interface de usuário de múltiplas tarefas 517 mostrada na Figura 5E). Em algumas modalidades, mediante a exibi- ção da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5E), um ou mais elementos interativos na interface de usuário de aplicativo são desabilitados da interação com usuário (por exemplo, enquanto a interface de usuário de múltiplas tarefas 517 é exibida, o aplicativo de mapa poderia ser desa- bilitado da interação com usuário e o usuário não seria capaz de rolar, navegar ou interagir de outro modo com o aplicativo de mapa). Portanto, em algumas modalidades, durante a exibição de uma primeira interface de usuário (por exemplo, correspondente a um primeiro aplicativo), em resposta a detectar um movimento de uma impressão digital em uma segunda direção (por exemplo, uma direção vertical ou ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos; para cima), o dispositivo exibe uma segunda interface de usuário de sistema (por exemplo, uma interface de usuário de múltiplas tarefas).
[000291] As Figuras 5F a 5G ilustram, durante a exibição da segunda interface de usuário, a detecção de um movimento de uma impressão digital no sensor de impressão digital 169 em uma primeira direção (por exemplo, em uma direção lateral ou horizontal ou ao longo de um eixo geométrico curto do dispositivo de múltiplos propósitos; da direita para a esquerda); e em resposta, a navegação através da segunda interface de usuário. Em algumas modalidades, durante a exibição da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5F), o movimento de uma impressão digital (por exemplo, impressão digital 518 e movimento associado 520) é detectado no sensor de impressão digital 169 do dispositivo 100, em que o movimento correspondente está na primeira direção (por exemplo, em uma direção lateral ou horizontal ou ao longo do eixo geométrico curto do dispositivo de múltiplos propósitos; da direita para a esquerda com referência à orientação do dispositivo 100 mostrado na Figura 5F). Em resposta a detectar movimento 520 da impressão digi tal 518, o dispositivo navega através da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517, Figuras 5F a 5G). Por exemplo, o dispositivo translada pelo menos uma porção da segunda interface de usuário na direção do movimento 520 da impressão digital 518 para exibir porções adicionais da segunda interface de usuário (por exemplo, ícones adicionais para um aplicativo de mensagem, um aplicativo de calendário e um aplicativo de relógio conforme mostrado na Figura 5G, que não foram previamente exibidos na Figura 5F, e os ícones para o aplicativo de notas, o aplicativo de câmera, o aplicativo de fotos e o aplicativo de registro de gravador que foram previamente exibidos na Figura 5F param de ser exibidos na Figura 5G). Em algumas modalidades, em resposta a detectar o movimento da impressão digital da esquerda para a direita no sensor de impressão digital, a navegação através da segunda interface de usuário poderia ser revertida, de modo que os ícones para o aplicativo de notas, o aplicativo de câmera, o aplicativo de fotos e o aplicativo de registro de gravador que foram previamente exibidos na Figura 5F poderiam ser reexibidos.
[000292] Adicionalmente, as Figuras 5H a 5I ilustram, durante a exibição da segunda primeira interface de usuário, a detecção de um movimento de uma impressão digital no sensor de impressão digital 169 em uma terceira direção (por exemplo, uma direção vertical ou ao longo de um eixo geométrico longo do dispositivo de múltiplos propósitos para baixo; substancialmente oposta à segunda direção); e em resposta, o término da exibição da segunda interface de usuário. Em algumas modalidades, conforme ilustrado nas Figuras 5H a 5I, durante a exibição da segunda interface de usuário, o movimento de uma impressão digital (por exemplo, impressão digital 522 e movimento associado 524) é detectado no sensor de impressão digital 169 do dispositivo 100, em que o movimento 524 é em uma terceira direção (por exem- plo, em uma direção vertical para baixo ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos com referência à orientação do dispositivo 100 mostrado na Figura 5H; uma direção substancialmente oposta à segunda direção com referência às Figuras 5D a 5E). Em resposta a detectar o movimento 524 de impressão digital 522 na terceira direção, o dispositivo interrompe a exibição da segunda interface de usuário (por exemplo, a interface de usuário de múltiplas tarefas 517 previamente mostrada na Figura 5H) e reexibe a primeira interface de usuário ou a interface de aplicativo de mapa (por exemplo, em sua totalidade), conforme mostrado na Figura 51.
[000293] As Figuras 5J a 5K ilustram, durante a exibição da primeira interface de usuário, a detecção de uma ativação dupla do botão inicial ou botão de menu 204 (por exemplo, em que o sensor de impressão digital 169 está, opcionalmente, integrado); e em resposta, a exibição da segunda interface de usuário. Em algumas modalidades, conforme ilustrado nas Figuras 5J a 5K, mediante a detecção de uma ativação dupla 530 do botão inicial ou botão de menu físico 204 (por exemplo, por meio de dois toques sucessivos ou entradas de pressão que ocorrem em sucessão rápida com menos que um intervalo de tempo predeterminado transcorrido entre os dois toques sucessivos, por exemplo, com um intervalo de tempo menor que 500 milissegundos, 300 milissegundos, 150 milissegundos, 50 milissegundos ou algum outro intervalo de tempo razoável; com ou sem uma elevação de dedo entre os dois toques sucessivos), a segunda interface (por exemplo, a inter-face de usuário de múltiplas tarefas mostrada previamente na Figura 5E com ícones selecionáveis por usuário correspondentes aos aplicativos ativos ou recentemente utilizados, tal como o aplicativo de bloco de notas, o aplicativo de câmera, o aplicativo visualizador de foto e o aplicativo de registro de gravador) é exibida no visor 502, conforme mostrado na Figura 5K e a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa) é pelo menos parcialmente ocultada ou removida por deslizamento do visor 502 e opcionalmente desativada de interação com usuário.
[000294] As Figuras 5K a 5L ilustram, durante a exibição da segunda interface de usuário, a detecção de uma ativação do botão inicial ou botão de menu físico 204 (por exemplo, em que o sensor de impressão digital 169 está integrado); e em resposta, o término da exibição da segunda interface de usuário (por exemplo, reexibição e reativação da primeira interface de usuário). Em algumas modalidades, conforme ilustrado nas Figuras 5K a 5L, mediante a ativação de detecção 532 do botão inicial ou do botão de menu físico 204 (por exemplo, por meio de toque ou entrada de pressão no botão físico 204), a segunda interface de usuário (por exemplo, a interface de usuário de múltiplas tarefas mostrada na Figura 5K com ícones selecionáveis por usuário correspondentes aos aplicativos recentemente utilizados ou ativos, tal como o aplicativo de bloco de notas, o aplicativo de câmera, o aplicativo vi- sualizador de foto e o aplicativo de registro de gravador) não é mais exibida no visor 502, conforme mostrado na Figura 5L. Em algumas modalidades, a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa) é reexibida (por exemplo, em sua totalidade) e reativada para entrada de usuário (por exemplo, de seu estado previamente desativado).
[000295] As Figuras 5M a 5N ilustram, durante a exibição da primeira interface de usuário, a detecção de uma ativação do botão inicial ou do botão de menu físico 204 (por exemplo, em que o sensor de impressão digital 169 está integrado); e, em resposta, a substituição da primeira interface de usuário (por exemplo, término da exibição da primeira interface de usuário) com uma interface de usuário predefinida (por exemplo, uma tela inicial ou interface de execução de aplicativo associada ao botão inicial ou ao botão de menu físico 204). Em algumas modalida- des, conforme ilustrado nas Figuras 5M a 5N, mediante a detecção de ativação 534 do botão inicial ou do botão de menu físico 204 (por exemplo, por meio de um toque ou entrada de pressão no botão físico 204), a primeira interface de usuário (por exemplo, a interface de usuário de múltiplas tarefas mostrada na Figura 5M) não é mais exibida no visor 502, conforme mostrado na Figura 5N. Em algumas modalidades, a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa) é substituída (por exemplo, em sua totalidade) com uma interface de usuário predefinida (por exemplo, uma tela inicial ou uma interface de usuário de execução de aplicativo, conforme mostrado na Figura 5N). Em algumas modalidades, a ativação do botão 204 enquanto a tela inicial é exibida poderia fazer o dispositivo exibir uma interface de usuário de busca predefinida.
[000296] As Figuras 6A a 6C são fluxogramas que ilustram um método 600 de interação com interfaces de usuário em conformidade com o movimento de um dedo em um sensor de impressão digital em conformidade com algumas modalidades. O método 600 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou dispositivo de múltiplas funções portátil 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor com tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 600 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000297] Conforme descrito abaixo, o método 600 fornece uma forma intuitiva de interagir com as interfaces de usuário. O método reduz a carga cognitiva sobre um usuário durante a interação com as interfaces de usuário, criando, assim, uma interface entre humano e máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, ha- bilitar um usuário a interagir com as interfaces de usuário mais rápido e de modo mais eficiente conserva a energia e aumenta o tempo entre cargas de bateria.
[000298] O dispositivo exibe (602), no visor, uma primeira interface de usuário (por exemplo, uma interface de usuário de aplicativo, tal como um aplicativo de mapa ou uma interface de usuário de aplicativo de navegação conforme mostrado na Figura 5A). Durante a exibição da primeira interface de usuário no visor, o dispositivo detecta (604) o movimento de uma impressão digital no sensor de impressão digital (por exemplo, o movimento 512 da impressão digital 510, Figura 5B; o movimento 516 da impressão digital 514, Figura 5D).
[000299] Em algumas modalidades, o sensor de impressão digital é (606) separado do (por exemplo, não coincidente com o) visor (por exemplo, o sensor de impressão digital 169 é separado do visor 502, Figura 5A). O dispositivo inclui (608) uma superfície sensível ao toque; e o sensor de impressão digital é separado da (por exemplo, não coincidente com a) superfície sensível ao toque.
[000300] Em resposta a detectar (610) movimento da impressão digital no sensor de impressão digital: em conformidade com uma determinação de que o movimento da impressão digital está em uma primeira direção (por exemplo, um componente primário do movimento da impressão digital está horizontalmente para direita, ou horizontalmente para esquerda conforme descrito acima com referência ao movimento 512 da impressão digital 510, Figura 5B), o dispositivo navega através da primeira interface de usuário (por exemplo, conforme descrito acima com referência à navegação através da interface de mapa mostrada nas Figuras 5B a 5C). Em algumas modalidades, o dispositivo navega de volta para um estado anterior, ou página anterior, ou página da web anterior, ou foto anterior (por exemplo, em resposta a detectar um movimento para direita da impressão digital) ou adiante para um estado seguinte, ou página seguinte, ou página da web seguinte, ou foto seguinte (por exemplo, em resposta a detectar um movimento para esquerda da impressão digital). Em algumas modalidades, o dispositivo rola a primeira interface de usuário horizontalmente em conformidade com a direção do movimento da impressão digital no sensor de impressão digital (por exemplo, o dispositivo translada pelo menos uma porção do conteúdo na primeira interface de usuário, tal como a interface de usuário de aplicativo de mapa, em conformidade com uma direção do movimento da impressão digital horizontalmente da direita para esquerda, conforme descrito acima com referência ao movimento da impressão digital 510 nas Figuras 5B a 5C).
[000301] Em conformidade com uma determinação de que o movimento da impressão digital está em uma segunda direção (por exemplo, um componente primário do movimento da impressão digital verticalmente para baixo ou verticalmente para cima conforme descrito acima com referência ao movimento 516 da impressão digital 514, Figura 5D) diferente da primeira direção, o dispositivo exibe uma segunda interface de usuário diferente da primeira interface de usuário no visor (por exemplo, conforme descrito acima com referência à interface de usuário de múltiplas tarefas 517 nas Figuras 5D a 5E). Em algumas modalidades, o dispositivo exibe uma interface de usuário de múltiplas tarefas (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5E; ou um aplicativo utilizado mais recentemente). Em algumas modalidades, exibir a segunda interface de usuário inclui substituir a primeira interface de usuário pela segunda interface de usuário. Em algumas modalidades, exibir a segunda interface de usuário inclui interromper a exibição de pelo menos uma porção da primeira interface de usuário (por exemplo, a primeira interface de usuário é pelo menos parcialmente coberta pela segunda interface de usuário ou a primeira interface de usuário slides pelo menos está parcialmente fora da exibi- ção de modo a exibir a segunda interface de usuário; conforme mostrado na Figura 5E, a interface de aplicativo de mapa é parcialmente removida por deslocamento do display 502 a fim de exibir a interface de usuário de múltiplas tarefas 517).
[000302] Em algumas modalidades, a primeira direção é (612) perpendicular (ou substancialmente perpendicular) à segunda direção. Por exemplo, conforme descrito acima com referência ao movimento 512 da impressão digital 510 nas Figuras 5B-5C, a primeira direção é uma direção lateral ou horizontal ou ao longo do eixo geométrico curto do dispositivo de múltiplos propósitos, da direita para esquerda; conforme descrito acima com referência ao movimento 516 da impressão digital 514 nas Figuras 5D a 5E, a segunda direção é uma direção vertical ou ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos; para cima (por exemplo, perpendicular ou substancialmente perpendicular à primeira direção).
[000303] Em algumas modalidades, a primeira interface de usuário é (614) uma interface de usuário de um primeiro aplicativo (por exemplo, interface de usuário de aplicativo de mapa, Figuras 5A a 5D); e a segunda interface de usuário é uma interface de usuário de múltiplas tarefas (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5E) que inclui representações (por exemplo, ícones selecionáveis) de uma pluralidade de aplicativos abertos ao mesmo tempo (por exemplo, um ícone "notas" correspondente a um aplicativo de bloco de notas, um ícone "câmera" correspondente a um aplicativo de câmera, um ícone "fotos" correspondente a um aplicativo visualizador de foto e um ícone "gravador" correspondente a um aplicativo de registro de gravador, conforme mostrado na Figura 5E). Em algumas modalidades, em resposta a detectar a seleção de uma respectiva representação de um dos aplicativos atualmente abertos, o dispositivo exibe um aplicativo aberto que corresponde à respectiva representação. Em al- gumas modalidades, a interface de usuário de múltiplas tarefas inclui representações (por exemplo, ícones selecionáveis) de um ou mais aplicativos utilizados recentemente (por exemplo, aplicativos que foram recentemente abertos no dispositivo, mas para o qual nenhuma informação de estado retida está atualmente armazenada). Conforme utilizado neste relatório descritivo, o termo "aplicativo aberto" refere-se a um aplicativo de software com informações de estado retidas (por exemplo, como parte do estado interno global/dispositivo 157 e/ou estado interno de aplicativo 192). Um aplicativo aberto é qualquer um dos seguintes tipos de aplicativos:
[000304] • um aplicativo ativo, que é atualmente exibido no visor 112 (ou uma visualização de aplicativo correspondente é atualmente exibida no visor);
[000305] • um aplicativo de segundo plano (ou processo de segundo plano), que não é atualmente exibido no visor 112, mas um ou mais processos de aplicativo (por exemplo, instruções) para o aplicativo correspondente estão sendo processados por um ou mais processadores 120 (isto é, rodando);
[000306] • um aplicativo suspenso, que não está atualmente rodan do, e o aplicativo estão armazenados em uma memória volátil (por exemplo, DRAM, SRAM, DDR RAM, ou outro dispositivo de memória de estado sólido de acesso aleatório de memória 102); e
[000307] • um aplicativo hibernado, que não está rodando, e o aplica tivo estão armazenados em uma memória não volátil (por exemplo, um ou mais dispositivos de armazenamento de disco magnético, dispositivos de armazenamento de dispo óptico, dispositivos de memória flash, ou outros dispositivos de armazenamento de estado sólido não volátil de memória 102).
[000308] Conforme utilizado no presente documento, o termo "aplicativo fechado" refere-se a aplicativos de software sem informações de estado retidas (por exemplo, informações para aplicativos fechados não são armazenadas em uma memória do dispositivo). Dessa forma, fechar um aplicativo incluir parar e/ou remover processos de aplicativo para o aplicativo e remover informações de estado para o aplicativo da memória do dispositivo. Em geral, abrir um segundo aplicativo enquanto um segundo aplicativo (por exemplo, comutar do primeiro aplicativo para o segundo aplicativo) não fecha o primeiro aplicativo. Quando o segundo aplicativo é exibido e o primeiro aplicativo deixa de ser exibido, o primeiro aplicativo, que foi um aplicativo ativo quando exibido, pode tornar-se um aplicativo de segundo plano, um aplicativo suspenso ou um aplicativo hibernado, mas o primeiro aplicativo permanece um aplicativo aberto enquanto suas informações de estado são retidas pelo dispositivo.
[000309] Em algumas modalidades, navegar através da primeira interface de usuário inclui (616) navegar através da primeira interface de usuário a uma taxa determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola ou translada pelo menos uma porção do conteúdo exibido na primeira interface de usuário a uma taxa de 5 milíme- tros/segundo para cada 1 milímetro de movimento pela impressão digital no sensor de impressão digital a partir de uma posição inicial da impressão digital no sensor de impressão digital. Em algumas modalidades, navegar através da primeira interface de usuário inclui (618) navegar através da primeira interface de usuário por uma quantidade determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola ou translada pelo menos uma porção do conteúdo exibido na primeira interface de usuário a uma taxa em 5 milímetros para cada 1 milímetro de movimento pela impressão digital no sensor de impressão digital. Em algumas modalidades, navegar através da primeira interface de usuário inclui (620) navegar através da primeira interface de usuário em uma direção determinada em conformidade com uma direção de movimento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola ou translada pelo menos uma porção do conteúdo exibido na primeira interface de usuário para direita quando a impressão digital move-se para direita no sensor de impressão digital e rola ou translada pelo menos uma porção do conteúdo exibido na primeira interface de usuário para esquerda quando a impressão digital move-se para esquerda no sensor de impressão digital (por exemplo, conforme descrito acima, com referência às Figuras 5B a 5C).
[000310] Em algumas modalidades, exibir a segunda interface de usuário inclui (622) exibir uma transição animada da segunda interface de usuário que aparece no visor; e a velocidade da transição animada é baseada em um deslocamento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo exibe a primeira interface de usuário deslizando para cima no visor para abrir espaço para a segunda interface de usuário que desliza no visor do fundo do visor.
[000311] Em algumas modalidades, o dispositivo inclui (624) um botão (por exemplo, um botão físico, tal como botão inicial ou botão de menu 204, Figura 5A); e o sensor de impressão digital é integrado no botão (por exemplo, o sensor de impressão digital 169 é integrado no botão inicial físico 204, Figura 5A). Em algumas modalidades, o botão físico é uma região sensível à intensidade do alojamento do dispositivo que é determinada para ter sido ativado pelo dispositivo quando a intensidade detectada no botão é aumentada sobre um limite de intensidade de ativação. Em algumas modalidades, o botão físico é acoplado a um comutador eletrônico em que o movimento do botão físico ao longo de um primeiro eixo geométrico (por exemplo, para cima e para baixo ou da esquerda para direita) fecha o comutador e ativa o botão físico (algumas vezes resultando em um "clique" audível ou tátil).
[000312] Em algumas modalidades, enquanto a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa, Figura 5M) é exibida, o dispositivo detecta (626) a ativação do botão (por exemplo, ativação 534 do botão inicial ou do botão de menu físico 204, tal como uma entrada de toque ou uma entrada de pressão no botão físico 204, Figura 5M). Por exemplo, o dispositivo detecta um usuário clicando o botão ou pressionando uma região sensível à intensidade correspondente ao botão com uma intensidade acima de um limite de intensidade de ativação. Em resposta a detectar a ativação do botão, o dispositivo substitui (628) a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa, Figura 5M) por uma interface de usuário predefinida (por exemplo, uma tela inicial ou interface de execução de aplicativo conforme mostrado na Figura 5N; ou uma interface de usuário de aplicativo de busca) associada à ativação do botão.
[000313] Em algumas modalidades, enquanto a segunda interface de usuário (por exemplo, a interface de usuário de múltiplas tarefas 517, Figura 5K) é exibida, o dispositivo detecta (630) a ativação do botão (por exemplo, ativação 532 do botão inicial ou do botão de menu físico 204, tal como por meio de uma entrada de toque ou de pressão no botão físico 204, Figura 5K). Por exemplo, o dispositivo detecta um usuário clicando o botão ou pressionando uma região sensível à intensidade correspondente ao botão com uma intensidade acima de um limite de intensidade de ativação. Em resposta a detectar a ativação do botão, o dispositivo para (632) de exibir a segunda interface de usuário (por exemplo, e reexibe ou reativa a primeira interface de usuário, tal como a interface de usuário de aplicativo de mapa, conforme descrito acima com referência às Figuras 5K a 5L).
[000314] Em algumas modalidades, enquanto a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa, Fi- gura 5 J) é exibida, o dispositivo detecta (634) uma ativação dupla do botão (por exemplo, ativação dupla 530 do botão inicial ou do botão de menu físico 204, tal como por meio de dois toques sucessivos ou entradas de pressão que ocorrem na sucessão rápida com menos que um intervalo de tempo predefinido transcorrido entre dois toques sucessivos, por exemplo, com um intervalo de tempo menos que 500 milisse- gundos, 300 milissegundos, 150 milissegundos, 50 milissegundos ou algum outro intervalo de tempo razoável; com ou sem elevação do dedo entre dois toques sucessivos, conforme descrito acima com referência à Figura 5J). Por exemplo, o dispositivo detecta um usuário clicando um botão ou pressionando a região sensível à intensidade correspondente ao botão com uma intensidade acima de um limite de intensidade de ativação, reduzindo a intensidade abaixo do limite de intensidade de ativação e então pressionando a região sensível à intensidade com uma intensidade acima do limite de ativação. Em resposta a detectar a ativação dupla do botão, o dispositivo exibe (636) a segunda interface de usuário no visor (por exemplo, displays interface de usuário de múltiplas tarefas 517, conforme descrito acima com referência às Figuras 5J a 5K; ou um aplicativo utilizado mais recentemente).
[000315] Em algumas modalidades, durante a exibição da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5F) em conformidade com a determinação de que o movimento da impressão digital está na segunda direção, o dispositivo detecta (638) o movimento da impressão digital no sensor de impressão digital na primeira direção (por exemplo, impressão digital 518 e movimento associado 520 em uma direção lateral ou horizontal ou ao longo do eixo geométrico curto do dispositivo de múltiplos propósitos; da direita para esquerda, Figura 5F). Em resposta a detectar o movimento da impressão digital no sensor de impressão digital na primeira direção, o dispositivo navega (640) através da segunda interface de usuário (por exemplo, o dispositivo rola através de representações de uma pluralidade de aplicativos recentemente utilizados ou atualmente abertos em conformidade com o movimento da impressão digital no sensor de impressão digital). Por exemplo, conforme mostrado nas Figuras 5F a 5G, o dispositivo translada pelo menos uma porção da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517) na direção do movimento 520 da impressão digital 518 para exibir porções adicionais da segunda interface de usuário (por exemplo, ícones adicionais que incluem um ícone "mensagens" correspondente a um aplicativo de mensagem, um ícone "calendário" correspondente a um aplicativo de calendário e um ícone "relógio" correspondente a aplicativo de relógio, conforme mostrado na Figura 5G, que não foram previamente exibidos na Figura 5F).
[000316] Em algumas modalidades, navegar através da segunda interface de usuário inclui navegar através da segunda interface de usuário a uma taxa determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola através dos ícones correspondentes à pluralidade de aplicativos recentemente utilizados ou atualmente abertos a uma taxa de cinco ícones/segundo para cada 1 milímetro do movimento pela impressão digital no sensor de impressão digital a partir de uma posição inicial da impressão digital no sensor de impressão digital. Em algumas modalidades, navegar através da segunda interface de usuário inclui navegar através da segunda interface de usuário por uma quan-tidade determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola através dos ícones correspondentes à pluralidade de aplicativos recentemente utilizados ou atualmente abertos por um ícone para cada 1 milímetro do movimento pela impressão digital no sensor de impressão digital. Em algumas modalidades, navegar através da se- gunda interface de usuário inclui navegar através da segunda interface de usuário em uma direção determinada em conformidade com uma direção de movimento da impressão digital no sensor de impressão digital. Por exemplo, o dispositivo rola as representações da pluralidade de aplicativos recentemente utilizados ou atualmente abertos para a direita quando a impressão digital move-se para a direita no sensor de impressão digital e rola a representação da pluralidade de aplicativos recentemente utilizados para esquerda quando a impressão digital move-se para esquerda no sensor de impressão digital.
[000317] Em algumas modalidades, durante a exibição da segunda interface de usuário (por exemplo, interface de usuário de múltiplas tarefas 517, Figura 5H) em conformidade com a determinação de que o movimento da impressão digital está na segunda direção, o dispositivo detecta (642) o movimento da impressão digital no sensor de impressão digital em uma terceira direção (por exemplo, uma direção que é substancialmente oposta à segunda direção; tal como uma direção vertical ou ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos; para baixo). Por exemplo, o movimento 516 da impressão digital 514 nas Figuras 5D a 5E (por exemplo, o movimento na primeira direção) é um movimento para cima em uma direção vertical ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos; enquanto o movimento 524 da impressão digital 522 nas Figuras 5H a 5I (por exemplo, movimento na terceira direção) é um movimento para baixo em uma direção vertical ao longo do eixo geométrico longo do dispositivo de múltiplos propósitos (por exemplo, substancialmente oposta à segunda direção). Em resposta a detectar o movimento da impressão digital no sensor de impressão digital na terceira direção, o dispositivo para (644) de exibir a segunda interface de usuário. Por exemplo, conforme mostrado na Figura 51, o dispositivo interrompe a exibição da interface de usuário de múltiplas tarefas 517 que foi previamente exibida na Figura 5H e reexibe a primeira interface de usuário (por exemplo, a interface de usuário de aplicativo de mapa), incluindo porções da primeira interface de usuário que deixaram de ser exibidas quando a segunda interface de usuário foi exibida.
[000318] Deve-se entender que a ordem particular em que as operações nas Figuras 6A a 6C foram descritas é meramente exemplificati- va e não pretende indicar que a ordem descrita é a única ordem em que as operações poderiam ser realizadas. Um versado na técnica poderia reconhecer várias formas para reordenar as operações descritas no presente documento. Adicionalmente, deve-se perceber que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) são também aplicáveis de uma maneira análoga ao método 600 descrito em relação às Figuras 6A a 6C. Por exemplo, as impressões digitais, as interfaces de usuário, as transições animadas descritas acima com referência ao método 600 opcionalmente têm uma ou mais das características das impressões digitais, das interfaces de usuário, das transições animadas descritas no presente documento com referência aos outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Para ser breve, esses detalhes não são repetidos aqui.
[000319] Em conformidade com some modalidades, a Figura 7 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 700 configurado em conformidade com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. As pessoas versadas na técnica entendem que os blocos funcionais descritos na Figura 7 são, opcionalmente, combinados ou sepa- rados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente suporta qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000320] Conforme mostrado na Figura 7, um dispositivo eletrônico 700 inclui uma unidade de exibição 702 configurada para exibir uma primeira interface de usuário, opcionalmente uma unidade de superfície sensível ao toque 704, uma unidade de sensor de impressão digital 706; e uma unidade de processamento 708 acoplada à unidade de exibição 702 e à unidade de sensor de impressão digital 706. Em algumas modalidades, a unidade de processamento 708 inclui uma unidade de detecção 710, uma unidade de navegação 712, uma unidade de habilitação de exibição 714, uma unidade de substituição 716 e uma unidade de interrupção 718.
[000321] A unidade de processamento 708 é configurada para: durante a exibição da primeira interface de usuário no visor, detectar (por exemplo, com a unidade de detecção 710) o movimento de uma impressão digital no sensor de impressão digital 706; e, em resposta, detectar o movimento da impressão digital no sensor de impressão digital: em conformidade com uma determinação de que o movimento da impressão digital está em uma primeira direção, navegar através da primeira interface de usuário (por exemplo, com a unidade de navegação 712); e em conformidade com uma determinação de que o movimento da impressão digital está em uma segunda direção diferente da primeira direção, habilitar a exibição de uma segunda interface de usuário diferente da primeira interface de usuário na unidade de exibição 702 (por exemplo, com a unidade de habilitação de exibição 714).
[000322] Em algumas modalidades, a primeira direção é perpendicular à segunda direção.
[000323] Em algumas modalidades, a primeira interface de usuário é uma interface de usuário de um primeiro aplicativo; e a segunda interface de usuário é uma interface de usuário de múltiplas tarefas que inclui representações de uma pluralidade de aplicativos abertos ao mesmo tempo.
[000324] Em algumas modalidades, a unidade de processamento 708 é, ainda, configurada para: durante a habilitação de exibição da segunda interface de usuário em conformidade com a determinação de que o movimento da impressão digital está na segunda direção, detectar o movimento da impressão digital no sensor de impressão digital 706 na primeira direção (por exemplo, com a unidade de detecção 710); e, em resposta a detectar o movimento da impressão digital no sensor de impressão digital 706 na primeira direção, navegar através da segunda interface de usuário (por exemplo, com a unidade de navegação 712).
[000325] Em algumas modalidades, a unidade de processamento é, ainda, configurada para: durante a habilitação de exibição da segunda interface de usuário em conformidade com a determinação de que o movimento da impressão digital está na segunda direção, detectar o movimento da impressão digital no sensor de impressão digital 706 em uma terceira direção (por exemplo, com a unidade de detecção 710); e, em resposta a detectar o movimento da impressão digital no sensor de impressão digital 706 na terceira direção, interromper a habilitação de exibição da segunda interface de usuário (por exemplo, com a unidade de habilitação de interrupção 718).
[000326] Em algumas modalidades, navegar através da primeira interface de usuário inclui navegar através da primeira interface de usuário a uma taxa determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital 706.
[000327] Em algumas modalidades, navegar através da primeira interface de usuário inclui navegar através da primeira interface de usuá- rio por uma quantidade determinada em conformidade com um deslocamento da impressão digital no sensor de impressão digital 706.
[000328] Em algumas modalidades, navegar através da primeira interface de usuário inclui navegar através da primeira interface de usuário em uma direção determinada em conformidade com uma direção de movimento da impressão digital no sensor de impressão digital 706.
[000329] Em algumas modalidades, habilitar a exibição da segunda interface de usuário inclui habilitar a exibição de uma transição animada da segunda interface de usuário que aparece na unidade de exibição 702 (por exemplo, com a unidade de habilitação de exibição 714); e a velocidade da transição animada é baseada em um deslocamento da impressão digital no sensor de impressão digital 706.
[000330] Em algumas modalidades, o sensor de impressão digital 706 é separado da unidade de exibição 702.
[000331] Em algumas modalidades, o dispositivo inclui uma unidade de superfície sensível ao toque 704 e o sensor de impressão digital 706 é separado da unidade de superfície sensível ao toque 704.
[000332] Em algumas modalidades, o dispositivo inclui um botão e o sensor de impressão digital 706 está integrado no botão.
[000333] Em algumas modalidades, a unidade de processamento 708 é, ainda, configurada para: quando a primeira interface de usuário é exibida, detectar a ativação do botão (por exemplo, com a unidade de detecção 710); e, em resposta a detectar a ativação do botão, substituir a primeira interface de usuário com uma interface de usuário predefinida associada à ativação do botão (por exemplo, com a unidade de substituição 716).
[000334] Em algumas modalidades, a unidade de processamento 708 é, ainda, configurada para: quando a segunda interface de usuário é exibida, detectar a ativação do botão (por exemplo, com a unidade de detecção 710); e, em resposta a detectar a ativação do botão, inter romper a exibição da segunda interface de usuário (por exemplo, com a unidade de interrupção 718).
[000335] Em algumas modalidades, a unidade de processamento 708 é, ainda, configurada para: quando a segunda interface de usuário é exibida, detectar uma ativação dupla do botão (por exemplo, com a unidade de detecção 710); e, em resposta a detectar a ativação dupla do botão, habilitar a exibição da segunda interface de usuário na unidade de exibição 702 (por exemplo, com a unidade de habilitação de exibição 714).
[000336] As operações nos métodos de processamento de informações descritos acima são, opcionalmente, implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000337] As operações descritas acima com referência às Figuras 6A a 6C são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 7. Por exemplo, a operação de exibição 602, a operação de detecção 604, a operação de navegação ou de exibição 610 e a operação de substituição 628 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de eventos 180 e pelo manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhe- cedor de eventos 180 do aplicativo 136-1 compara as informações de evento às respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou um subevento predefinido, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento predefinido é detectado, o reconhece- dor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou do subevento. O manipulador de eventos 190 opcionalmente utiliza ou executa o atualizador de dados 176 ou o atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. Similarmente, poderia estar claro para uma pessoa versada na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Permitir que Botões Sirvam a Múltiplos Propósitos
[000338] Muitos dispositivos eletrônicos são configurados para exibir uma variedade de interfaces de usuário. Essas interfaces de usuário podem incluir, por exemplo, uma tela inicial, uma tela de busca e/ou interfaces de usuário associadas aos aplicativos ("apps") armazenados no dispositivo. Devido ao fato de que a tela inicial é normalmente a interface de usuário mais utilizada, é desejável que tais dispositivos forneçam ao usuário uma forma conveniente de navegar rapidamente na tela inicial. Por exemplo, com métodos e dispositivos existentes, um botão "inicial" é normalmente fornecido. No entanto, devido às limitações no tamanho de alguns dispositivos (por exemplo, um dispositivo de múltiplas funções portátil, tal como um telefone do tipo smart phone), fornecer um botão inicial dedicado exige uma quantidade indesejável de espaço no alojamento de tais dispositivos. É, portanto, desejável permitir que os botões em tais dispositivos sirvam a múltiplos propósitos (por exemplo, um propósito de retorno e um propósito dependente de aplicativo) fornecendo-se um método conveniente para distinguir entre qual dos dois propósitos um usuário desejou ativar.
[000339] Nas modalidades descritas abaixo, é fornecido um método aprimorado para permitir que os botões sirvam a múltiplos propósitos. Os botões nas modalidades descritas abaixo incluem sensores de impressão digital integrados. Quando tal botão é ativado (por exemplo, pressionado) após detecção contínua de uma impressão digital em um sensor de impressão digital integrado por menos que uma quantidade de tempo predeterminada (por exemplo, um pressionamento rápido do botão), o botão realiza uma primeira operação (por exemplo, uma operação inicial). Por outro lado, quando o botão é ativado após detecção contínua de uma impressão digital por mais que uma quantidade de tempo predeterminada (por exemplo, após pairar no sensor de impressão digital), o dispositivo realiza uma segunda operação (por exemplo, uma operação específica de aplicativo).
[000340] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 8A a 8O e 9A a 9C inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, os um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, a superfície sensível ao toque separada 451 ou o sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A não ser que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência de explicação, as modalidades descritas com referência às Figuras 8A a 8O e 9A a 9C serão discutidas com referência às operações de dispositivo que são realizadas em resposta a detectar as entradas descritas nas Figuras 8A a 8O em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 3592) durante a exibição das interfaces de usuário mostradas nas Figuras 8A a 8O na tela sensível ao toque 112. No entanto, operações análogas são, opcionalmente, realizadas em um dispositivo com um visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2 com um sensor de impressão digital integrado 359-1 em resposta a detectar as entradas descritas nas Figuras 8A a 8O no sensor de impressão digital integrado 359-1 durante a exibição das interfaces de usuário mostradas nas Figuras 8A a 8O no visor 450. Em algumas modalidades, p seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor. Em algumas modalidades, o seletor de foco é um indicador controlado por usuário que pode ser utilizado para indicar um respectivo objeto de interface de usuário em uma pluralidade de objetos de interface de usuário (por exemplo, um objeto selecionado por uma "roda de rolagem", conforme descrito com referência às Figuras 8K a 8O). Em algumas modalidades, uma representação visual do seletor de foco é exibida (por exemplo, um objeto de interface de usuário o qual o seletor de foco está indicando é visualmente distinguido dos outros objetos de interface de usuário).
[000341] As Figuras 8A a 8D ilustram interfaces de usuário exempli- ficativas a serem utilizadas em conjunto com botões de múltiplos propósitos em conformidade com algumas modalidades. Em particular, as Figuras 8A a 8D ilustram um exemplo em que, sob certas condições descritas no presente documento, a ativação de um "botão inicial" (por exemplo, botão 204) faz com que o dispositivo realize uma operação "inicial" (por exemplo, uma primeira operação), em consequência do que o dispositivo retorna a uma tela inicial (por exemplo, exibe uma interface de lançamento de aplicativo que inclui uma pluralidade de ícones que representam aplicativos que um usuário pode escolher). Nesse exemplo, o botão 204 inclui um sensor de impressão digital integrado 169. Sob outras condições, conforme descrito com referência às Figuras 8G a 8H, a ativação do botão inicial faz com que o dispositivo realize uma segunda operação diferente.
[000342] A Figura 8A ilustra um exemplo do dispositivo que roda um aplicativo de videogame de tiro com arco no dispositivo de múltiplas funções portátil 100.
[000343] A Figura 8B ilustra a detecção de uma impressão digital 806 (nesse exemplo, correspondente a um polegar direito do usuário) no sensor de impressão digital integrado 169. A Figura 8B também ilustra, respectivamente, indicações da extensão de tempo em que a impressão digital 806 é detectada continuamente no sensor de impressão digital assim como a força de impressão digital 806 no botão. As respectivas indicações de extensão de tempo e a força da impressão digital 806 no botão não são tipicamente mostradas no dispositivo, mas, em vez disso, são ilustradas no presente documento para conveniência de exemplificação. Nesse exemplo, o botão 204 é ativado quando a força da impressão digital 806 excede um limite de ativação (ATo). Em algumas modalidades, por exemplo, quando o botão 204 é um botão físico ou mecânico, o limite de ativação ATo é uma função de propriedades de mola de certos recursos mecânicos do botão 204 e/ou atrito entre os recursos mecânicos do botão 204. Ou seja, em algumas modalidades, há uma força mínima no botão que faz o botão ser ativado. Em algumas modalidades, a ativação do botão 204 ocorre em um "curso descendente" (por exemplo, quando a força da impressão digital 806 é detectada continuamente do ATo inferior para o ATo superior). Em algumas modalidades, a ativação do botão 204 ocorre em um "curso ascendente" (por exemplo, quando a força da impressão digital 806 é detectada continuamente do ATo superior para o ATo inferior). Em algumas outras modalidades, por exemplo, quando o botão 204 é um botão virtual, um gesto específico detectado pelo sensor de impressão digital 169 causa a ativação do botão.
[000344] Conforme mostrado na Figura 8C a 8D, quando o dispositivo detecta a ativação do botão 204 (mostrado na Figura 8C) antes da detecção contínua da impressão digital 806 por uma quantidade de tempo maior que um período de tempo predeterminado PT, o dispositivo realiza uma primeira operação. Nesse exemplo, a primeira operação é uma "operação inicial" (mostrado na Figura 8D). Em algumas modalidades, o dispositivo realiza a primeira operação quando o dispositivo detecta a ativação do botão 204 antes da detecção contínua da impressão digital 806 por uma quantidade de tempo igual ou maior que um período de tempo predeterminado PT.
[000345] Em algumas modalidades, conforme explicado abaixo com referência às Figuras 8D a 8F, a primeira operação é dependente do contexto. Por exemplo, em algumas modalidades, a primeira operação depende de (por exemplo, está associada a) uma interface de usuário atualmente exibida. No exemplo anterior em que a interface de usuário atualmente exibida incluiu um videogame de tiro com arco, a primeira operação associada ao videogame de tiro com arco retorna o dispositivo a uma tela inicial. As Figuras 8D a 8F ilustram um exemplo da pri- meira operação quando a tela inicial é a interface de usuário atualmente exibida.
[000346] Adicionalmente a ilustrar um exemplo de uma tela inicial, a Figura 8D também inclui um exemplo de detecção de uma segunda impressão digital 808. A detecção de impressão digital 808 é análoga à detecção de impressão digital 806 descrita com referência à Figura 8B. Em algumas modalidades, a impressão digital 808 é uma continuação da impressão digital 806 (por exemplo, em algumas modalidades, após a navegação para a tela inicial mostrada na Figura 8D, o usuário não precisa descontinuar ou reaplicar o contato com o sensor de impressão digital 169 a fim de fazer uso da funcionalidade descrita no exemplo).
[000347] As Figuras 8E ilustram a ativação do botão 204 antes de um período de tempo predeterminado PT transcorrer, conforme previamente descrito com referência às Figuras 8C a 8D. Nesse exemplo, devido ao fato de que o período de tempo predeterminado PT não transcorreu, o dispositivo realiza uma primeira operação associada a uma tela inicial (por exemplo, uma interface de lançamento de aplicativo). Nesse exemplo, a primeira operação navega o dispositivo para uma tela de busca, conforme mostrado na Figura 8F. Em algumas modalidades, a primeira operação associada à tela inicial leva o usuário a uma tela inicial alternativa (por exemplo, o dispositivo navega através de uma pluralidade de páginas de tela inicial, a pluralidade de telas iniciais que são necessárias devido a um grande número de aplicativos no dispositivo).
[000348] As Figuras 8G a 8J ilustram interfaces de usuário exemplifi- cativas a serem utilizadas em conjunto com botões de múltiplos propósitos em conformidade com algumas modalidades. Em particular, as Figuras 8G a 8J ilustram um exemplo do dispositivo que realiza uma segunda operação diferente mediante ativação do botão 204 subse- quente à detecção contínua de uma impressão digital 810 por mais que o tempo predeterminado. Na Figura 8G, uma impressão digital 810 é inicialmente detectada. Portanto, o indiciador que mostra o comprimento da impressão digital detectada continuamente 810 ilustra que, inicialmente, nenhum tempo transcorreu. A Figura 8H ilustra o movimento da impressão digital 810 sobre o sensor de impressão digital 169 e o movimento correspondente do arqueiro 802 (por exemplo, no aplicativo nesse exemplo, o sensor de impressão digital 169 atua um "joystick" que controla a posição, ou alternativamente a alteração na posição, do arqueiro 802 antes da ativação do botão 204). Em algumas modalidades, tal funcionalidade (por exemplo, a funcionalidade de joystick) torna-se operável subsequente a uma passagem do tempo predeterminado, e permanece operável até a ativação do botão 204. Em algumas modalidades, tal funcionalidade é operável no aplicativo sempre que uma impressão digital é detectada no sensor de impressão digital 169 a despeito de ativações repetidas do botão 204 (por exemplo, um videogame de tiro em primeira pessoa em que o sensor de impressão digital 169 atua como um joystick que redireciona um jogador e a ativação do botão permite que o jogador dispare sua arma). As Figuras 8I a 8J ilustra a ativação do botão 204 (mostrado na Figura 81) e o desempenho resultando de uma segunda operação (por exemplo, atirar uma flecha, conforme mostrado nas Figuras 8I e 8J), que é diferente da primeira operação (por exemplo, uma operação inicial).
[000349] As Figuras 8K a 8O ilustram interfaces de usuário exempli- ficativas a serem utilizadas em conjunto com botões de múltiplos propósitos em conformidade com algumas modalidades. Em particular, as Figuras 8K a 8O ilustram um exemplo em que a interface de usuário inclui uma pluralidade de possibilidades, por exemplo, ícones selecionáveis por usuário correspondentes aos aplicativos na tela inicial (por exemplo, aplicativo de telefone, aplicativo de navegador, etc.). As Figuras 8K a 8O também ilustram um seletor de foco correspondente a uma possibilidade atualmente selecionada (por exemplo, o ícone que representa o aplicativo de telefone na Figura 8K é destacado, fornecendo um sinal visual de que o seletor de foco está "sobre" o aplicativo de telefone e que o aplicativo de telefone está atualmente selecionado, embora o dispositivo não tenha recebido ainda um comando para rodar o aplicativo de telefone). Além disso, as Figuras 8K a 8O ilustram um exemplo de modalidades em que a segunda operação incluir reali-zar uma operação associada ao aplicativo que corresponde a uma possibilidade atualmente selecionada da pluralidade de possibilidades.
[000350] A Figura 8K ilustra um exemplo em que a posição de sele- tor de foco é controlada por movimento circunferencial em torno do sensor de impressão digital 169 (por exemplo, o sensor de impressão digital atua como uma "roda de rolagem" com propriedades exemplifi- cativas ilustradas abaixo). Nesse exemplo, o movimento circunferenci- al no sentido horário, conforme mostrado, move o seletor de foco para a direita conforme mostrado na Figura 8L (movimento do seletor de foco sobre o aplicativo de navegador) e a Figura 8M (movimento do seletor de foco sobre o aplicativo de correio). Similarmente, embora não mostrado, o movimento circunferencial no sentido anti-horário em trono do sensor de impressão digital 169 move o seletor de foco em uma direção oposta (por exemplo, para esquerda). Em algumas modalidades, a pluralidade de possibilidades é ordenada e o movimento cir- cunferencial da impressão digital 812 incrementa o seletor de foco para cima ou para baixo na ordem (por exemplo, o movimento da impressão digital que circunscreve um arco de um ângulo predefinido, tal como 90 graus, incrementa o seletor de foco). Em algumas modalidades, quando o seletor de foco alcança a última possibilidade na ordem, i incremento adicional do seletor de foco na mesma direção retorna o seletor de foco à primeira possibilidade na ordem. Em algumas modalidades, a funcionalidade de roda de rolagem está disponível em um modo de acessibilidade do dispositivo diferente de um modo normal do dispositivo.
[000351] A Figura 8N ilustra um exemplo de ativação do botão 204 quando a força da impressão digital 812 excede um limite de ativação, conforme descrito previamente. Nesse exemplo, devido ao fato de que a impressão digital 812 foi detectada continuamente pelo período de tempo predeterminado PT, o dispositivo realiza a segunda operação. Nesse exemplo, a segunda operação depende da possibilidade atualmente selecionada. Por exemplo, a Figura 8O mostra que a segunda operação lançou o aplicativo de correio, já que o dispositivo está agora exibindo uma interface de e-mail que inclui objetos de interface de usuário 814-1 a 814-3 correspondente às mensagens de e-mail.
[000352] As Figuras 9A a 9C são fluxogramas que ilustram um método 900 para permitir que um botão sirva a múltiplos propósitos, em conformidade com algumas modalidades. O método 900 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou dispositivo de múltiplas funções portátil 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor com tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 900 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000353] Conforme descrito abaixo, o método 900 fornece uma forma intuitiva de permitir que um botão sirva a múltiplos propósitos. O método reduz a carga cognitiva sobre um usuário durante o uso dos botões, criando, assim, uma interface entre humano e máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a realizar várias operações de dispositivo mais rápido e de modo mais eficiente conserva a energia e aumenta o tempo entre cargas de bateria.
[000354] O dispositivo detecta (902), em um dispositivo eletrônico com um botão que inclui um sensor de impressão digital integrado, uma impressão digital no sensor de impressão digital integrado. Em algumas modalidades, o dispositivo eletrônico inclui (904) um visor. Em algumas modalidades, antes de detectar a impressão digital no sensor de impressão digital integrado, o dispositivo exibe (906) uma primeira interface de usuário no visor (por exemplo, a interface de usuário mostrada na Figura 8A).
[000355] Em algumas modalidades, antes de detectar a ativação (908) do botão, o dispositivo detecta (910) a impressão digital no sensor de impressão digital integrado por mais que o período de tempo predeterminado. Em resposta a detectar a impressão digital no sensor de impressão digital integrado por mais que o período de tempo predeterminado, o dispositivo exibe (912) uma representação de um seletor de foco no visor (por exemplo, uma representação de seletor de foco que não foi exibida antes de detectar a impressão digital, tal como o destaque do aplicativo de telefone na Figura 8K).
[000356] Enquanto continua a detectar a impressão digital no sensor de impressão digital integrado, o dispositivo detecta (914) a ativação do botão (por exemplo, conforme mostrado na Figura 8C). Em algumas modalidades, o botão físico é uma região sensível à intensidade do alojamento do dispositivo que é determinada para ter sido ativado pelo dispositivo quando a intensidade detectada no botão é aumentada sobre um limite de intensidade de ativação. Em algumas modalidades, o botão físico é acoplado a um comutador eletrônico em que o movimento do botão físico ao longo de um primeiro eixo geométrico (por exemplo, para cima e para baixo ou da esquerda para direita) fe- cha o comutador e ativa o botão físico (algumas vezes resultando em um "clique" audível ou tátil). Em resposta a detectar a ativação do botão e em conformidade com uma determinação de que a impressão digital não foi detectada continuamente no sensor de impressão digital integrado por mais que um período de tempo predeterminado antes de detectar a ativação do botão (por exemplo, a impressão digital não foi detectada continuamente no sensor de impressão digital por pelo menos 0,3, 0,5, 1 ou 2 segundos imediatamente antes de detectar a ativação do botão), o dispositivo realiza (916) uma primeira operação, em que a primeira operação é uma operação predefinida associada à ativação do botão (por exemplo, a operação de retorno descrita com referência às Figuras 8B a 8D, ou, alternativamente, a operação de tela de busca realizada com referência às Figuras 8D a 8F).
[000357] Em algumas modalidades, a primeira interface de usuário é uma interface de usuário de um primeiro aplicativo e a primeira operação inclui (918) interromper a exibição da primeira interface de usuário e exibir uma interface de lançamento de aplicativo (por exemplo, interromper a exibição do videogame de tiro com arco, Figuras 8B a 8D). Em algumas modalidades, a primeira interface de usuário é uma interface de lançamento de aplicativo, e a primeira operação inclui (920) interromper a exibição da interface de lançamento de aplicativo (Figura 8E) e exibir um aplicativo predefinido associado à ativação do botão (por exemplo, a interface de usuário de busca, Figura 8F).
[000358] Em resposta a detectar a ativação do botão e em conformidade com uma determinação de que a impressão digital foi detectada continuamente no sensor de impressão digital integrado por mais que o período de tempo predeterminado antes de detectar a ativação do botão (por exemplo, a impressão digital foi detectada continuamente no sensor de impressão digital por pelo menos 0,3, 0,5, 1 ou 2 segundos imediatamente antes de detectar a ativação do botão), o dispositi- vo realiza (922) uma segunda operação diferente da primeira operação, em que a segunda operação é uma operação associada a uma interface de usuário exibida no visor imediatamente antes de detectar a ativação do botão (por exemplo, o arqueiro dispara seu arco, conforme mostrado nas Figuras 8G a 8J).
[000359] Em algumas modalidades, a interface de usuário do primeiro aplicativo inclui (924) uma pluralidade de possibilidades (por exemplo, menus, controles, hiperligações e similares) que correspondem às respectivas operações associadas ao primeiro aplicativo, e a segunda operação inclui realizar uma operação associada ao primeiro aplicativo que correspondente a uma possibilidade atualmente selecionada da pluralidade de possibilidades (por exemplo, o dispositivo realiza uma operação correspondente a uma possibilidade exibida dentro do aplicativo que está atualmente próxima ou disposto junto com um seletor de foco).
[000360] Em algumas modalidades, a primeira interface de usuário é uma interface de lançamento de aplicativo (consulte 920), a interface de lançamento de aplicativo inclui (926) uma pluralidade de possibilidades de lançamento de aplicativo (por exemplo, ícones de aplicativo, Figura 8K) que correspondem aos respectivos aplicativos em uma pluralidade de aplicativos, e a segunda operação inclui lançar um respectivo aplicativo que corresponde a uma possibilidade de lançamento de aplicativo selecionada atualmente da pluralidade de possibilidades de lançamento de aplicativo (por exemplo, o dispositivo lança um aplicativo correspondente a um ícone de aplicativo que está atualmente próximo a ou disposto juntamente com um seletor de foco).
[000361] Em algumas modalidades, a segunda operação é dependente (928) de uma localização de um seletor de foco na primeira interface de usuário (por exemplo, a segunda operação é uma operação que corresponde à ativação de um objeto de interface de usuário parti cular na primeira interface de usuário, tal como a ativação de uma hi- perligação em uma página da web ou lançamento de um aplicativo correspondente a um ícone de aplicativo em uma interface de execução de aplicativo), e a primeira operação é independente da localização do seletor de foco na primeira interface de usuário. Por exemplo, a primeira operação inclui exibir uma tela inicial ou uma tela de lançamento de aplicativo, exibir um aplicativo predefinido e/ou interromper a exibição de uma interface de usuário correspondente a um aplicativo atualmente exibido. Em algumas modalidades, uma representação do seletor de foco é exibida na primeira interface de usuário e é ignorada durante a realização da primeira operação. Em algumas modalidades, uma representação do seletor de foco não é exibida na primeira interface de usuário.
[000362] Em algumas modalidades, antes de detectar (930) a ativação do botão, o dispositivo exibe (932) uma representação de um sele- tor de foco no visor. O dispositivo detecta (934) o movimento da impressão digital através do sensor de impressão digital no botão. Em algumas modalidades, por todo o movimento da impressão digital através do sensor de impressão digital, a impressão digital é detectada continuamente no sensor de impressão digital. Em algumas modalidades, em resposta a detectar (942) o movimento da impressão digital no sensor de impressão digital, o dispositivo move a representação do seletor de foco no visor em conformidade com o movimento da impressão digital (por exemplo, o dispositivo rola o seletor de foco através dos objetos de interface de usuário selecionáveis em conformidade com um gesto de deslizamento ou circular realizado com a impressão digital sem ativar o botão). Por outro lado, em algumas modalidades, em resposta a detectar (936) o movimento da impressão digital, o dispositivo realiza (936) uma terceira operação (por exemplo, uma operação de troca de opção) em conformidade com o movimento da impressão digital. Em algumas modalidades, a terceira operação inclui (938) selecionar, como uma opção atualmente selecionada, uma respectiva opção de uma pluralidade de opções (por exemplo, selecionar uma opção de um menu suspenso ou um item de um conjunto de itens) e a segunda operação inclui realizar uma ação associada à opção atualmente selecionada. Em algumas modalidades, a primeira operação é independente (940) da opção atualmente selecionada (por exemplo, cometer a opção atualmente selecionada como uma escolha para um campo de conteúdo, ou usar/ativar o item). Como um exemplo, a troca de opção comuta entre itens ou armas em um jogo e a segunda operação inclui usar o item ou disparar a arma no jogo. Nesse exemplo, a primeira operação é, opcionalmente, sair do jogo e retornar a uma tela inicial ou uma tela de lançamento de aplicativo do dispositivo.
[000363] Deve-se entender que a ordem particular em que as operações nas Figuras 9A a 9C foram descritas é meramente exemplificati- va e não pretende indicar que a ordem descrita é a única ordem em que as operações poderiam ser realizadas. Um versado na técnica poderia reconhecer várias formas para reordenar as operações descritas no presente documento. Adicionalmente, deve-se perceber que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) são também aplicáveis de uma maneira análoga ao método 900 descrito em relação às Figuras 9A a 9C. Por exemplo, as impressões digitais, os gestos, os objetos de interface de usuário, os seletores de foco descritos acima com referência ao método 900 opcionalmente têm uma ou mais das características das impressões digitais, dos contatos, dos objetos de interface de usuário, dos seletores de foco descritos no presente documento com referência aos outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Para ser breve, esses detalhes não são repetidos aqui.
[000364] Em conformidade com algumas modalidades, a Figura 10 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 1000 configurado em conformidade com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. As pessoas versadas na técnica entendem que os blocos funcionais descritos na Figura 10 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente suporta qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000365] Conforme mostrado na Figura 10, um dispositivo eletrônico 1000 inclui uma unidade de botão 1001 com uma unidade de sensor de impressão digital integrada 1002; e uma unidade de processamento 1008 acoplada à unidade de botão 1001 O dispositivo eletrônico 1000 opcionalmente inclui uma unidade de exibição 1006 configurada para habilitar a exibição de uma ou mais interfaces de usuário; e uma unidade de superfície sensível ao toque 1004 configurada para receber contatos. Em algumas modalidades, a unidade de exibição 1006 e a unidade de superfície sensível ao toque 1004 são acopladas à unidade de botão 1001 e/ou à unidade de processamento 1008. Em algumas modalidades, a unidade de processamento 1008 inclui uma unidade de detecção 1010, uma unidade de realização de primeira operação 1012, uma unidade de realização de segunda operação 1014 e uma unidade de habilitação de exibição 1016.
[000366] A unidade de processamento 1008 é configurada para: detectar (por exemplo, com a unidade de detecção 1010) uma impressão digital na unidade de sensor de impressão digital integrado 1002. En- quanto continua a detectar a impressão digital na unidade de sensor de impressão digital integrado 1002, a unidade de processamento 1008 é, ainda, configurada para detectar a ativação da unidade de botão 1001. Em resposta a detectar a ativação da unidade de botão 1001: em conformidade com uma determinação de que a impressão digital não foi detectada continuamente na unidade de sensor de impressão digital integrado 1002 por mais que um período de tempo predeterminado antes de detectar a ativação da unidade de botão 1001, a unidade de processamento 1008 é configurada para realizar uma primeira operação (por exemplo, com a unidade de realização de primeira operação 1012), em que a primeira operação é uma operação pre- definida associada à ativação da unidade de botão 1001. Em resposta a detectar a ativação da unidade de botão 1001: em conformidade com uma determinação de que a impressão digital foi detectada continuamente na unidade de sensor de impressão digital integrado 1002 por mais que o período de tempo predeterminado antes de detectar a ativação da unidade de botão 1001, a unidade de processamento 1008 é configurada para realizar uma segunda operação diferente da primeira operação (por exemplo com a unidade de realização de segunda operação 1014), em que a segunda operação é uma operação associada a uma interface de usuário exibida na unidade de exibição 1006 imediatamente antes de detectar a ativação da unidade de botão 1001.
[000367] Em algumas modalidades, a unidade de exibição 1006 é configurada para, antes de detectar a impressão digital na unidade de sensor de impressão digital integrado 1002, habilitar a exibição de uma primeira interface de usuário (por exemplo, com a unidade de habilitação de exibição 1016).
[000368] Em algumas modalidades, a primeira interface de usuário é uma interface de usuário de um primeiro aplicativo; e a primeira operação inclui interromper a habilitação da exibição da primeira interface de usuário e habilitar a exibição de uma interface de execução de aplicativo na unidade de exibição 1006.
[000369] Em algumas modalidades, a interface de usuário do primeiro aplicativo inclui uma pluralidade de possibilidades que correspondem às respectivas operações associadas ao primeiro aplicativo; e a segunda operação inclui realizar uma operação associada ao primeiro aplicativo que corresponde a uma possibilidade atualmente selecionada da pluralidade de possibilidades.
[000370] Em algumas modalidades, a primeira interface de usuário é uma interface de execução de aplicativo; e a primeira operação inclui interromper a habilitação da exibição da interface de execução de aplicativo e habilitar a exibição de um aplicativo predefinido associado à ativação da unidade de botão 1001.
[000371] Em algumas modalidades, a interface de lançamento de aplicativo inclui uma pluralidade de possibilidades de lançamento de aplicativo que correspondem aos respectivos aplicativos em uma pluralidade de aplicativos; e a segunda operação inclui lançar um respectivo aplicativo que corresponde a uma possibilidade de lançamento de aplicativo atualmente selecionada da pluralidade de possibilidades de lançamento de aplicativo
[000372] Em algumas modalidades, a unidade de processamento 1008 é, ainda, configurada para, antes de detectar a ativação da unidade de botão 1001: detectar a impressão digital na unidade de sensor de impressão digital integrado 1002 por mais que o período de tempo predeterminado; e em resposta a detectar a impressão digital na unidade de sensor de impressão digital integrado 1002 por mais que o período de tempo predeterminado, habilitar a exibição de uma representação de um seletor de foco na unidade de exibição 1006.
[000373] Em algumas modalidades, a unidade de processamento 1008 é, ainda, configurada para, antes de detectar a ativação da uni dade de botão 1001: exibir uma representação de um seletor de foco na unidade de exibição 1006; detectar o movimento da impressão digital na unidade de sensor de impressão digital 1008; e em resposta a detectar o movimento da impressão digital na unidade de sensor de impressão digital 1002, mover a representação do seletor de foco na unidade de exibição 1006 em conformidade com movimento da impressão digital.
[000374] Em algumas modalidades, a segunda operação é dependente de uma localização de um seletor de foco na primeira interface de usuário; e a primeira operação é independente da localização do seletor de foco na primeira interface de usuário.
[000375] Em algumas modalidades, a unidade de processamento 1008 é, ainda, configurada para, antes de detectar a ativação da unidade de botão 1001: detectar o movimento da impressão digital através da unidade de sensor de impressão digital 1002 na unidade de botão 1001; e em resposta a detectar o movimento da impressão digital, realizar uma terceira operação em conformidade com o movimento da impressão digital.
[000376] Em algumas modalidades, a terceira operação inclui selecionar, como uma opção atualmente selecionada, uma respectiva opção de uma pluralidade de opções; e a segunda operação inclui realizar uma ação associada à opção atualmente selecionada.
[000377] Em algumas modalidades, a primeira operação é independente da opção atualmente selecionada.
[000378] As operações nos métodos de processamento de informações descritos acima são, opcionalmente, implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000379] As operações descritas acima com referência às Figuras 9A a 9C são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 10. Por exemplo, a operação de detecção 901, a operação de exibição 906 e a operação de realização 916 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de eventos 180 e pelo manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de eventos 180 do aplicativo 136-1 compara as informações de evento às respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou um sube- vento predefinido, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento predefinido é detectado, o reconhecedor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou do subevento. O manipulador de eventos 190 opcionalmente utiliza ou executa o atualiza- dor de dados 176 ou o atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. Similarmente, poderia estar claro para uma pessoa versada na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Travar uma Orientação de uma Interface de usuário
[000380] Muitos dispositivos eletrônicos têm diferentes orientações, tal como uma orientação retrato e uma orientação paisagem. Quando esses dispositivos exibem interfaces de usuário e conteúdo, as interfaces de usuário e o conteúdo são tipicamente exibidos na mesma orien- tação que a orientação do dispositivo. Algumas vezes, o usuário deseja ter as interfaces de usuário e o conteúdo exibidos em uma orientação diferente da orientação do dispositivo. O usuário pode forçar o dispositivo a exibir as interfaces de usuário e o conteúdo em uma orientação particular por ativação de uma opção para travar a orientação das interfaces de usuário e do conteúdo. Em alguns métodos, ativar a opção de travamento de orientação exige abrir menus e submenus e/ou múltiplos gestos e pressionamentos de botão. As modalidades descritas abaixo aprimoram esses métodos permitindo que um usuário trave a orientação com uma entrada mais simples. Em um dispositivo com um sensor de impressão digital, o usuário trava a orientação da interface de usuário e do conteúdo girando uma impressão digital em uma direção em um sensor de impressão digital enquanto a interface de usuário ou o conteúdo são exibidos na orientação desejada e destrava a orientação girando a impressão digital na direção oposta no sensor de impressão digital. Isso tona o processo de travamento de orientação mais eficiente e simples para os usuários.
[000381] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 11A a 11F e 12A a 12B inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, os um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A não ser que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência de explicação, as modalidades descritas com referência às Figuras 11A a 11F e 12A a 12B serão discutidas com referência à tela sensível ao toque 112 e ao sensor de impressão digital 169; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor. Operações análogas são, opcionalmente, realizadas em um dispositivo com o visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 em resposta a detectar as entradas descritas nas Figu-ras 11A a 11F no sensor de impressão digital integrado 359-1 ou no sensor de impressão digital separado 359-2 durante a exibição das interfaces de usuário mostradas nas Figuras 11A a 11F no visor 450.
[000382] A Figura 11A ilustra a interface de usuário 1102 exibida na tela sensível ao toque 112 de um dispositivo (por exemplo, dispositivo 100). A interface de usuário 1102 é uma interface de usuário de, por exemplo, um aplicativo ou um sistema operacional rodando no dispositivo 100. Por exemplo, a interface de usuário 1102 conforme mostrada na Figura 11A é uma interface de usuário para um aplicativo de notas. Na Figura 11A, o dispositivo 100 é orientado de modo que a altura vertical (isto é, a dimensão indicada pela seta 1100) da tela sensível ao toque 112 seja mais longa que a largura horizontal (isto é, a dimensão indicada pela seta 1101); a tela sensível ao toque 112 está em orientação retrato (por exemplo, um eixo geométrico longo da tela sensível ao toque 112 é paralelo a um eixo geométrico para cima/pra baixo indicado pela seta 1100). Na Figura 11A, a interface de usuário 1102 é exibida em modo retrato, em conformidade com a orientação retrato da tela sensível ao toque 112. Por exemplo, em modo retrato, a interface de usuário 1102, lado direito para cima, é mais longa na dimensão 1100 que na dimensão 1101.
[000383] Na Figura 11B, o dispositivo 100 está orientado de modo que a altura vertical (isto é, a dimensão 1100) da tela sensível ao toque 112 seja mais curta que a largura horizontal (isto é, a dimensão 1101); a tela sensível ao toque 112 está em orientação paisagem (por exemplo, um eixo geométrico longo da tela sensível ao toque 112 é paralelo a um eixo geométrico para direita/para esquerda indicado pela seta 1101). Na Figura 11B, a interface de usuário 1102 é exibida em modo paisagem, em conformidade com a orientação paisagem da tela sensível ao toque 112. Por exemplo, no modo paisagem, a interface de usuário 1102, lado direito para cima, é mais longa na dimensão 1101 que na dimensão 1100.
[000384] Deve-se perceber que, nas Figuras 11A a 11F, a dimensão mais longa do dispositivo 100 e a dimensão mais longa da tela sensível ao toque 112 são paralelas. Portanto, a tela sensível ao toque 112 está em orientação retrato (isto é, altura vertical mais longa que a largura horizontal) quando o dispositivo 100 está em orientação retrato. De modo análogo, a tela sensível ao toque 112 está em orientação paisagem quando o dispositivo 100 está em orientação paisagem. Em algumas modalidades, a dimensão mais longa do dispositivo 100 é perpendicular à dimensão mais longa da tela sensível ao toque 112; a tela sensível ao toque 112 está na orientação retrato quando o dispositivo 100 está na orientação paisagem, e vice-versa.
[000385] Conforme mostrado nas Figuras 11A a 11B, a interface de usuário 1102 é exibida em modo retrato ou paisagem em conformidade com a orientação da tela sensível ao toque 112. Quando a tela sensível ao toque 112 altera a orientação (por exemplo, por um usuário que gira o dispositivo 100 em torno de um eixo geométrico perpendicular à superfície da tela sensível ao toque 112) e a interface de usuário 1102 não está travada a um modo de orientação específica particular, a interface de usuário 1102 é exibida em um modo em conformidade com a nova orientação (por exemplo, com base em uma direção detectada de gravidade de um acelerômetro integrado no dis-positivo). Por exemplo, quando o dispositivo 100 é virado de orientação retrato, como na Figura 11A, para orientação paisagem, como na Figura 11B, o dispositivo 100 altera a interface de usuário exibida 1102 de modo retrato, como na Figura 11A, para modo paisagem, como na Figura 11B. Similarmente, quando o dispositivo 100 é virado de orientação paisagem, como na Figura 11B, para orientação retrato, como na Figura 11A, o dispositivo 100 altera a interface de usuário exibida 1102 de modo paisagem, como na Figura 11B, para modo retrato, como na Figura 11A.
[000386] A Figura 11C ilustra o dispositivo 100 detectando a impressão digital 1104 no sensor de impressão digital 169. A impressão digital 1104 é posicionada no sensor de impressão digital 169 por, por exemplo, um usuário que faz contato no sensor de impressão digital 169 com um dedo. A Figura 11C a 11D ilustra o dispositivo 100 detectando uma rotação da impressão digital 1104 em uma direção horária em torno do sensor de impressão digital 169. A rotação da impressão digital 1104 é detectada enquanto a interface de usuário 1102 é exibi- da no modo retrato. Em algumas modalidades, a rotação da impressão digital 1104 é uma contorção da impressão digital 1104 no sensor de impressão digital 169. Em algumas outras modalidades, a rotação da impressão digital 1104 é uma revolução da impressão digital 1104 em torno do sensor de impressão digital 169.
[000387] Em resposta a detectar a rotação da impressão digital 1104 no sentido horário em torno do sensor de impressão digital 169 enquanto a interface de usuário 1102 é exibida em modo retrato, o dispositivo 100 trava a interface de usuário 1102 em modo retrato. Em algumas modalidades, uma indicação visual (por exemplo, ícone 1106, Figura 11D) de que a interface de usuário 1102 está travada em modo retrato é exibida. Enquanto a interface de usuário 1102 está travada em modo retrato, a interface de usuário 1102 é exibida em modo retrato se tela sensível ao toque 112 estiver em orientação retrato ou em orientação paisagem. Quando a interface de usuário 1102, travada em modo retrato, é exibida e o dispositivo 100 é girado para orientação paisagem, a interface de usuário 1102 permanece em modo retrato; a interface de usuário 1102 é exibida como se girada 90 graus. Por exemplo, a Figura 11E mostra o dispositivo 100 em orientação paisagem enquanto a interface de usuário 1102 está travada em modo retrato; a interface de usuário 1102 é exibida em modo retrato a despeito da orientação paisagem do dispositivo 100.
[000388] Embora a interface de usuário 1102 esteja travada em modo retrato, o dispositivo 100 detecta a impressão digital 1108 e uma rotação da impressão digital 1108 em uma direção anti-horária em torno do sensor de impressão digital 169, conforme mostrado nas Figuras 11E a 11F. Em resposta a detectar a rotação da impressão digital 1108 no sentido anti-horário em torno do sensor de impressão digital 169 enquanto a interface de usuário 1102 é exibida em modo retrato, o dispositivo 100 está destravada do modo retrato. Se uma indicação visual (por exemplo, ícone 1106, Figura 11D) de que a interface de usuário 1102 foi travada em modo retrato tiver sido exibida enquanto a interface de usuário 1102 estava travada, então a indicação visual deixa de ser exibida. Por exemplo, a Figura 11F mostra o ícone 1106 que deixa de ser exibido em resposta ao dispositivo 100 detectar a rotação da impressão digital 1108 no sentido anti-horário em torno do sensor de impressão digital 169. Após a interface de usuário 1102 ser destravada do modo retrato, o modo de exibição de interface de usuário 1102 novamente segue a orientação do dispositivo 100 (por exemplo, em conformidade com uma direção da gravidade conforme detectada pelo dispositivo com o uso de um acelerômetro ou outro sensor), como nas Figuras 11A a 11B. Por exemplo, na Figura 11F, após a interface de usuário 1102 ser destravada do modo retrato, a interface de usuário 1102 reverte de volta para modo paisagem, como na Figura 1 IB, em conformidade com a orientação paisagem do dispositivo 100.
[000389] Em algumas modalidades, operações análogas àquelas descritas acima são realizadas para travar a interface de usuário 1102 em modo paisagem. Por exemplo, uma rotação de impressão digital análoga à rotação da impressão digital 1104 (Figuras 11C a 11D) enquanto a interface de usuário 1102 é exibida no modo paisagem (por exemplo, em conformidade com o dispositivo 100 que está em orientação paisagem) trava a interface de usuário 1102 em modo paisagem. Uma rotação de impressão digital análoga à rotação da impressão digital 1108 (Figuras 11E a 11F) enquanto a interface de usuário 1102 está travada no modo paisagem destrava a interface de usuário 1102 do modo paisagem.
[000390] Em algumas modalidades, a rotação da impressão digital que trava a interface de usuário 1102 em um modo de orientação particular (isto é, modo retrato ou modo paisagem) é anti-horária, e a rotação para destravar é horária, em oposição a vice-versa descrito acima.
[000391] As Figuras 12A a 12B são fluxogramas que ilustram um método 1200 para travar uma orientação da interface de usuário em conformidade com algumas modalidades. O método 1200 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou dispositivo de múltiplas funções portátil 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor com tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 1200 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000392] Conforme descrito abaixo, o método 1200 fornece uma forma intuitiva de travar uma orientação da interface de usuário. O método reduz a carga cognitiva sobre um usuário durante o travamento de uma orientação da interface de usuário, criando, assim, uma interface entre humano e máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a travar a orientação da interface de usuário mais rápido e de modo mais eficiente conserva a energia e aumenta o tempo entre cargas de bateria.
[000393] O dispositivo exibe (1202) uma interface de usuário no visor, onde a interface de usuário tem um primeiro modo de operação de orientação específica (por exemplo, modo retrato) associado à primeira orientação do dispositivo e um segundo modo de operação de orientação específica (por exemplo, modo paisagem) que está associado a uma segunda orientação do dispositivo que é diferente da primeira orientação do dispositivo. As Figuras 11A a 11B mostram, por exemplo, a interface de usuário 1102 exibida na tela sensível ao toque 112. A interface de usuário 1102 é exibida em modo retrato quando o dispositivo 100 está em orientação retrato (Figura 11A), e exibida em modo paisagem quando o dispositivo 100 está em orientação paisagem (Figura 11B).
[000394] Em algumas modalidades, o primeiro modo de operação de orientação específica é um modo de operação de orientação retrato, e o segundo modo de operação de orientação específica é um modo de operação de orientação paisagem (1204). Conforme mostrado nas Figuras 11A a 11B, a interface de usuário 1102 é exibida em modo retrato ou modo paisagem.
[000395] Enquanto a orientação da interface de usuário não está travada (1206), o dispositivo exibe (1208) a interface de usuário no primeiro modo de operação de orientação específica quando o dispositivo está na primeira orientação, e exibe (1210) a interface de usuário no segundo modo de operação de orientação específica quando o dispositivo está na segunda orientação. As Figuras 11A a 11B mostram a interface de usuário 1102 que não está travada em um modo de orientação particular. A interface de usuário 1102 é exibida em modo retrato quando o dispositivo 100 está em orientação retrato (Figura 11A), e exibida em modo paisagem quando o dispositivo 100 está em orientação paisagem (Figura 11B).
[000396] O dispositivo detecta (1212) a impressão digital no sensor de impressão digital. A Figura 11C, por exemplo, mostra a impressão digital 1104 detectada no sensor de impressão digital 169. Como outro exemplo, a Figura 11E mostra a impressão digital 1108 detectada no sensor de impressão digital 169. Em algumas modalidades, o sensor de impressão digital é (1214) separado do visor. Por exemplo, o sensor de impressão digital 169 é separado da tela sensível ao toque 112.
[000397] Enquanto a interface de usuário está no primeiro modo de operação de orientação específica, o dispositivo detecta (1216) a rotação da impressão digital no sensor de impressão digital (por exemplo, em que uma orientação da impressão digital muda em relação a uma orientação do sensor de impressão digital) em uma primeira direção (por exemplo, no sentido horário). Por exemplo, a Figura 11D mostra o dispositivo 100 detectando a rotação (por exemplo, contorção) da impressão digital 1104 no sensor de impressão digital 169 em uma direção horária. Em resposta a detectar a rotação da impressão digital no sensor de impressão digital na primeira direção (1218), o dispositivo trava (1220) a interface de usuário no primeiro modo de operação de orientação específica. Na Figura 11D, por exemplo, em resposta a detectar a rotação no sentido horário da impressão digital 1104 enquanto a interface de usuário 1102 é exibida em modo retrato, o dispositivo 100 trava a interface de usuário 1102 em modo retrato (por exemplo, conforme mostrado na Figura 11E).
[000398] Em algumas modalidades, em resposta a detectar a rotação da impressão digital no sensor de impressão digital na primeira direção (1218), o dispositivo exibe (1222) uma indicação visual de que a orientação da interface de usuário está travada no primeiro modo de operação de orientação específica. Na Figura 11D, por exemplo, em resposta a detectar a rotação no sentido horário da impressão digital 1104, adicionalmente a travar a interface de usuário 1102 em modo retrato, o dispositivo 100 exibe o ícone 1106 para indicar que a interface de usuário 1102 está travada em modo retrato.
[000399] Enquanto a interface de usuário está travada no primeiro modo de operação de orientação específica (1224), o dispositivo detecta que o dispositivo está na segunda orientação e mantém (1226) a interface de usuário no primeiro modo de operação de orientação específica. Por exemplo, a Figura 11D mostra o dispositivo 100 em orientação retrato e a interface de usuário 1102 travada em modo retrato. Quando o dispositivo 100 é girado (por exemplo, pelo usuário) para orientação paisagem, o dispositivo 100 detecta que o mesmo está agora em orientação paisagem e mantém a interface de usuário 1102, que foi travada em modo retrato, em modo retrato, conforme mostrado na Figura 11E.
[000400] Em algumas modalidades, enquanto a interface de usuário está no segundo modo de operação de orientação específica, o dispositivo detecta a rotação da impressão digital no sensor de impressão digital (por exemplo, onde uma orientação da impressão digital muda em relação a uma orientação do sensor de impressão digital) em uma primeira direção (por exemplo, no sentido horário); em resposta a detectar a rotação da impressão digital no sensor de impressão digital na primeira direção, o dispositivo trava a interface de usuário no segundo modo de operação de orientação específica; e enquanto a interface de usuário está travada no segundo modo de operação de orientação específica, o dispositivo detecta que o dispositivo está na primeira orientação e mantém a interface de usuário no segundo modo de operação de orientação específica. Portanto, analogamente, a interface de usuário 1102 é, opcionalmente, travada em modo paisagem e é exibida em modo paisagem mesmo quando o dispositivo 100 está em orientação retrato.
[000401] Em algumas modalidades, enquanto a interface de usuário está travada no primeiro modo de operação de orientação específica (1224), o dispositivo detecta (1228) a rotação de uma impressão digital no sensor de impressão digital em uma segunda direção (por exemplo, no sentido anti-horário) diferente da primeira direção. Em resposta a detectar a rotação da impressão digital na segunda direção, o dispositivo destrava (1230) a interface de usuário do primeiro modo de operação de orientação específica. Por exemplo, a Figura 11F mostra o dispositivo 100 detectando a rotação no sentido anti-horário (por exemplo, contorção) da impressão digital 1108 enquanto a interface de usuário 1102 está travada em modo retrato. Em resposta a detectar a rotação em sentido anti-horário da impressão digital 1108 enquanto a interface de usuário 1102 está travada em modo retrato, a interface de usuário 1102 está destravada do modo retrato.
[000402] Deve-se entender que a ordem particular em que as operações nas Figuras 12A a 12B foram descritas é meramente exemplifica- tiva e não pretende indicar que a ordem descrita é a única ordem em que as operações poderiam ser realizadas. Um versado na técnica poderia reconhecer várias formas para reordenar as operações descritas no presente documento. Adicionalmente, deve-se perceber que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) são também aplicáveis de uma maneira análoga ao método 1200 descrito em relação às Figuras 12A a 12B. Por exemplo, as impressões digitais e as interfaces de usuário descritas acima com referência ao método 1200 opcionalmente têm uma ou mais das características das impressões digitais e das interfaces de usuário descritas no presente documento com referência aos outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Para ser breve, esses detalhes não são repetidos aqui.
[000403] Em conformidade com algumas modalidades, a Figura 13 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 1300 configurado em conformidade com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. As pessoas versadas na técnica entendem que os blocos funcionais descritos na Figura 13 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente suporta qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente do-cumento.
[000404] Conforme mostrado na Figura 13, um dispositivo eletrônico 1300 inclui uma unidade de exibição 1302 configurada para exibir uma interface de usuário, em que a interface de usuário tem um primeiro modo de operação de orientação específica associado a uma primeira orientação do dispositivo 1300 e um segundo modo de operação de orientação específica que está associado a uma segunda orientação do dispositivo 1300 que é diferente da primeira orientação do dispositivo 1300, opcionalmente, uma unidade de superfície sensível ao toque 1304, uma unidade de sensor de impressão digital 1306; e uma unidade de processamento 1308 acoplada à unidade de exibição 1302, a unidade de superfície sensível ao toque 1304 e a unidade de sensor de impressão digital 1306. Em algumas modalidades, a unidade de processamento 1308 inclui uma unidade de habilitação de exibição 1310, uma unidade de detecção 1312, uma unidade de travamento 1314, uma unidade de manutenção 1316 e uma unidade de destrava- mento 1318.
[000405] A unidade de processamento 1308 é configurada para: enquanto a orientação da interface de usuário não está travada: habilitar a exibição da interface de usuário no primeiro modo de operação de orientação específica quando o dispositivo 1300 está na primeira orientação (por exemplo, com a unidade de habilitação de exibição 1310) e habilitar a exibição da interface de usuário no segundo modo de operação de orientação específica quando o dispositivo 1300 está na segunda orientação (por exemplo, com a unidade de habilitação de exibição 1310); detectar uma impressão digital na unidade de sensor de impressão digital 1306 (por exemplo, com a unidade de detecção 1312); enquanto a interface de usuário está no primeiro modo de operação de orientação específica, detectar a rotação da impressão digital na unidade de sensor de impressão digital 1306 em uma primeira direção (por exemplo, com a unidade de detecção 1312); em resposta a detectar a rotação da impressão digital na unidade de sensor de impressão digital 1306 na primeira direção, travar a interface de usuário no primeiro modo de operação de orientação específica (por exemplo, com a unidade de travamento 1314); e enquanto a interface de usuário está travada no primeiro modo de operação de orientação específica, detectar que o dispositivo 1300 está na segunda orientação (por exemplo, com a unidade de detecção 1312) e manter a interface de usuário no primeiro modo de operação de orientação específica (por exemplo, com a unidade de manutenção 1316).
[000406] Em algumas modalidades, a unidade de processamento 1308 é configurada para: enquanto a interface de usuário está travada no primeiro modo de operação de orientação específica, detectar a rotação de uma impressão digital na unidade de sensor de impressão digital 1306 em uma segunda diferente da primeira direção (por exemplo, com a unidade de detecção 1312); e em resposta a detectar a rotação da impressão digital na segunda direção, destravar a interface de usuário do primeiro modo de operação de orientação específica (por exemplo, com a unidade de destravamento 1318).
[000407] Em algumas modalidades, a unidade de processamento 1308 é configurada para: em resposta a detectar a rotação da impressão digital na unidade de sensor de impressão digital 1306 na primeira direção, habilitar a exibição de uma indicação visual de que a orientação da interface de usuário está travada no primeiro modo de operação de orientação específica (por exemplo, com a unidade de habilitação de exibição 1310).
[000408] Em algumas modalidades, o primeiro modo de operação de orientação específica é um modo de operação de orientação retrato e o segundo modo de operação de orientação específica é um modo de operação de orientação paisagem.
[000409] Em algumas modalidades, a unidade de sensor de impres- são digital 1306 é separada da unidade de exibição 1302.
[000410] As operações nos métodos de processamento de informações descritos acima são, opcionalmente, implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000411] As operações descritas acima com referência às Figuras 12A a 12B são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 13. Por exemplo, as operações de detecção 1212 e 1216, a operação de travamento 1220 e as operações de detecção e manutenção 1226 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de eventos 180 e pelo manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de eventos 180 do aplicativo 136-1 compara as informações de evento às respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou um subevento predefinido, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento predefinido é detectado, o reconhecedor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou do subevento. O manipulador de eventos 190 opcionalmente utiliza ou executa o atualizador de dados 176 ou o atualiza- dor de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um res-pectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. Similarmente, poderia estar claro para uma pessoa versada na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Controlar Redução de Ruído em Áudio Gravado com um Sensor de Impressão Digital
[000412] Muitos dispositivos eletrônicos possibilitam que o usuário grave mídia, incluindo gravação de áudio. Durante a gravação, um usuário tipicamente deseja reduzir/eliminar ruídos de fontes outras que a fonte pretendida no áudio gravado. Por exemplo, um usuário pode desejar reduzir o som de sua respiração no áudio gravado. No entanto, um usuário pode desejar interromper ou alternar a redução de ruído de acordo com sua vontade. Por exemplo, o usuário pode desejar fornecer comentários durante certas partes da mídia gravada enquanto elimina sons involuntários do usuário durante outras partes. Os dispositivos existentes ou não fornecem ao usuário essa funcionalidade ou exigem que o usuário navegue através de vários menus e interfaces de usuário. Nas modalidades descritas abaixo, um método aprimorado para controlar a redução de ruído no áudio gravado é atingido com o uso de um sensor de impressão digital para permitir que o usuário ati- ve/desative a redução de ruído. Esse método simplifica o processo para controlar a redução de ruído no áudio gravado fazendo isso em resposta a um sensor de impressão digital em um dispositivo eletrônico.
[000413] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 14A a 14D e 15 inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, os um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A não ser que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de im-pressão digital 169. Para conveniência de explicação, as modalidades descritas com referência às Figuras 14A a 14D e 15 serão discutidas com referência ao visor 450, a uma superfície sensível ao toque 451 e a um sensor de impressão digital integrado 359-1, no entanto operações análogas são, opcionalmente, realizadas em um dispositivo com uma superfície sensível ao toque separada *451 e um sensor de impressão digital separado 359-2 em resposta a detectar as entradas descritas nas Figuras 14A a 14D no sensor de impressão digital integrado 359-2 durante a exibição das interfaces de usuário mostradas nas Figuras 14A a 14D no visor 450. Adicionalmente, operações análogas são, opcionalmente, realizadas em um dispositivo com uma tela sensível ao toque 112 em resposta a detectar os contatos descritos nas Figuras 14A a 14D em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) durante a exibição das interfaces de usuário mostradas nas Figuras 14A a 14D na tela sensível ao toque 112; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112.
[000414] As Figuras 14A a 14C ilustram um exemplo de controle de redução de ruído em áudio gravado com um sensor de impressão digital. A Figura 14A mostra a interface de usuário 1402, incluindo a interface de gravação de mídia 1406 com situação de redução de ruído 1408 e pré-visualização de vídeo 1410, exibida no visor 450 de um dispositivo (por exemplo, dispositivo de múltiplas funções portátil 100). A Figura 14A ilustra, ainda, a superfície sensível ao toque 451 com o sensor de impressão digital integrado 359-1. A Figura 14A também mostra o dispositivo detectando a impressão digital 1404 (por exemplo, um contato de polegar direito) na superfície sensível ao toque 451 distante do sensor de impressão digital integrado 359-1 e situação de redução de ruído 1408 indicando que a redução de ruído está ligada (por exemplo, ativa) no áudio gravado. A Figura 14B mostra o dispositivo detectando a impressão digital 1404 na superfície sensível ao toque 451 sobre o sensor de impressão digital integrado 359-1 e a situação de redução de ruído 1408 indicando que a redução de ruído está desligada (por exemplo, inativa) no áudio gravado. A Figura 14C mostra o dispositivo detectando que a impressão digital 1404 não está mais no sensor de impressão digital integrado 359-1 e a situação de redução de ruído 1408 indicando que a redução de ruído está ligada no áudio gravado.
[000415] A Figura 14D ilustra um exemplo de um dispositivo com um visor, um sensor de impressão digital e um sensor de câmera para uso no controle da redução de ruído no áudio gravado. A Figura 14D mostra o dispositivo 1412 com o sensor de impressão digital 1418 e o visor 1422 no primeiro lado 1414 e o sensor de câmera 1420 no segundo lado 1416.
[000416] A Figura 15 é um fluxograma que ilustra um método 1500 para controlar a redução de ruído em áudio gravado com um sensor de impressão digital em conformidade com algumas modalidades. O método 1500 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou dispositivo de múltiplas funções portátil 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor com tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 1500 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000417] Conforme descrito abaixo, o método 1500 fornece uma forma intuitiva de controlar a redução de ruído in áudio gravado com um sensor de impressão digital. O método reduz a carga cognitiva sobre um usuário durante o controle da redução de ruído em áudio gravado, criando, assim, uma interface entre humano e máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a controlar a redução de ruído em áudio gravado mais rápido e de modo mais eficiente conserva a energia e aumenta o tempo entre cargas de bateria.
[000418] O dispositivo grava (1502) a mídia, em que gravar a mídia incluir gravar áudio. Por exemplo, a Figura 14A mostra um dispositivo gravando mídia conforme indicado pela interface de gravação de mídia 1406.
[000419] Durante a gravação da mídia (1504), o dispositivo reduz (1506), no áudio gravado, o ruído que ocorre em um primeiro lado do dispositivo. Por exemplo, na Figura 14A, a situação de redução de ruído 1408 indica que o dispositivo está reduzindo ruído no áudio gravado.
[000420] Enquanto continua a gravar a mídia (1504), o dispositivo detecta (1512) a impressão digital no sensor de impressão digital. Por exemplo, a Figura 14B mostra o dispositivo detectando a impressão digital 1404 (por exemplo, um contato de polegar direito) no sensor de impressão digital integrado 359-1.
[000421] Em algumas modalidades, o sensor de impressão digital está localizado (1510) no primeiro lado do dispositivo. Por exemplo, a Figura 14D mostra o sensor de impressão digital 1418 no primeiro lado 1414 do dispositivo 1412.
[000422] Enquanto continua a gravar a mídia (1504) e em resposta a detectar a impressão digital no sensor de impressão digital, o dispositivo interrompe (1512) a redução de ruído que ocorre no primeiro lado do dispositivo. Por exemplo, a Figura 14B mostra o dispositivo detectando que a impressão digital 1404 (por exemplo, um contato de polegar direito) no sensor de impressão digital integrado 359-1 e a situação de redução de ruído 1408 indicando que o dispositivo interrompeu a redução de ruído no áudio gravado.
[000423] Em algumas modalidades, após interromper a redução do ruído que ocorre no primeiro lado do dispositivo, o dispositivo detecta (1514) quando a impressão digital não está mais no sensor de impressão digital, e, em resposta a detectar que a impressão digital não está mais no sensor de impressão digital, o dispositivo reinicia (1516) a redução de ruído que ocorre no primeiro lado do dispositivo no áudio gravado. Por exemplo, um dispositivo está inicialmente eliminando o ruído de um lado do dispositivo (por exemplo, de modo a evitar a gravação de respiração ou outros ruídos criados por um produtor do vídeo que o produtor do vídeo não pretende gravar) e, subsequentemente, quando o dispositivo detecta uma impressão digital em um sensor de impressão digital, p dispositivo interrompe temporariamente de redu- zir/eliminar ruídos no primeiro lado da câmera (por exemplo, de modo que um produtor do vídeo possa comentar o vídeo) e então o dispositivo reinicia a eliminação de ruídos para ruídos no primeiro lado do dis- positivo após ou em resposta a interromper a detecção da impressão digital no sensor de impressão digital (por exemplo, uma vez que o produtor do vídeo terminou de comentar o vídeo). A Figura 14C, por exemplo, mostra o dispositivo não detectando mais a impressão digital 1404 no sensor de impressão digital integrado 359-1 (por exemplo, a impressão digital 1404 elevada ou afastada do sensor de impressão digital integrado 359-1). A Figura 14C mostra, ainda, a situação de redução de ruído 1408 indicando que o dispositivo reiniciou a redução de ruídos no áudio gravado.
[000424] Em algumas modalidades, gravar a mídia inclui gravar (1518) um vídeo de um sensor de câmera em um segundo lado do dispositivo que é diferente (por exemplo, oposto a) do primeiro lado do dispositivo. Por exemplo, o vídeo é gravado com o uso de uma câmera voltada para frente e o ruído é reduzido/eliminado com o uso de formação de feixe acústico para eliminar entrada de áudio da parte de trás do dispositivo. Por exemplo, a Figura 14D mostra o sensor de câmera 1420 no segundo lado 1416 do dispositivo 1412.
[000425] Em algumas modalidades, gravar a mídia inclui exibir (1520) uma pré-visualização do vídeo em um visor localizado no primeiro lado do dispositivo (por exemplo, o lado em que o usuário está). A partir de outro ponto de vida, o método inclui exibir uma pré- visualização do vídeo no visor localizado no primeiro lado do dispositivo. Por exemplo, a Figura 14A mostra a pré-visualização de vídeo 1410 no vídeo 450 de um dispositivo.
[000426] Em algumas modalidades, gravar a mídia inclui gravar sons que ocorrem em um segundo lado do dispositivo que é diferente do primeiro lado do dispositivo, e, em resposta a detectar a impressão digital no sensor de impressão digital, o dispositivo reduz (1522), no áudio gravado, o ruído que ocorre no segundo lado do dispositivo. Por exemplo, a Figura 14B mostra o dispositivo detectando a impressão digital 1404 (por exemplo, um contato de polegar direito) no sensor de impressão digital integrado 359-1. Nesse exemplo, e em conformidade com essas modalidades, o dispositivo interrompeu a redução de ruído que ocorre no primeiro lado do dispositivo (conforme indicado pela situação de redução de ruído 1408) e está reduzindo o ruído que ocorre no segundo lado do dispositivo (indicação de redução de ruído no segundo lado do dispositivo não é mostrada na Figura 14B).
[000427] Deve-se entender que a ordem particular em que as operações na Figura 15 foram descritas é meramente exemplificativa e não pretende indicar que a ordem descrita é a única ordem em que as operações poderiam ser realizadas. Um versado na técnica poderia reconhecer várias formas para reordenar as operações descritas no presente documento. Adicionalmente, deve-se perceber que os detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) são também aplicáveis de uma maneira análoga ao método 1500 descrito acima em relação à Figura 15. Por exemplo, as impressões digitais e contatos descritos acima com referência ao método 1500 opcionalmente têm uma ou mais das ca-racterísticas das impressões digitais e dos contatos descritos no presente documento com referência aos outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Para ser breve, esses detalhes não são repetidos aqui.
[000428] Em conformidade com algumas modalidades, a Figura 16 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 1600 configurado em conformidade com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. As pessoas versadas na técnica entendem que os blo- cos funcionais descritos na Figura 16 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente suporta qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000429] Conforme mostrado na Figura 16, o dispositivo eletrônico 1600 inclui a unidade de sensor de impressão digital 1606 e a unidade de processamento 1608 acoplada à unidade de sensor de impressão digital 1606. Em algumas modalidades, o dispositivo eletrônico 1600 inclui, ainda, a unidade de exibição 1602 e a unidade de sensor de câmera 1604 acoplada à unidade de processamento 1608. Em algumas modalidades, a unidade de processamento 1608 inclui a unidade de gravação 1610, a unidade de redução de ruído 1612, a unidade de detecção 1614 e a unidade de habilitação de exibição 1616.
[000430] A unidade de processamento 1608 é configurada para gravar (por exemplo, com a unidade de gravação 1610) mídia com o dispositivo, em que gravar a mídia inclui gravar áudio. A unidade de processamento 1608 é configurada, ainda, para, durante a gravação de mídia, reduzir (por exemplo, com a unidade de redução de ruído 1612), no áudio gravado, ruídos que ocorrem em um primeiro lado do dispositivo, detectar (por exemplo, com a unidade de detecção 1614) uma impressão digital na unidade de sensor de impressão digital, e, em resposta a detectar a impressão digital na unidade de sensor de impressão digital, interromper a redução (por exemplo, com a unidade de redução de ruído 1612) de ruído que ocorre no primeiro lado do dispositivo.
[000431] Em algumas modalidades, a unidade de sensor de impressão digital 1606 está localizada no primeiro lado do dispositivo.
[000432] Em algumas modalidades, a unidade de processamento 1608 é, ainda, configurada para, após interromper a redução (por exemplo, com a unidade de redução de ruído 1612) do ruído que ocorre no primeiro lado do dispositivo, detectar (por exemplo, com a unidade de detecção 1614) quando a impressão digital não está mais no sensor de impressão digital, e, em resposta a detectar (por exemplo, com a unidade de detecção 1614) que a impressão digital não está mais na unidade de sensor de impressão digital, reiniciar a redução (por exemplo, com a unidade de redução de ruído 1612) de ruído que ocorre no primeiro lado do dispositivo no áudio gravado.
[000433] Em algumas modalidades, o dispositivo eletrônico 1600 compreende, ainda, uma unidade de sensor de câmera em um segundo lado do dispositivo que é diferente do primeiro lado do dispositivo e a unidade de processamento 1608 é, ainda, configurada para gravar (por exemplo, com a unidade de gravação 1610) vídeo a partir da unidade de sensor de câmera.
[000434] Em algumas modalidades, o dispositivo eletrônico compreende, ainda, a unidade de exibição 1602 localizada no primeiro lado do dispositivo e gravar (por exemplo, com a unidade de gravação 1610) a mídia inclui habilitar a exibição (por exemplo, com a unidade de habilitação de exibição 1616) de uma pré-visualização do vídeo na unidade de exibição.
[000435] Em algumas modalidades, gravar a mídia inclui gravar (por exemplo, com a unidade de gravação 1610) sons que ocorrem em um segundo lado do dispositivo que é diferente do primeiro lado do dispositivo e a unidade de processamento 1608 é, ainda, configurada para, em resposta a detectar a impressão digital na unidade de sensor de impressão digital, reduzir (por exemplo, com a unidade de redução de ruído 1612), no áudio gravado, o ruído que ocorre no segundo lado do dispositivo.
[000436] As operações nos métodos de processamento de informa- ções descritos acima são, opcionalmente, implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000437] As operações descritas acima com referência à Figura 15 são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 16. Por exemplo, a operação de gravação 1402, a operação de redução 1506 e a operação de detecção 1508 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de eventos 180 e pelo manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de eventos 180 do aplicativo 136-1 com-para as informações de evento às respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou um sube- vento predefinido, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento predefinido é detectado, o reconhecedor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou do subevento. O manipulador de eventos 190 opcionalmente utiliza ou executa o atualiza- dor de dados 176 ou o atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. Similarmente, poderia estar claro para uma pessoa versada na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Realizar Operações com Base em um Perfil Baseado em Classe
[000438] Muitos dispositivos eletrônicos têm múltiplas funções e múltiplos usuários. Nem todas as funções são adequadas para todos os usuários e, portanto, certas restrições de função são implantadas para alguns usuários. Em algumas situações, a identificação de usuário em um dispositivo é feita através de um processo de efetuação de login, em que os usuários identificam-se especificamente com um nome de usuário e senha. No entanto, comutar entre usuários através de um processo de efetuação de login consome tempo e é ineficiente. Além disso, a identidade do usuário específico não é essencial para todas as restrições de função. As modalidades descritas abaixo aprimoram esses métodos por restrição ou modificação de funções com base nas classes de usuário identificadas por impressão digital. Quando um dispositivo detecta uma impressão digital de um usuário, o dispositivo identifica uma um ou mais classes de usuário com base nos perfis de seleção de impressão digital detectada associados às classes de usuário identificadas como ativas, incluindo pelo menos uma classe que não é única para o usuário. Quando o dispositivo recebe uma solicitação para realizar uma ou mais operações, o dispositivo realiza uma respectiva operação com base na solicitação e nos perfis ativos. A respectiva operação pode ser adicional ou em vez da(s) operação(ões) solicitada(s). Personalizando-se as operações e funções no dispositivo com base em classes de usuário que não são únicas (por exemplo, são agnósticas) à identidade de usuário específico, as restrições de função podem ser implantadas no dispositivo para situações em que a efetuação de login e logoff de usuário frequente é ineficiente (por exemplo, compartilhamento parental de um dispositivo com uma criança) ou impossível (por exemplo, dispositivos públicos ou semipúblicos para uso por uma população mais ampla que um círculo fechado de usuários).
[000439] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 17A a 17K e 18A a 18B inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A não ser que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência de explicação, as modalidades descritas com referência às Figuras 17A a 17K e 18A a 18B serão discutidas com referência ao visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2, no entanto, operações análogas são, opcionalmente, realizadas em um dispositivo com um sensor de impressão digital integrado 359-1 em resposta a detectar as entradas descritas nas Figuras 17A a 17K no sensor de impressão digital integrado 359-1 durante a exibição das interfaces de usuário mostradas nas Figuras 17A a 17K no visor 450. Adicionalmente, operações análogas são, op-cionalmente, realizadas em um dispositivo com uma tela sensível ao toque 112 em resposta a detectar os contatos descritos nas Figuras 17A a 17K em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) durante a exibição das interfaces de usuário mostradas nas Figuras 17A a 17K na tela sensível ao toque 112; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor.
[000440] A Figura 17A ilustra um dispositivo com visor 450, superfície sensível ao toque 451, e sensor de impressão digital integrado 359-1. A interface de usuário 1700 é exibida no visor 450. Conforme mostrado na Figura 17A, a interface de usuário 1700 é, por exemplo, uma interface de usuário gráfica de computador de mesa, uma tela inicial ou menu, ou similares. A Interface de usuário 1700 é, opcionalmente, outro tipo de interface de usuário, tal como uma interface de usuário para um aplicativo. A interface de usuário 1700 inclui opcionalmente um ou mais ícones de aplicativo, tal como ícone "definições" 1704 e ícones de aplicativo similares aos ícones de aplicativo exibidos na interface de usuário 400 (Figura 4A). Um usuário pode interagir com a interface de usuário 1700 e fazer solicitações para uma ou mais operações a serem realizadas pelo dispositivo com o uso de um res-pectivo elemento de entrada, tal como superfície sensível ao toque 451, um botão, um mouse, ou um teclado. Por exemplo, um usuário pode ativar uma interface de usuário para ajustar as definições de dispositivo (por exemplo, interface de usuário de definições 1708, Figura 17C) ativando-se o ícone "definições" 1704 com o uso de, por exem- plo, superfície sensível ao toque 451 (por exemplo, realizar um gesto de toque na superfície sensível ao toque 451 associado a um seletor de foco, tal como cursor 1705 que está em um local no visor que corresponde ao ícone "definições" 1704).
[000441] Em algumas modalidades, o dispositivo é associado a múltiplos perfis. Os múltiplos perfis incluem um ou mais perfis específicos de usuário e um ou mais perfis baseados em classe. Em algumas modalidades, cada perfil específico de usuário corresponde a um respectivo usuário. Em algumas modalidades, cada um dos perfis baseados em classe, que são distintos dos perfis específicos de usuário, corresponde a uma respectiva classe de usuários. Em algumas modalidades, um ou mais dos perfis baseados em classe correspondem a classes de usuários baseadas em idade. Exemplos de perfis baseados em classe baseados em idade incluem um perfil baseado em classe que corresponde a adultos (por exemplo, usuários de 18 anos ou mais), um perfil baseado em classe que corresponde a não adultos ou crianças (por exemplo, usuários abaixo de 18 anos de idade), e um perfil baseado em classe que corresponde a idosos (por exemplo, usuários com mais de 65 anos de idade). Em algumas modalidades, os perfis são recuperados da memória do dispositivo (por exemplo, memória 102 ou 370). Em algumas outras modalidades, os perfis são recebidos de um sistema de computador remoto. Os perfis são recuperados ou recebidos em resposta a um ou mais operações particulares (por exemplo, detecção de uma impressão digital no sensor de impressão digital 359) ou como parte de uma rotina pré-definida.
[000442] O dispositivo também inclui dados relacionados a uma ou mais impressões digitais que foram anteriormente registradas no dispositivo. Cada impressão digital registrada corresponde a um respectivo perfil específico de usuário. Em algumas modalidades, as impressões digitais registradas são armazenadas na memória (por exemplo, memória 102 ou 370) do dispositivo e recuperadas da mesma.
[000443] Embora uma interface de usuário (por exemplo, interface de usuário 1700) seja exibida no visor 450, uma impressão digital é detectada no sensor de impressão digital integrado 359-1. As Figuras 17A e 17B ilustram impressões digitais de diferentes tamanhos detectados no sensor de impressão digital integrado 359-1. A Figura 17A ilustra a impressão digital 1702 que é detectada no sensor de impressão digital integrado 359-1, e a Figura 17B ilustra a impressão digital 1706 que é detectada no sensor de impressão digital integrado 359-1 em vez da impressão digital 1702. A impressão digital 1702 e impressão digital 1706 são impressões digitais de dois usuários diferentes que pertencem respectivamente a diferentes classes de usuários. Por exemplo, a impressão digital 1702 é determinada a pertencer a um usuário em uma classe de usuários adultos, e impressão digital 1706, que é menor do que a impressão digital 1702 e determinada pelo dispositivo a ter aproximadamente o tamanho da impressão digital de uma criança, é determinada a pertencer a um usuário em uma classe de usuários crianças.
[000444] Com base na impressão digital detectada, o dispositivo seleciona um ou mais perfis baseados em classe, dos perfis baseados em classe associados ao dispositivo, como perfis ativos que correspondem à impressão digital detectada. Por exemplo, para a impressão digital 1702, o dispositivo seleciona um perfil "Adultos" como um perfil ativo, assim como qualquer outro perfil baseado em classe para o qual o dispositivo determina que o usuário ao qual a impressão digital 1702 pertence é compatível. Para a impressão digital 1706, o dispositivo seleciona um perfil "Crianças", assim como qualquer outro perfil baseado em classe para o qual o dispositivo determina que o usuário ao qual impressão digital 1706 pertence é compatível. Deve-se apreciar que um usuário pode ser associado a múltiplas classes. Desse modo, para uma dada impressão digital detectada, múltiplos perfis baseados em classe podem ser selecionados como ativos (por exemplo, uma impressão digital poderia ser associada à classe "adultos" de usuários e a classe "masculina" de usuários ou as "crianças" classe de usuários e a classe "feminina" de usuários).
[000445] Em algumas modalidades, os perfis baseados em classe são selecionados sem associação à autenticação da impressão digital detectada. Por exemplo, a seleção de perfis baseados em classe não exige comparação da impressão digital detectada com impressões digitais anteriormente registradas associadas ao dispositivo. Em algumas modalidades, a seleção de perfis baseados em classe é baseada nas características e recursos da impressão digital detectada. Por exemplo, o perfil "Adultos" é selecionado para impressão digital 1702 e o perfil "Crianças" é selecionado para impressão digital 1706 com base nos tamanhos dessas respectivas impressões digitais; a impressão digital 1706 é determinada a ser impressão digital de uma criança com base em seu tamanho, e a impressão digital 1702 é determinada a ser a impressão digital de um adulto com base em seu tamanho.
[000446] Em algumas modalidades, os perfis baseados em classe são selecionados adicionalmente à seleção de um perfil específico de usuário baseado em uma comparação da impressão digital detectada às impressões digitais anteriormente registradas no dispositivo. Em algumas modalidades, a identificação ou seleção de um perfil específico de usuário auxilia na seleção de perfis baseados em classe. Por exemplo, um ou mais perfis baseados em classe são, opcionalmente, selecionados com base em uma comparação do perfil específico de usuário às características das classes com base em quais os respectivos perfis baseados em classe são definidos.
[000447] Após o dispositivo seleciona um ou mais perfis baseados em classe como perfis ativos para o dispositivo, o dispositivo recebe uma entrada, sendo que o respectivo elemento de entrada corresponde a uma solicitação para realizar uma ou mais operações em um dispositivo. Por exemplo, o dispositivo recebe uma entrada para ativar o ícone "definições" 1704 (ou ícone "definições" 446) (por exemplo, um gesto na superfície sensível ao toque 451 enquanto um seletor de foco tal como cursor 1705 é localizado no ícone "definições" 1704), que corresponde a uma solicitação para exibir a interface de usuário de definições 1708 (Figura 17C). Dependendo dos perfis ativos baseados em classe, a interface de usuário de definições 1708 é exibida ou uma mensagem de erro é exibida em vez disso. Por exemplo, no dispositivo conforme mostrado nas Figuras 17A e 17B, a interface de usuário de definições 1708 não é exibida se o perfil "Crianças" for ativo. Desse modo, por exemplo, se a impressão digital detectada for a impressão digital 1702 (Figura 17A), e desse modo o perfil "Adultos", mas não o perfil "Crianças", for selecionado como ativo, a interface de usuário de definições 1708 é exibida, conforme mostrado na Figura 17C; a operação de exibição da interface de usuário de definições 1708 é realizada com base na solicitação e no perfil ativo "Adultos".
[000448] Por outro lado, se a impressão digital detectada for a impressão digital 1706 (Figura 17B), e desse modo o perfil "Crianças", mas não o perfil "Adultos", for selecionado como ativo, então a interface de usuário de definições 1708 não é exibida. Em vez disso, uma mensagem de erro ou similares (por exemplo, mensagem de erro 1710) que indica que a interface de usuário de definições 1708 não é acessível é exibida, conforme mostrado na Figura 17D; a operação de exibição de mensagem de erro 1710 é realizada com base na solicitação e no perfil ativo "Crianças".
[000449] Outro exemplo de uma entrada que corresponde a uma solicitação para realizar uma ou mais operações em um dispositivo é uma solicitação para abrir um aplicativo de vídeo. Por exemplo, o usu- ário realiza um gesto (por exemplo, um toque ou gesto de toque duplo) na superfície de superfície de toque 451 enquanto um seletor de foco é localizado no ícone de vídeo online 432 (Figura 4A) para abrir um aplicativo de vídeo online (por exemplo, módulo de vídeo online 155, a Figura 1A). Como outro exemplo, o usuário realiza um gesto (por exemplo, um toque ou gesto de toque duplo) na superfície sensível ao toque 451 enquanto um seletor de foco (por exemplo, um contato detectado na tela sensível ao toque 112 ou um cursor exibido no visor 450) é localizado em uma mídia ou ícone de aplicativo de vídeo (por exemplo, ícone 422, Figura 4A) na interface de usuário 400 para abrir um aplicativo (por exemplo, módulo de reprodutor de vídeo ou música 152, Figura 1A) para visualizar vídeos armazenados no dispositivo. Por conveniência, tanto o aplicativo para visualizar vídeos online quanto o aplicativo para visualizar vídeos armazenados no dispositivo são, doravante, ambos denominados como aplicativo de vídeo(s).
[000450] Quando um aplicativo de vídeo é aberto, uma interface de usuário que corresponde ao aplicativo de vídeo, tal como interface de usuário 1712, é exibida. A interface de usuário 1712 mostra uma lista de vídeos 1714 armazenados no dispositivo que podem ser selecionados para reprodução. As Figuras 17E a 17F ilustram diferenças na lista de vídeos 1714 exibida na interface de usuário 1712 dependendo de qual perfil baseado em classe é ativo no dispositivo quando o aplicativo de vídeo fosse lançado. A Figura 17E ilustra a lista de vídeos 1714 que é exibida quando o perfil "Adultos" é ativo no dispositivo. Com o perfil "Adultos" ativo, a lista de vídeos 1714 exibida na interface de usuário 1712 inclui vídeos adequados para todas as idades e/ou crianças (por exemplo, vídeos 1714-1 e 1714-2, classificados como "Todas as idades") e vídeos que podem não ser adequados para crianças (por exemplo, vídeos 1714-3 e 1714-4, classificados como "17+"). A Figura 17E ilustra a lista de vídeos 1714 que é exibida quando o perfil "Crian- ças" é ativo no dispositivo. Com o perfil "Crianças" ativo, a lista de vídeos 1714 exibida na interface de usuário 1712 inclui vídeos adequados para todas as idades e/ou crianças (por exemplo, vídeos 1714-1 e 1714-2) e exclui vídeos que podem não ser adequados para crianças (por exemplo, vídeos 1714-3 e 1714-4).
[000451] Outro exemplo de uma entrada que corresponde a uma solicitação para realizar uma ou mais operações em um dispositivo é uma solicitação para reproduzir um vídeo. Por exemplo, o usuário realiza um gesto (por exemplo, um toque ou gesto de toque duplo) na superfície de superfície de toque 451 enquanto um seletor de foco (por exemplo, um contato detectado na tela sensível ao toque 112 ou um cursor exibido no visor 450) é localizado em um vídeo 1714 na lista de vídeos na interface de usuário 1712 (Figura 17E ou 17F) para selecionar o vídeo 1714. Em resposta à detecção do gesto, a interface de reprodução de vídeo 1716 é exibida e a reprodução começa (alternativamente, a reprodução de vídeo começa quando o usuário ativa um botão de reprodução). A interface de reprodução de vídeo 1716 inclui quadro de vídeo 1718, controles de reprodução 1720 (por exemplo, botão de reprodução/pausa, esfregador), e controle de volume 1722 para controlar o nível de volume do conteúdo de áudio no vídeo. O controle de volume 1722 inclui barra deslizadora de volume 1726 e polegar 1724; a posição do polegar 1724 na barra deslizadora de volume 1726 indica o nível de volume atual. Em algumas modalidades, se determinados perfis baseados em classe são ativos no dispositivo quando um vídeo 1714 for selecionado para reprodução, uma restrição de nível de volume máximo é imposta. Por exemplo, se o perfil "Crianças" for ativado quando o vídeo 1714 for selecionado para reprodução, regulador de volume 1724 é restrito de se mover além de um determinado nível na barra deslizadora de volume 1726. Por exemplo, na Figura 17G, o regulador de volume 1724 é restrito de se mover na área 1728 na barra deslizadora de volume 1726. Isso cobre o volume máximo em um nível abaixo de 100%, ajudando desse modo a evitar danos auditivos. Se o perfil "Adultos" for ativo, a restrição de nível de volume máximo não é imposta; o usuário pode mover o regulador de volume 1724 ao longo do comprimento inteiro do deslizador de volume 1726.
[000452] Outro exemplo de uma entrada que corresponde a uma solicitação para realizar uma ou mais operações em um dispositivo é uma solicitação para exibir um documento. Por exemplo, o usuário faz uma solicitação para abrir um documento (por exemplo, seleciona um documento em um aplicativo ou seleciona um hyperlink em um navegador da web). Em resposta à solicitação, o dispositivo exibe o documento em uma interface de usuário (por exemplo, interface de usuário 1730). A interface de usuário 1730 é uma interface de usuário para qualquer aplicativo que tenha capacidade de exibir documentos ou texto, tal como um aplicativo de processamento de palavra, navegador da web, aplicativo e-reader, e assim por diante. Em algumas modalidades, o dispositivo ajusta automaticamente a escala de ampliação do documento exibido ou do tamanho de fonte do texto no documento exibido com base no perfil ativo baseado em classe. Por exemplo, as Figuras 17H e 171 mostram o documento 1732 exibido na interface de usuário 1730. Se o perfil ativo baseado em classe for "Adultos," o nível de ampliação é estabelecido a um nível padrão ou nível normal (por exemplo, 100%), conforme mostrado com documento 1732-1 na Figura 17H. Se o perfil ativo baseado em classe for "Crianças" ou um perfil baseado em classe que corresponde a idosos, o nível de ampliação é estabelecido a um nível maior (por exemplo, 200%), conforme mostrado com o documento 1732-2 na Figura 171. Com o maior nível de am-pliação, o texto no documento 1732 aparece maior no visor 450 e desse modo mais fácil para que uma criança ou um cidadão idoso leia.
[000453] Em algumas modalidades, quando uma impressão digital (por exemplo, impressão digital 1702 ou 1706) é detectada no sensor de impressão digital 359-1, um perfil específico de usuário é identificado e selecionada assim como os um ou mais perfis baseados em classe. Por exemplo, quando a impressão digital 1702 é detectada no sensor de impressão digital 359-1 (Figura 17A), o dispositivo identifica uma impressão digital compatível a partir das impressões digitais anteriormente registradas no dispositivo e seleciona um perfil específico de usuário associado à impressão digital identificada compatível com a impressão digital 1702 a ser o perfil ativo específico de usuário no dispositivo, também identificando e selecionando um ou mais perfis baseados em classe a serem ativos no dispositivo, conforme descrito acima. De modo similar, quando a impressão digital 1706 é detectada no sensor de impressão digital 359-1 (Figura 17B), o dispositivo identifica uma impressão digital compatível a partir das impressões digitais anteriormente registradas no dispositivo e seleciona um perfil específico de usuário associado à impressão digital identificada impressão digital compatível 1706 para ser o perfil ativo específico de usuário no dispositivo, também identificando e selecionando um ou mais perfis baseados em classe a serem ativos no dispositivo, conforme descrito acima.
[000454] Em algumas modalidades, quando o dispositivo recebe uma entrada que corresponde a uma solicitação para realizar uma ou mais operações, o dispositivo realiza uma respectiva operação, em resposta à solicitação, com base no perfil ativo específico de usuário. Por exemplo, a Figura 17J ilustra a forma de web 1734 (por exemplo, uma página da web com campos de forma clarificáveis) para inserir informações pessoais exibidas no visor 450 em resposta a uma entrada de usuário correspondente a uma solicitação para exibir a forma de web 1734 em um aplicativo (por exemplo, um navegador da web). A entrada inclui, por exemplo, o usuário que seleciona (por exemplo, por gesto de toque; por clique no mouse enquanto um seletor de foco é localizado) um hyperlink para forma de web 1734. A forma de web 1734 inclui campos de informações pessoais 1736, tal como nome, um ou mais campos relacionados a endereços (por exemplo, rua, cidade, etc.), e número de telefone. Em resposta ao recebimento da solicitação para exibir forma de web 1734, o dispositivo exibe forma de web 1734 e preenche os campos 1736 na forma de web 1734 com informações pessoais 1738-1 a 1738-6 com base no perfil ativo específico de usuário (por exemplo, um nome, endereço e número de telefone para "John Doe"). Informações pessoais 1738 utilizadas para preencher campos 1736 são retiradas das informações associadas ao perfil ativo específico de usuário, tal como informações de contato associadas ao perfil ativo específico de usuário.
[000455] Como outro exemplo, a Figura 17K ilustra a página da web personalizada 1740 exibida no visor 450 em resposta a uma entrada de usuário que corresponde a uma solicitação para carregar a página da web 1740 em um aplicativo (por exemplo, um navegador da web). A entrada inclui, por exemplo, o usuário que seleciona (por exemplo, por gesto de toque; por clique de mouse enquanto um seletor de foco é localizado) um hyperlink para a página da web 1740 ou completa um procedimento de efetuação de login para carregar a página da web 1740. A página da web 1740 inclui conteúdo personalizado ao usuário associado ao perfil ativo específico de usuário. O conteúdo personalizado inclui, por exemplo, atalhos ou enlaces 1742 a aplicativos da web ou outros recursos de sítio da web, em que o conjunto de atalhos 1742 que apresentado é personalizado às preferências do usuário ou padrão histórico de uso da web; feed de notícias 1744, em que as categorias de notícias e/ou fontes de notícias são personalizadas às preferências do usuário; e de clima 1746 personalizadas a um local associ- ado ao usuário (por exemplo, endereço inicial, endereço de trabalho, local atual).
[000456] A página da web 1740 com conteúdo personalizado 1742, 1744, e 1746 é carregada de acordo com um cookie associado ao perfil ativo específico de usuário; o host de página da web 1740 identifica o usuário ao qual a página da web 1740 é personalizada com base no cookie. O cookie é armazenado, por exemplo, na memória (por exemplo, memória 102 ou 370) do dispositivo.
[000457] As Figuras 18A e 18B são diagramas de fluxo que ilustram um método 1800 de realização de operações baseadas em um perfil baseado em classe de acordo com algumas modalidades. O método 1800 é realizado em um dispositivo eletrônico (por exemplo, dispositivo 300, a Figura 3, ou dispositivo portátil de múltiplas funções 100, a Figura 1A) com um visor, um sensor de impressão digital, e um respectivo elemento de entrada (por exemplo, uma superfície sensível ao toque, um botão ou um teclado). Em algumas modalidades, o elemento de entrada é o sensor de impressão digital. Em algumas modalidades, o elemento de entrada é diferente do sensor de impressão digital. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque é no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 1800 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000458] Conforme descrito abaixo, o método 1800 fornece um modo intuitivo para realizar operações com base em um perfil baseado na classe. O método reduz a carga cognitiva em um usuário ao realizar operações personalizando-se as operações com base em um perfil baseado em classe, criando assim uma interface humano-máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, a habilitação de um usuário para realizar operações com base em um perfil baseado em classe mais rápido e de forma mais eficiente conserva potência e aumenta o tempo entre as cargas de bateria.
[000459] O dispositivo obtém (por exemplo, recuperando da memória ou recebendo de um sistema de computador remoto) uma pluralidade de perfis (1802), em que a pluralidade de perfis inclui um ou mais perfis específicos de usuário e um ou mais perfis baseados em classe, distintos dos perfis específicos de usuário, em que cada um corresponde a uma respectiva classe de usuários. Os perfis são armazenados, por exemplo, na memória (por exemplo, memória 102 ou 370) do dispositivo ou na nuvem.
[000460] O dispositivo detecta (1804) uma primeira impressão digital no sensor de impressão digital. A Figura 17A, por exemplo, mostra o dispositivo que detecta impressão digital 1702. A Figura 17B mostra o dispositivo que detecta impressão digital 1706.
[000461] O dispositivo seleciona (1806) um ou mais perfis baseados em classe associados ao dispositivo como perfis ativos que correspondem à primeira impressão digital sem associação à autenticação da primeira impressão digital como uma impressão digital anteriormente registrada (por exemplo, determinar que a primeira impressão digital corresponde a uma impressão digital de um usuário na primeira classe não inclui comparar diretamente a primeira impressão digital às impressões digitais anteriormente registradas), incluindo, de acordo com uma determinação de que a primeira impressão digital corresponde a uma impressão digital de um usuário em uma primeira classe de usuários que são associados a um primeiro perfil baseado em classe, selecionar o primeiro perfil baseado em classe como um perfil ativo. Em algumas modalidades, o primeiro perfil baseado em classe é selecionado sem autenticar a impressão digital como uma impressão digital anteriormente registrada. Por exemplo, se nenhuma autenticação for exigida ou a impressão digital não for compatível com nenhuma das impressões digitais anteriormente registradas, o dispositivo pode ainda ajustar a função do dispositivo de acordo com um ou mais perfis ativos baseados em classe que são determinados com base nas características generalizadas da impressão digital e desse modo não exigem uma identificação positiva de um usuário associado à impressão digital.
[000462] Por exemplo, se a impressão digital 1702 for detectada (Figura 17A), o dispositivo seleciona um perfil baseado em classe "Adultos" sem associação a se a impressão digital 1702 é compatível com uma impressão digital anteriormente registrada (por exemplo, o perfil baseado em classe "Adultos" é selecionado com base em um tamanho da impressão digital sem precisar identificar o usuário tornando compatível o padrão da impressão digital com um padrão de impressão digital conhecido associado ao usuário). Se impressão digital 1706 for detectada (Figura 17B), o dispositivo seleciona um perfil "Crianças" baseado em classe sem associação a se a impressão digital 1706 é compatível com uma impressão digital anteriormente registrada (por exemplo, o perfil "Crianças" baseado em classe é selecionado com base em um tamanho da impressão digital sem precisar identificar o usuário tornando compatível o padrão da impressão digital a um padrão de impressão digital conhecido associado ao usuário).
[000463] Em algumas modalidades, o primeiro perfil baseado em classe é selecionado (1808) de acordo com um tamanho detectado da primeira impressão digital. Por exemplo, se a primeira impressão digital detectada estiver abaixo de um limiar de tamanho pré-definido (por exemplo, tamanho médio de recurso, diâmetro máximo, etc.), então a primeira impressão digital é classificada como impressão digital de uma criança e um perfil genérico de criança é selecionado como um perfil ativo para o dispositivo. Desse modo, em algumas modalidades, a primeira impressão digital é determinada a ser uma criança impressão digital tanto com base em identificação da primeira impressão digi tal como pertencendo a um usuário que está abaixo de uma idade pré- definida (por exemplo, 12 anos de idade) como com base em uma determinação de que a primeira impressão digital tem características de impressão digital que são características de impressão digital típicas de uma criança e desse modo é mais propensa à impressão digital de uma criança, mesmo se a impressão digital não tenha sido registrada como pertencendo a uma criança particular. Por exemplo, o perfil "Adultos" é selecionado para impressão digital 1702, e o perfil "Crianças" é selecionado para impressão digital 1706, que é menor do que impressão digital 1702.
[000464] Em algumas modalidades, o primeiro perfil baseado em classe restringe (1810) a operação do dispositivo para membros da primeira classe. Por exemplo, quando um perfil específico de criança é um perfil ativo, o dispositivo limita o acesso às definições particulares, aplicativos, informações que são inapropriadas (por exemplo, violentas ou de outro modo restritas) ou sensíveis (por exemplo, senhas, informações financeiras, definições de conta, e/ou ações destrutivas de realização tal como apagar documentos e aplicativos). Por exemplo, enquanto o perfil "Crianças" está ativo, o acesso à interface de usuário de definições 1708 é restrito. Desse modo, se o ícone "definições" 1704 é ativado enquanto o perfil "Crianças" está ativo, a interface de usuário de definições 1708 (Figura 17C) não é exibida. Em vez disso, mensagem de erro 1710 é exibida, por exemplo, conforme mostrado na Figura 17D.
[000465] Em algumas modalidades, o primeiro perfil baseado em classe altera (1812) as funções do dispositivo a fim de tornar as funções mais apropriadas para membros da primeira classe. Por exemplo, quando um perfil específico de criança é um perfil ativo, o dispositivo adota programas para interação com uma criança (por exemplo, com o uso de perfis de exercício específicos de criança em vez de per fis de exercício específicos de adulto em um aplicativo de exercício ou exibição de livros de criança em vez de livros de adulto em um aplicativo e-reader). Por exemplo, enquanto o perfil "Crianças" está ativo, acesso a vídeos não adequados para crianças é restrito. Desse modo, enquanto o perfil "Crianças" está ativo, conforme mostrado na Figura 17F, a lista de vídeos 1714 na interface de usuário 1712 que lista vídeos 1714 exclui vídeos que podem não ser adequados para crianças (por exemplo, vídeos 1714-3 e 1714-4).
[000466] Em algumas modalidades, depois de detectar a primeira impressão digital no sensor de impressão digital (1814), o dispositivo determina (1816) os recursos de impressão digital da primeira impressão digital, identifica (1818) uma impressão digital anteriormente registrada compatível com recursos de impressão digital da primeira impressão digital, e seleciona (1820) um primeiro perfil específico de usuário associado à impressão digital anteriormente registrada como um perfil ativo (por exemplo, adicionalmente à seleção do primeiro perfil de usuário baseado em classe como um perfil ativo). Essas operações de análise/compatibilidade de impressão digital são opcionalmente realizadas em uma unidade central de processamento do dispositivo ou em um dispositivo de processamento seguro associado ao sensor de impressão digital. Em algumas modalidades, o dispositivo determina selecionar ou não qualquer dentre um conjunto de um ou mais perfis específicos de usuário como um perfil ativo e, opcionalmente, não seleciona qualquer um da pluralidade de perfis como um perfil ativo se nenhum dos perfis específicos de usuário for determinado a ser associado à primeira impressão digital (por exemplo, se nenhum dos perfis específicos de usuário for associado às impressões digitais anteriormente registradas que são compatíveis com a primeira impressão digital). Em algumas modalidades, se nenhum perfil específico de usuário for selecionado, um perfil padrão é utilizado em vez disso. Por exem- plo, depois de detectar impressão digital 1702 ou 1706, o dispositivo também determina se a impressão digital detectada é compatível com uma impressão digital anteriormente registrada. Se uma impressão digital anteriormente registrada for identificada para a impressão digital detectada, um perfil específico de usuário associado à impressão digital identificada anteriormente registrada é selecionado como no dispositivo, adicionalmente a quaisquer perfis baseados em classe selecionados como ativos (por exemplo, conforme mostrado nas Figuras 17J e 17K, em que uma forma de web 1734 e uma página da web 1740 são carregadas de acordo com informações específicas de usuário associadas a um perfil específico de usuário selecionado com base em uma impressão digital detectada).
[000467] O dispositivo recebe (1822) uma entrada com o respectivo elemento de entrada, em que a entrada corresponde a uma solicitação para realizar uma ou mais operações no dispositivo. Em algumas modalidades, a entrada é recebida enquanto os um ou mais perfis associados ao dispositivo são os perfis ativos (por exemplo, depois que os um ou mais perfis foram selecionados como perfis ativos). Em algumas modalidades, os um ou mais perfis são selecionados como os perfis ativos em resposta ao recebimento da entrada. Em algumas modalidades, a entrada inclui um gesto em uma superfície sensível ao toque do dispositivo. Em algumas modalidades, a entrada inclui mover o dispositivo dentro da faixa de um dispositivo de comunicação de campo próximo e receber um sinal do dispositivo de comunicação de campo próximo. A entrada pode ser, por exemplo, um gesto na superfície sensível ao toque 451 ou um clique de mouse para ativar ícone "definições" 1704 enquanto um cursor 1705 está sobre o ícone "definições" 1704, um gesto na superfície sensível ao toque 451 ou um clique de mouse para ativar a exibição de interface de usuário 1712, um gesto na superfície sensível ao toque 451 ou um clique de mouse para selecionar um vídeo 1714 para reprodução, e assim por diante. Em algumas modalidades, a entrada é um gesto de toque em uma porção de um visor de tela sensível ao toque que inclui um ícone selecionável, em que o sensor de impressão digital é integrado ao visor de tela sensível ao toque e as características da impressão digital são determinadas com base no gesto de toque. Em algumas modalidades, a entrada é uma unidade de pressão em um trackpad (por exemplo, um contato com uma intensidade acima de um limiar de intensidade de ativação ou um contato e ativação de um atuador físico embaixo do trackpad ou um botão atuador separado) enquanto um cursor está sobre o ícone selecionável em um visor.
[000468] Em resposta ao recebimento da entrada com o respectivo elemento de entrada enquanto o primeiro perfil baseado em classe é selecionado como um perfil ativo, o dispositivo realiza (1824) uma respectiva operação com base na solicitação e o primeiro perfil baseado em classe (e, opcionalmente, com base em um ou mais outros perfis ativos). Por exemplo, em resposta ao recebimento da entrada para exibir interface de usuário de definições 1708 (por exemplo, um gesto na superfície sensível ao toque para ativar ícone "definições" 1704), o dispositivo exibe interface de usuário de definições 1708 (Figura 17C) ou mensagem de erro 1710 (Figura 17D) com base em qual perfil baseado em classe está atualmente ativo (por exemplo, a interface de usuário de definições é exibida se o perfil "Adultos" estiver ativo e a mensagem de erro for exibida se o perfil "Crianças" está ativo). Como outro exemplo, em resposta ao recebimento da entrada, o dispositivo exibe uma lista completa de vídeos 1714 (Figura 17E) ou uma lista limitada de vídeos 1714 (Figura 17F) com base em qual perfil baseado em classe está atualmente ativo (por exemplo, a lista completa de vídeos é exibida se o perfil "Adultos" estiver ativo e a lista limitada de vídeos é exibida se o perfil "Crianças" estiver ativo)..
[000469] Em algumas modalidades, o primeiro perfil baseado em classe é (1826) baseado pelo menos em parte em uma idade do usuário, a solicitação inclui uma solicitação para apresentar conteúdo incluindo áudio, e a respectiva operação inclui apresentar áudio ajustado para uma idade do usuário (por exemplo, reduzir o volume máximo para uma criança e/ou mudar a frequência de áudio para baixo para um adulto mais velho). Por exemplo, na Figura 17G, ao reproduzir um vídeo 1714, em resposta ao recebimento da solicitação para reproduzir o vídeo 1714, enquanto um perfil "Crianças" está ativo, o dispositivo cobre o nível máximo de volume para o conteúdo de áudio no vídeo 1714 (por exemplo, indicado pela área 1728 na barra deslizadora de volume 1726) para ajudar a evitar danos auditivos.
[000470] Em algumas modalidades, o primeiro perfil baseado em classe é (1828) baseado pelo menos em parte em uma idade do usuário, a solicitação inclui uma solicitação para apresentar conteúdo que inclui um componente visual, e a respectiva operação inclui ajustar o componente visual da mídia de modo que seja fácil que o usuário veja o componente visual (por exemplo, aumentando o brilho de exibição ou contraste, e/ou aumentando o tamanho de fonte de texto para um adulto mais velho). Por exemplo, na Figura 171, enquanto exibe documento 1732, em resposta ao recebimento da solicitação para exibir um documento, enquanto um perfil "Crianças" ou um perfil que corresponde aos idosos está ativo, o dispositivo exibe o documento em um maior escala de ampliação ou com um maior tamanho de fonte de texto (por exemplo, o documento com texto de tamanho padrão é exibido se o perfil "Adultos" estiver ativo, conforme mostrado na Figura 17H e o documento com texto maior for exibido se o perfil "Crianças" estiver ativo, conforme mostrado na Figura 171).
[000471] Em algumas modalidades, quando (1830) o dispositivo não tem um perfil ativo que é autorizado para realizar as uma ou mais ope- rações associadas à solicitação, a respectiva operação é uma mensagem de erro (por exemplo, uma mensagem que indica que o perfil ativo não tem permissão para realizar a operação solicitada tal como acessar informações privadas ou um aplicativo seguro tal como um aplicativo bancário). Por exemplo, quando o dispositivo recebe uma solicitação para exibir interface de usuário de definições 1708 enquanto o perfil "Crianças" está ativo e perfil "Adultos" não está ativo, e desse modo, a mensagem de erro 1710 é exibida (Figura 17D).
[000472] Em algumas modalidades, em resposta ao recebimento da entrada com o respectivo elemento de entrada enquanto o primeiro perfil baseado em classe é selecionado como um perfil ativo, o dispositivo realiza (1832), conforme uma ou mais operações adicionalmente à realização da respectiva operação (por exemplo, o dispositivo realiza as operações solicitadas e personaliza as operações com base no perfil ativo, tal como alterando-se a saída do dispositivo para ser mais apropriada para a idade aproximada do usuário). Por exemplo, quando o dispositivo recebe uma solicitação para reproduzir um vídeo 1714 enquanto o perfil "Crianças" está ativo, o vídeo é reproduzido e o volume máximo é coberto, conforme descrito acima em referência à Figura 17G.
[000473] Em algumas modalidades, a solicitação para realizar uma ou mais operações inclui (1834) uma solicitação para exibir uma forma para inserir informações pessoais (por exemplo, carregar um aplicativo ou página da web que inclui formar campos para inserir informações pessoais tal como um nome de usuário, endereço, número de telefone, senha, ou informações de pagamento associadas ao primeiro perfil específico de usuário), e a respectiva operação inclui preencher automaticamente as informações pessoais na forma baseada em informações no primeiro perfil específico de usuário. Por exemplo, na Figura 17J, em resposta ao recebimento de uma solicitação para exibir forma de web 1734, o dispositivo exibe forma de web 1734 e preenche au-tomaticamente campos 1736 com informações pessoais 1738 com base em um perfil específico de usuário que está atualmente ativo.
[000474] Em algumas modalidades, a solicitação para realizar uma ou mais operações inclui (1836) uma solicitação para carregar uma página da web, e a respectiva operação inclui carregar a página da web de acordo com um cookie associado ao primeiro perfil específico de usuário. Por exemplo, na Figura 17K, em resposta ao recebimento de uma solicitação para exibir página da web 1740, o dispositivo exibe a página da web 1740 que é personalizada para um usuário que corresponde a um perfil específico de usuário que está atualmente ativo com base em um cookie associado ao perfil ativo específico de usuário. Em contraste, se um segundo perfil específico de usuário for um perfil ativo em vez de o primeiro perfil específico de usuário ser um perfil ativo, a página da web seria carregada de acordo com um cookie associado diferente ao segundo perfil específico de usuário.
[000475] Deve-se entender que a ordem particular na qual as operações nas Figuras 18A e 18B foram descritas é meramente exemplifi- cadora e não é destinada a indicar que a ordem descrita é a única ordem na qual as operações poderiam ser realizadas. Alguém de habilidade comum na técnica reconheceria várias formas para registrar as operações descritas no presente documento. Adicionalmente, deve-se observar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de maneira análoga ao método 1800 descrito acima em relação às Figuras 18A e 18B. Por exemplo, as impressões digitais, gestos, e seletor de focos descritos acima em referência ao método 1800 têm opcionalmente uma ou mais das características das impressões digitais, gestos, e seletor de focos descritos no presente docu- mento em referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questões de brevidade, esses detalhes não são repetidos aqui.
[000476] De acordo com algumas modalidades, a Figura 19 mostra um diagrama de blocos funcional de um dispositivo eletrônico 1900 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É entendido por pessoas de habilidade na técnica que os blocos funcionais descritos na Figura 19 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente suporta qualquer possível combinação ou separação ou definição adicional dos blocos funcionais descritos no presente documento.
[000477] Conforme mostrado na Figura 19, um dispositivo eletrônico 1900 inclui uma unidade de exibição 1902, uma respectiva unidade de elemento de entrada 1904 (por exemplo, uma superfície sensível ao toque, visor de tela sensível ao toque, mouse, ou outro elemento de entrada), uma unidade de sensor de impressão digital 1906, e uma unidade de processamento 1908 acoplada à unidade de exibição 1902, a respectiva unidade de elemento de entrada 1904, e a unidade de sensor de impressão digital 1906. Em algumas modalidades, a unidade de processamento 1908 inclui uma unidade de obtenção 1910, uma unidade de detecção 1912, uma unidade de seleção 1914, uma unidade de realização 1916, uma unidade de determinação 1918, uma unidade de identificação 1920, e uma unidade de habilitação de exibição 1922.
[000478] A unidade de processamento 1908 é configurada para: obter uma pluralidade de perfis (por exemplo, com a unidade de obten- ção 1910), em que a pluralidade de perfis inclui um ou mais perfis específicos de usuário e um ou mais perfis baseados em classe, distintos dos perfis específicos de usuário, em que cada um corresponde a uma respectiva classe de usuários; detectar uma primeira impressão digital na unidade de sensor de impressão digital 1906 (por exemplo, com a unidade de detecção 1912); selecionar um ou mais perfis baseados em classe associados ao dispositivo como perfis ativos que correspondem à primeira impressão digital sem associação à autenticação da primeira impressão digital como uma impressão digital anteriormente registrada (por exemplo, com a unidade de seleção 1914), que inclui, de acordo com uma determinação de que a primeira impressão digital corresponde a uma impressão digital de um usuário em uma primeira classe de usuários que é associada a um primeiro perfil baseado em classe, selecionar o primeiro perfil baseado em classe como um perfil ativo; receber uma entrada com o respectivo unidade de elemento de entrada 1904, em que a entrada corresponde a uma solicitação para realizar uma ou mais operações no dispositivo; e em resposta ao recebimento da entrada com o respectivo unidade de elemento de entrada 1904 enquanto o primeiro perfil baseado em classe é selecionado como um perfil ativo, realizar uma respectiva operação com base na solicitação e o primeiro perfil baseado em classe (por exemplo, com a unidade de realização 1916).
[000479] Em algumas modalidades, o primeiro perfil baseado em classe é selecionado de acordo com um tamanho detectado da primeira impressão digital.
[000480] Em algumas modalidades, o perfil baseado em classe restringe a operação do dispositivo para membros da classe.
[000481] Em algumas modalidades, o perfil baseado em classe altera funções do dispositivo a fim de tornar as funções mais apropriadas para membros da classe.
[000482] Em algumas modalidades, o perfil baseado em classe é baseado pelo menos em parte em uma idade do usuário, a solicitação inclui uma solicitação para apresentar conteúdo que inclui áudio, e a respectiva operação inclui apresentar áudio ajustado para uma idade do usuário.
[000483] Em algumas modalidades, o perfil baseado em classe é baseado pelo menos em parte em uma idade do usuário, a solicitação inclui uma solicitação para apresentar conteúdo que inclui um componente visual, e a respectiva operação inclui ajustar o componente visual da mídia de modo que seja fácil que o usuário veja o componente visual.
[000484] Em algumas modalidades, quando o dispositivo não tem um perfil ativo que é autorizado para realizar as uma ou mais operações associadas à solicitação, a respectiva operação é uma mensagem de erro.
[000485] Em algumas modalidades, a unidade de processamento 1908 é configurada para, em resposta ao recebimento da entrada com a respectiva unidade de elemento de entrada 1904 enquanto o primeiro perfil baseado em classe é selecionado como um perfil ativo, realizar as uma ou mais operações adicionalmente à realização da respectiva operação (por exemplo, com a unidade de realização 1916).
[000486] Em algumas modalidades, a unidade de processamento 1908 é configurada para, depois de detectar a primeira impressão digital na unidade de sensor de impressão digital 1906, determinar recursos de impressão digital da primeira impressão digital (por exemplo, com a unidade de determinação 1918), identificar uma impressão digital anteriormente registrada compatível com os recursos de impressão digital da primeira impressão digital (por exemplo, com a unidade de identificação 1920), e selecionar um primeiro perfil específico de usuário associado à impressão digital anteriormente registrada como um perfil ativo (por exemplo, com a unidade de seleção 1914).
[000487] Em algumas modalidades, a solicitação para realizar uma ou mais operações inclui uma solicitação para habilitar a exibição de uma forma para inserir informações pessoais (por exemplo, com a unidade de habilitação de exibição 1922), e a respectiva operação inclui preencher automaticamente as informações pessoais na forma baseada em informações no primeiro perfil específico de usuário.
[000488] Em algumas modalidades, a solicitação para realizar uma ou mais operações inclui uma solicitação para carregar uma página da web, e a respectiva operação inclui carregar a página da web de acordo com um cookie associado ao primeiro perfil específico de usuário.
[000489] As operações nos métodos de processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais em aparelho de processamento de informações tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000490] As operações descritas acima em referência às Figuras 18A e 18B são, opcionalmente, implantadas por componentes retratados nas Figuras 1A e 1B ou na Figura 19. Por exemplo, operação de detecção 1804, operação de seleção 1806, operação de recebimento 1822, e operação de realização 1824 são, opcionalmente, implantadas pelo classificador de eventos 170, reconhecedor de evento 180 e manipulador de evento 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento às respectivas definições de evento 186, e determina se um primeiro contato em um primeiro local na superfície sensível ao toque corresponde a um even- to pré-definido ou subevento, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento pré- definido é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190 opcionalmente utiliza ou convoca o atuali- zador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, seria claro a uma pessoa que tem habilidade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A e 1B. Alteração de Preferências de registro de dados Baseadas em Impressões digitais
[000491] Muitos dispositivos eletrônicos registram atividade de usuário em uma variedade de formas. Por exemplo, alguns dispositivos registram a atividade tal como histórico de navegação de internet e/ou histórico de telefone. Como outro exemplo, alguns dispositivos registram palavras frequentemente utilizadas que, apesar de não corresponder às palavras em um dicionário padrão, são, todavia, frequentemente utilizadas pelo usuário (por exemplo, a palavra "Vladivostok" pode não aparecer em um dicionário de dispositivo padrão, mas será automaticamente adicionada se um usuário de Vladivostok, Rússia digitar os caracteres "Vladivostok" em uma mensagem de texto um determinado número de vezes). Como ainda outro exemplo, alguns dispositivos começam a atividade de registro (por exemplo, atividade de um sistema de posicionamento global, ou "GPS") quando o dispositivo é determinado como perdido ou roubado (por exemplo, na solicitação do usuário através de um aplicativo de recuperação). No entanto, muitos dispositivos (por exemplo, dispositivos portáteis de múltiplas funções) não oferecem formas convenientes de alterar as preferências de registro de dados. Por exemplo, quando um usuário empresta seu dispositivo a outro usuário, o dispositivo continuará a registar histórico de navegação indesejado, histórico de telefone, e entradas de autocor- reção a menos que a ação seja tomada (por exemplo, alterar definições em um menu de definições) antes do uso de outro usuário do dispositivo. Como outro exemplo, tais dispositivos frequentemente renunciarão dados de recuperação de registro (por exemplo, dados de GPS) a menos que o usuário tenha ativado remotamente ativado um recurso de registro (por exemplo, enviando um serviço de mensagem curta apropriada, ou mensagem de "SMS", ao dispositivo que ativa as operações de registro de dados, incluindo-se, por exemplo, o texto "Encontre meu telefone").
[000492] Nas modalidades descritas abaixo, um método aprimorado para alterar as preferências de registro de dados é alcançado detectando-se uma impressão digital e determinando-se se a impressão digital corresponde a um perfil do usuário conhecido. Quando é, o perfil do usuário é estabelecido como um perfil ativo e um conjunto de operações (por exemplo, incluindo operações de registro de dados) é realizado de acordo com o perfil ativo. Quando a impressão digital não corresponde a um usuário conhecido, o perfil ativo é estabelecido a um perfil padrão (por exemplo, um perfil de convidado) e um grupo diferente de operações é realizado. Esse método simplifica o processo de alterar as preferências de registro de dados.
[000493] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo portátil de múltiplas funções 100, o visor é tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo em referência a 20A a 20F e 21A e 21B inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, os um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrado 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, os um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A menos que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, tanto um sensor de impressão digital integrado 359-1 como um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Por conveniência de explicação, as modalidades descritas em referência às Figuras 20A a 20F e 21A e 21B serão discutidas em referência às operações de dispositivo que são realizadas em resposta à detecção de entradas descritas nas Figuras 20A a 20F em uma tela sensível ao toque 112 e/ou um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) enquanto exibe a interfaces de usuário mostrada nas Figuras 20A a 20F na tela sensível ao toque 112. No entanto, operações análogas são, opcionalmente, realizadas em um dispositivo com um visor 450, uma super-fície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2 com um sensor de impressão digital integrado 359-1 em resposta à detecção das entradas descritas nas Figuras 20A a 20F no sensor de impressão digital integrado 359-1 enquanto exibe a interfaces de usuário mostrada nas Figuras 20A a 20F no visor 450. Em algumas modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo correspondente a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor. Em algumas modalidades, uma representação visual do seletor de foco é exibida (por exemplo, um objeto de interface de usuário no qual o seletor de foco aponta é visualmente distinguido dos outros objetos de interface de usuário).
[000494] As Figuras 20A a 20D ilustram um exemplo de algumas modalidades nas quais um dispositivo determina que uma impressão digital submetida à varredura seja associada a um perfil do usuário.
[000495] As Figuras 20A ilustra uma interface de usuário exemplifi- cadora implantada em um dispositivo que altera as preferências de registro de dados com base em impressões digitais. Na Figura 20A, o dispositivo é travado, significando que pelo menos alguma funcionalidade do dispositivo está indisponível até que o dispositivo seja destravado por um usuário (por exemplo, funcionalidade de telefone, aplicativos, fotos, etc.). Nesse exemplo, o dispositivo caracteriza um botão de início 204 que inclui um sensor de impressão digital integrado 169.
[000496] A Figura 20B, uma impressão digital 2006 é detectada no sensor de impressão digital 169. Nesse exemplo, a detecção de uma impressão digital que é reconhecida pelo dispositivo destrava o dispositivo. Em algumas modalidades, conforme explicado abaixo, quando uma impressão digital não reconhecida é detectada, o dispositivo des-trava a um padrão ou perfil de convidado. Nesse exemplo, uma indicação visual 2004 é fornecida para indicar que o dispositivo varre uma impressão digital e destrava o dispositivo. Em algumas modalidades, no entanto, o dispositivo precisa ser destravado separadamente (por exemplo, através de um gesto tal como passe para destravar, inserin- do-se uma senha, alguma combinação dos mesmos, ou através de funcionalidade de destravamento diferente). Em algumas modalidades, o dispositivo pode ser destravado por diversos usuários, em que cada usuário tem um perfil de usuário exclusivo. Quando o dispositivo é destravado em virtude de uma impressão digital que é reconhecida como pertencente a um respectivo usuário exclusivo associado a um perfil de usuário exclusivo, o perfil do usuário é estabelecido como um perfil ativo, conforme explicado abaixo.
[000497] Conforme mostrado no exemplo ilustrado na Figura 20C, o dispositivo determinou que a impressão digital é associada a um usuário John, destravou o dispositivo e estabeleceu o perfil de John como o perfil ativo. Em algumas modalidades, o perfil de usuário armazena informações (por exemplo, em um ou mais bancos de dados) como às preferências do usuário, definições, histórico de navegação, histórico de telefone e similares. Em algumas modalidades, quando o dispositivo determina que a impressão digital submetida à varredura 2006 pertence a John, o dispositivo recupera as preferências, definições, histórico de John e similares dos bancos de dados da memória e altera o comportamento de dispositivo de acordo. A título de exemplo, a Figura 20C ilustra uma entrada (por exemplo, contato 2008) correspondente à seleção de um aplicativo de telefone para realizar chamadas telefônicas. O dispositivo responde carregando-se o aplicativo de telefone, conforme mostrado na Figura 20D. Devido ao fato de que o perfil de John é o perfil ativo, uma lista de conversações telefônicas recentes de John (por exemplo, objetos de interface de usuário 2009 que representam conversação telefônica) é exibida para facilitar chamada de retorno conveniente e a capacidade de discar números frequentemente discados com facilidade.
[000498] Em algumas modalidades, o dispositivo armazena múltiplos perfis de usuário. Por exemplo, quando o dispositivo varre uma im- pressão digital e determina que a mesma é associada a uma usuária Jane, que também tem um perfil de usuário no dispositivo, o dispositivo carrega o perfil de Jane. A título de exemplo, conversações telefônicas recentes de Jane estão disponíveis a Jane em vez de John quando o aplicativo de telefone é selecionado.
[000499] Em algumas modalidades, conforme ilustrado nas Figuras 20A e 20B e na Figura 20E a 20F, o dispositivo altera seu comportamento quando uma impressão digital é submetida à varredura e o dispositivo determina que a impressão digital não corresponde a um usuário com um perfil de usuário. As Figuras 20A e 20B já foram descritas em referência ao exemplo anterior, com a diferença de que, nesse exemplo, a impressão digital 2006 não é associada a um perfil do usuário. Desse modo, conforme mostrado na Figura 20E, o dispositivo recepciona o usuário como um "Usuário Convidado", que indica que um perfil convidado ou padrão foi estabelecido como o perfil ativo. As Figuras 20E a 20F oferecem um exemplo de como, em algumas modalidades, o dispositivo altera sua funcionalidade de acordo com um padrão ou perfil de convidado que é estabelecido como o perfil ativo. A Figura 20E ilustra detecção de uma entrada (por exemplo, um contato 2010) correspondente à seleção do aplicativo de telefone. Em contraste à Figura 20D, na qual conversações telefônicas recentes de um usuário ativo foram mostradas, o dispositivo na Figura 20F exibe uma interface de teclado numérico para o telefone com nenhuma conversação recente listada. Desse modo, um usuário não autorizado é proibido de visualizar ou discar contatos frequentes de um usuário autorizado. Deve-se apreciar que a presente revelação é destinada a suportar uma ampla faixa de diferenças in funcionalidade entre um perfil do usuário identificado e um padrão perfil do usuário. Algumas tais diferenças opcionais na funcionalidade do dispositivo são descritas em referência ao método 2100 descrito em referência às Figuras 21A e 21B.
[000500] As Figuras 21A e 21B são diagramas de fluxo que ilustram um método 2100 de alteração de preferências de registro de dados de acordo com algumas modalidades. O método 2100 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou dispositivo portátil de múltiplas funções 100, a Figura 1A) com um sensor de impressão digital e um ou mais elementos de entrada, incluindo um respectivo elemento de entrada. Em algumas modalidades, o dispositivo inclui um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque é no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Em algumas modalidades, a superfície sensível ao toque é o respectivo elemento de entrada e/ou o sensor de impressão digital. Algumas operações no método 2100 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000501] Conforme descrito abaixo, o método 2100 fornece um modo intuitivo para alterar as preferências de registro de dados. O método reduz a carga cognitiva em um usuário ao alterar as preferências de registro de dados, criando assim uma interface humano-máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a alterar preferências de registro de dados mais rapidamente e de forma mais eficiente conserva potência e aumenta o tempo entre cargas de bateria.
[000502] Um dispositivo com um respectivo elemento de entrada (por exemplo, uma superfície sensível ao toque, um botão ou um teclado) e um sensor de impressão digital detecta (2102) uma primeira impressão digital no sensor de impressão digital.
[000503] O dispositivo determina (2104) se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo. Em algumas modalidades, o perfil de usuário é um perfil de um con- junto de um ou mais perfis específicos de usuário, perfis genéricos e outros perfis não padrão, associados ao dispositivo, que não são o perfil padrão. Em algumas modalidades, depois de detectar a primeira impressão digital no sensor de impressão digital e antes de determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo, o dispositivo determina os recursos de impressão digital da primeira impressão digital e identifica uma impressão digital anteriormente registrada, se houver, que é compatível com os recursos de impressão digital da primeira impressão digital ou é associada aos mesmos. Quando a primeira impressão digital cor-responde a uma respectiva impressão digital anteriormente registrada associada a um perfil não padrão, o dispositivo determina que a impressão digital é associada ao respectivo perfil não padrão. Em contraste, quando a primeira impressão digital não corresponde a uma impressão digital anteriormente registrada associada a um perfil não padrão, o dispositivo determina que a impressão digital não é associada a qualquer um dos perfis não padrão. Essas operações de análi- se/compatibilidade de impressão digital são opcionalmente realizadas em uma unidade central de processamento do dispositivo, enquanto em outras implantações, as operações de análise/compatibilidade de impressão digital são realizadas em um dispositivo de processamento seguro associado ao sensor de impressão digital. Essas operações de análise/compatibilidade de impressão digital são opcionalmente realizadas um tempo especificado (por exemplo, ao destravar o dispositivo, conforme descrito em referência às Figuras 20A a 20C). Em algumas modalidades, a análise e compatibilidade de impressão digital são realizadas sempre que uma impressão digital for detectada e compatível com um perfil na impressão digital (por exemplo, o dispositivo quase constantemente tenta determinar o usuário).
[000504] Após determinar se a primeira impressão digital é associa- da a um perfil de usuário associado ao dispositivo, e de acordo com uma determinação de que a primeira impressão digital é associada a um respectivo perfil de usuário associado ao dispositivo, o dispositivo estabelece (2106) o respectivo perfil de usuário como um perfil ativo. Em algumas modalidades, somente um perfil de usuário pode ser um perfil ativo em um tempo. Em algumas modalidades, múltiplos perfis de usuário podem ser perfis ativos ao mesmo tempo. Por exemplo, um perfil específico de usuário e um ou mais perfis genéricos são, opcionalmente, selecionados como perfis ativos ao mesmo tempo e as definições e outras características associadas a múltiplos perfis ativos são utilizadas pelo dispositivo para interpretar entradas recebidas pelo dispositivo. Conforme discutido anteriormente, as Figuras 20C a 20D ilustram um exemplo no qual o dispositivo é estabelecido a um único perfil do usuário (por exemplo, um perfil de usuário que pertence a John).
[000505] Adicionalmente, depois de determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo, e de acordo com uma determinação de que a primeira impressão digital não é associada a qualquer perfil de usuário associado ao dispositivo, o dispositivo estabelece um perfil padrão como um perfil ativo. Em algumas modalidades, quando o perfil padrão é um perfil ativo, o mesmo é somente perfil ativo (por exemplo, qualquer outro perfil sobrepõe o perfil padrão). Conforme discutido anteriormente, as Figuras 20E a 20F ilustram um exemplo no qual o dispositivo é estabelecido a um perfil padrão ou convidado.
[000506] O dispositivo recebe (2108) uma entrada com o respectivo elemento de entrada, em que a entrada corresponde a uma solicitação para realizar uma operação solicitada. Em algumas modalidades, a entrada é recebida enquanto o respectivo perfil de usuário ou o perfil padrão é um perfil ativo (por exemplo, depois que o respectivo perfil de usuário ou o perfil padrão foi selecionado como o perfil ativo). Em al- gumas modalidades, o dispositivo determina selecionar ou não o respectivo perfil de usuário ou o perfil padrão como o perfil ativo em resposta ao recebimento da entrada.
[000507] Em resposta ao recebimento da entrada com o respectivo elemento de entrada, de acordo com uma determinação de que o respectivo perfil de usuário é o perfil ativo, o dispositivo realiza (2110) um primeiro conjunto de uma ou mais operações associadas à operação solicitada de acordo com preferências de registro de dados do respectivo perfil de usuário. Também em resposta ao recebimento da entrada com o respectivo elemento de entrada, de acordo com uma determinação de que o perfil padrão é o perfil ativo, o dispositivo realiza um segundo conjunto de operações associadas à operação solicitada de acordo com preferências de registro de dados do perfil padrão. Em algumas modalidades, as preferências de registro de dados de um perfil correspondem às instruções que indicam quais atividades que são realizadas no dispositivo são a serem registradas ou de outro modo gravadas pelo dispositivo. Por exemplo, preferências de registro de dados de um primeiro usuário indicam que o histórico de navegação deve ser rastreado e informações de estado de aplicativo (por exemplo, abas abertas de navegador da web) deve ser salvas, enquanto as preferências de registro de dados de padrão indicam que o histórico de navegação não deve ser rastreado e que as informações de estado de aplicativo não devem ser salvas (por exemplo, abas abertas de navegador da web devem ser fechadas quando o navegador da web deixa de ser o aplicativo ativo).
[000508] Em algumas modalidades, a realização do primeiro conjunto de operações inclui (2112) operações de registro de dados de um primeiro tipo de operação realizado no dispositivo, e realização do segundo conjunto de operações inclui renunciar operações de registro de dados do primeiro tipo de operação realizada no dispositivo que teria sido registrada de acordo com preferências de registro de dados do respectivo perfil de usuário. Desse modo, em algumas modalidades, o dispositivo não registra determinadas atividades de usuários temporá- rios/não autorizados (por exemplo, a fim de evitar misturar um histórico de navegação ou registro de chamada recente do usuário com atividades de usuários temporários/não autorizados do dispositivo).
[000509] Em algumas modalidades, o primeiro tipo de operações inclui (2114) operações que são usadas pelo dispositivo para personalizar a operação do dispositivo com base em padrões de uso histórico do dispositivo (por exemplo, por um usuário primário). Por exemplo, quando o dispositivo determina que um usuário temporário/não autorizado usa o dispositivo, o dispositivo interrompe a personalização de um ou mais dentre: sugestões de autocorreção, histórico de busca, sugestões de busca, histórico de navegação, informações de login de nome de usuário/senha, aplicativos recentemente usados, números de telefone recentemente discados, marcadores de leitura/não leitura para notificações de leitura/não leitura de e-mail para o dispositivo até que um usuário autorizado comece a usar o dispositivo novamente. Em algumas modalidades, depois que o usuário autorizado começa a usar o dispositivo novamente, o dispositivo começa a registrar o primeiro tipo de operações novamente. Desse modo, em algumas modalidades, para um dispositivo com um único usuário primário autorizado, as personalizações "aprendidas" do dispositivo que são determinadas com base em padrões de uso do usuário autorizado não são perturbadas se o usuário entrega o dispositivo a um usuário temporário/não autorizado tal como um amigo ou membro da família do usuário autorizado. Preferencialmente, enquanto o dispositivo realiza as operações solicitadas pelo usuário temporário/não autorizado, o dispositivo ignora essas entradas para o propósito de personalizar o comportamento do dispositivo de acordo com padrões de uso histórico.
[000510] Em algumas modalidades, a realização do segundo conjunto de operações inclui (2116) operações de registro de dados de um segundo tipo de operação realizada no dispositivo, e realização do primeiro conjunto de operações inclui renunciar operações de registro de dados do segundo tipo de operação realizado no dispositivo que teriam sido registradas de acordo com preferências de registro de dados do perfil de usuário padrão. Desse modo, em algumas modalidades, quando um usuário não autorizado usa um dispositivo, atividades do usuário não autorizado são atentamente monitoradas pelo dispositivo. No entanto, quando o usuário autorizado usa o dispositivo (por exemplo, conforme determinado pelas impressões digitais do usuário autorizado que é detectado no sensor de impressão digital), esses dados não são armazenados de modo a não atrapalhar desnecessariamente as atividades do usuário autorizado.
[000511] Em algumas modalidades, o segundo tipo de operação inclui (2118) operações que auxiliam na realização de operações forenses associadas a um dispositivo perdido ou roubado (por exemplo, informações de local de registro, atividade de rede, histórico de navegação, uso de aplicativo, acesso a informações privadas tal como informações de conta de banco, e-mail, correio de voz, etc.). Desse modo, em algumas modalidades, se o dispositivo determina que um usuário não autorizado usa o dispositivo, o dispositivo opcionalmente começa a rastrear operações realizadas pelo usuário não autorizado de modo que o usuário autorizado possa ser posteriormente informado das ações do usuário não autorizado que podem ter informações sensíveis comprometidas tal como detalhes financeiros, e-mails pessoais, e similares.
[000512] Em algumas modalidades, o segundo tipo de operação inclui (2120) operações que auxiliam na localização do dispositivo (por exemplo, informações de local de registro identificados de um GPS, WiFi ou outras fontes). Desse modo, em algumas modalidades, se o dispositivo determina que um usuário não autorizado usa o dispositivo, o dispositivo opcionalmente começa a rastrear o dispositivo para auxiliar na recuperação do dispositivo.
[000513] Em algumas modalidades, o dispositivo envia (por exemplo, periodicamente) a um servidor remoto um registro de protocolo que inclui uma representação das operações de registro de dados do segundo tipo de operação. Em algumas modalidades, o registro de protocolo é acessível (somente) a um dono do dispositivo e pode ser usada pelo dono para ajudar a identificar um local do dispositivo a fim de auxiliar na recuperação do dispositivo. Adicionalmente, em algumas situações, as gravações de registro fornecem informações que auxiliam na determinação da identificação do usuário não autorizado do dispositivo, tal como histórico de chamada, histórico de navegação da web, dados de local, e/ou uma gravação de impressões digitais detectadas no sensor de impressão digital.
[000514] Deve-se entender que a ordem particular na qual as operações nas Figuras 21A e 21B foram descritas é meramente exemplifi- cadora e não é destinada a indicar que a ordem descrita é a única ordem na qual as operações poderiam ser realizadas. Alguém de habilidade comum na técnica reconheceria várias formas de reordenar as operações descritas no presente documento. Adicionalmente, deve-se observar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de maneira análoga ao método 2100 descrito acima em relação às Figuras 21A e 21B. Por exemplo, as impressões digitais, contatos, gestos, e objetos de interface de usuário, descritos acima em referência ao método 2100 têm opcionalmente um ou mais das características das impressões digitais, contatos, gestos, e objetos de interface de usuário, descritos no presente documento em referência a ou- tros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questões de brevidade, esses detalhes não são repetidos aqui.
[000515] De acordo com algumas modalidades, a Figura 22 mostra um diagrama de blocos funcional de um dispositivo eletrônico 2200 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É entendido por pessoas de habilidade na técnica que os blocos funcionais descritos na Figura 22 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento suporta opcionalmente qualquer possível combinação ou separação ou definição adicional dos blocos funcionais descritos no presente documento.
[000516] Conforme mostrado na Figura 22, um dispositivo eletrônico 2200 inclui uma unidade de sensor de impressão digital 2202; uma unidade de entrada 2204; e uma unidade de processamento 2208 acoplada à unidade de sensor de impressão digital 2202 e a unidade de entrada 2204. O dispositivo eletrônico 2200 inclui opcionalmente uma unidade de exibição 2206 configurada para habilitar a exibição de uma ou mais interfaces de usuário e/ou um ou mais objetos de interface de usuário. Em algumas modalidades, a unidade de processamento 2208 inclui uma unidade de detecção 2210, uma unidade de determinação de impressão digital 2212, uma ou mais respectivas unidades de realização de operação 2214. Em algumas modalidades, uma ou mais das respectivas unidades de realização de operação 2214 incluem uma ou mais unidades de operação de registro de dados 2216 (por exemplo, uma unidade de registro de dados de GPS, uma unidade de registro de dados de histórico de navegação, etc.).
[000517] A unidade de processamento 2208 é configurada para: detectar uma primeira impressão digital na unidade de sensor de impressão digital 2212 e determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo. Depois de determinar se a primeira impressão digital é associada a um perfil de usuário associado ao dispositivo, e de acordo com uma determinação de que a primeira impressão digital é associada a um respectivo perfil de usuário associado ao dispositivo, a unidade de processamento 2208 é configurada para estabelecer o respectivo perfil de usuário como um perfil ativo; e, de acordo com uma determinação de que a primeira impressão digital não é associada a qualquer perfil de usuário associado ao dispositivo, a unidade de processamento 2208 é configurada para estabelecer um perfil padrão como um perfil ativo. Em resposta ao re-cebimento da entrada com a respectiva unidade de entrada 2204, e de acordo com uma determinação de que o respectivo perfil de usuário é o perfil ativo, a unidade de processamento 2208 é configurada para realizar um primeiro conjunto de uma ou mais operações associadas à operação solicitada de acordo com preferências de registro de dados do respectivo perfil de usuário; e de acordo com uma determinação de que o perfil padrão é o perfil ativo, a unidade de processamento 2208 é configurada para realizar um segundo conjunto de operações associado à operação solicitada de acordo com preferências de registro de dados do perfil padrão.
[000518] Em algumas modalidades, a realização do primeiro conjunto de operações inclui operações de registro de dados (por exemplo, realizadas com uma unidade de operação de registro de dados 2216) de um primeiro tipo de operação realizada no dispositivo; e a realização do segundo conjunto de operações inclui renunciar operações de registro de dados do primeiro tipo de operação realizadas no dispositivo que teriam sido registradas de acordo com preferências de registro de dados do respectivo perfil de usuário.
[000519] Em algumas modalidades, o primeiro tipo de operações inclui operações que são usadas pelo dispositivo para personalizar a operação do dispositivo com base em padrões de uso histórico do dispositivo.
[000520] Em algumas modalidades, a realização do segundo conjunto de operações inclui operações de registro de dados de um segundo tipo de operação realizada no dispositivo (por exemplo, realizada com a mesma unidade de operações de registro de dados 2216 ou, alternativamente, uma unidade de operações de registro de dados 2216 diferente da unidade de operações de registro de dados 2216 usada para operações de registro de dados do primeiro conjunto de operações); e realização do primeiro conjunto de operações inclui renunciar operações de registro de dados do segundo tipo de operação realizadas no dispositivo que teriam sido registradas de acordo com preferências de registro de dados do perfil de usuário padrão.
[000521] Em algumas modalidades, o segundo tipo de operação inclui operações que auxiliam na realização de operações forenses associadas a um dispositivo perdido ou roubado (por exemplo, com uma unidade de registro de dados de GPS).
[000522] Em algumas modalidades, o segundo tipo de operação inclui operações que auxiliam na localização do dispositivo (por exemplo, com uma unidade de registro de dados de GPS).
[000523] Em algumas modalidades, a unidade de processamento 2208 é adicionalmente configurada para enviar a um servidor remoto um registro de protocolo que inclui uma representação das operações de registro de dados do segundo tipo de operação.
[000524] As operações nos métodos de processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de infor- mações tal como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos de aplicativo.
[000525] As operações descritas acima em referência às Figuras 21A e 21B são, opcionalmente, implantadas por componentes retratados nas Figuras 1A e 1B ou na Figura 22. Por exemplo, operação de detecção 2102, operação de determinação de edição 2104, e operação de definição 2106 são, opcionalmente, implantadas pelo classificador de eventos 170, reconhecedor de evento 180, e manipulador de evento 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e módulo despachante de eventos 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento às respectivas definições de evento 186, e determina se um primeiro contato em um primeiro local na superfície sensível ao toque corresponde a um evento predefinido ou subevento, tal como seleção de um objeto em uma interface de usuário. Quando um respectivo evento predefinido ou subevento é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190 utiliza ou convoca opcionalmente o atualizador de dados 176 ou o atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, seria claro a uma pessoa que tem habilidade comum na técnica como os outros processos po-dem ser implantados com base nos componentes retratados nas Figuras 1A e 1B. Realização de uma Respectiva Operação restrita Baseada em Informações de verificação de Impressão Digital
[000526] Muitos dispositivos eletrônicos são habilitados a realizar uma operação restrita em resposta a uma inserção pelo usuário de uma credencial de autorização válida (por exemplo, uma senha ou um padrão de passagem). Tais dispositivos, no entanto, se baseiam na operação restrita que compara uma credencial de autorização anteriormente armazenada com a credencial de autorização inserida de modo a validar a credencial de autorização inserida. O dispositivo descrito abaixo se aprimora em métodos existentes gerando-se informações de verificação de impressão digital (por exemplo, indicativos de uma "sem compatibilidade" uma "compatibilidade fraca" ou uma "compatibilidade forte") para uma respectiva impressão digital de acordo com os critérios de verificação de impressão digital de nível de sistema. Por sua vez, o dispositivo utiliza as informações de verificação de impressão digital pré-computadorizadas para determinar se realizar ou não a operação restrita.
[000527] O dispositivo obtém os critérios de verificação de impressão digital (por exemplo, indicando como muitos pontos de minúcia verificados, uma impressão digital precisa ser atribuída a um respectivo nível de confiança) para controlar a verificação de impressões digitais. Então, o dispositivo determina informações de verificação de impressão digital para uma respectiva entrada correspondente a uma respectiva operação restrita com base pelo menos em parte em: uma comparação entre impressão digital identificada recursos da respectiva entrada e recursos de impressão digital de uma ou mais impressões digitais anteriormente registradas; e os critérios de verificação de impressão digital. O dispositivo somente realiza a respectiva operação restrita de acordo com uma determinação de que a informações de verificação de impressão digital atende os critérios de autorização específicos de operação- (ou específicos de aplicativo) para a respectiva operação restrita.
[000528] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é o dispositivo portátil de múltiplas funções 100, o visor é a tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo em referência às Figuras 23A a 23G e 24A a 24D inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, os um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrado 359-1 (Figura 4B) que são integrados à superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, os um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). A menos que especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, tanto um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Por conveniência de explicação, as modalidades descritas em referência às Figuras 23A a 23G e 24A a 24D serão discutidas em referência à tela sensível ao toque 112 e sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2); em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor. Operações análogas são, opcionalmente, realizadas em um dispositivo com visor 450, uma superfície sensível ao toque separada 451, e um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 em resposta à detecção das entradas descritas nas Figuras 23A a 23G no sensor de impressão digital integrado 359-1 ou sensor de impressão digital separado 359-2, enquanto exibe as interfaces de usuário mostradas nas Figuras 23A a 23G no visor 450.
[000529] A Figura 23A ilustra o dispositivo portátil de múltiplas funções 100 que exibe uma interface de usuário 400 na tela sensível ao toque 112 com uma pluralidade de aplicativos que inclui aplicativo de jogo 2310 e aplicativo bancário 2312. A Figura 23A ilustra ainda o botão de início 204 com sensor de impressão digital 169 (por exemplo, sensor de impressão digital separado 359-2) integrado ao botão de início 204. Alternativa ou adicionalmente, em algumas modalidades, um sensor de impressão digital é integrado a pelo menos uma porção de tela sensível ao toque 112 (por exemplo, sensor de impressão digi-tal integrado 359-1).
[000530] A Figura 23B ilustra o dispositivo portátil de múltiplas funções 100 que detecta uma entrada de usuário 2302 no aplicativo bancário 2312 de interface de usuário 400 na tela sensível ao toque 112. A entrada de usuário 2302, por exemplo, é um dedo indicador direito do usuário. O acesso ao aplicativo bancário 2312, por exemplo, é uma operação restrita.
[000531] Em algumas modalidades, o dispositivo portátil de múltiplas funções 100 identifica recursos de impressão digital de entrada de usuário 2302 enquanto a entrada de usuário 2302 está sobre o aplicativo bancário 2312 na tela sensível ao toque 112 por meio de um sensor de impressão digital integrado a pelo menos uma porção de tela sensível ao toque 112 (por exemplo, sensor de impressão digital integrado 359-1). O dispositivo portátil de múltiplas funções 100, por exemplo, identifica pontos de minúcia de entrada de usuário 2302, que inclui terminações de impressão digital, bifurcações de crista de impressão digital e curtas cristas de impressão digital. Ademais, o dispositivo portátil de múltiplas funções 100 determina informações de verificação de impressão digital para a respectiva entrada de usuário 2302 com base pelo menos em parte em: uma comparação entre os recursos de impressão digital da entrada de usuário 2302 e recursos de impressão digital de uma ou mais impressões digitais anteriormente re-gistradas; e critérios de verificação de impressão digital.
[000532] Em algumas modalidades, os critérios de verificação de impressão digital especificam uma pluralidade de classificações (ou valores de confiança) para uma impressão digital detectada com base em uma porcentagem de pontos de minúcia compatíveis em relação a uma ou mais impressões digitais anteriormente registradas. Por exemplo, a entrada de usuário 2302 é classificada em uma de três classificações (ou valores de confiança) de acordo com os critérios de verificação de impressão digital. Nesse exemplo, as informações de verificação de impressão digital indicam que a entrada de usuário 2302 é uma "sem compatibilidade" se 30% ou menos da compatibilidade de pontos de minúcia da impressão digital detectada, uma "compatibilidade fraca" se mais do que 30% e menos do que 70% da compatibilidade de pontos de minúcia da impressão digital detectada, ou uma "compatibilidade forte" se mais do que 70% da compatibilidade de pontos de minúcia da impressão digital detectada. Em algumas modalidades, um usuário é habilitado a modificar os critérios de verificação de impressão digital, por exemplo, modificando-se uma ou mais dos valores de porcentagem acima relacionados a uma respectiva uma das três classificações.
[000533] Em algumas modalidades, o dispositivo portátil de múltiplas funções 100 não é configurado para identificar recursos de impressão digital de entrada de usuário 2302 enquanto a entrada de usuário 2302 está na tela sensível ao toque 112. Em outras palavras, o dispositivo portátil de múltiplas funções 100 não tem um sensor de impressão digital integrado à tela sensível ao toque 112 (por exemplo, sensor de impressão digital integrado 359-1). Em resposta à detecção de entrada de usuário 2302 sobre o aplicativo bancário 2312 (por exemplo, uma operação restrita) na tela sensível ao toque 112, o dispositivo portátil de múltiplas funções 100 avisa o usuário para fornecer uma impressão digital em um sensor de impressão digital dedicado 169 (por exemplo, sensor de impressão digital separado 359-2) integrado com botão de início 204.
[000534] A Figura 23C ilustra o dispositivo portátil de múltiplas funções 100 que avisam o usuário para fornecer uma impressão digital no sensor de impressão digital dedicado 169 integrado ao botão de início 204, em resposta à detecção de entrada 2302 no aplicativo bancário 2312 (por exemplo, uma operação restrita) na tela sensível ao toque 112 na Figura 23B. A Figura 23C ilustra a caixa de texto 2304 exibida na interface de usuário 400 de tela sensível ao toque 112 que indica que essa impressão digital identificação é exigida para acesso ao aplicativo bancário 2312.
[000535] A Figura 23D ilustra o dispositivo portátil de múltiplas funções 100 que detecta uma entrada de usuário 2306 no sensor de impressão digital 169 integrado ao botão de início 204, em resposta ao aviso na Figura 23C. A Entrada de usuário 2306, por exemplo, é um dedo indicador direito do usuário. O sensor de impressão digital 169 identifica recursos de impressão digital de entrada de usuário 2306 e determina informações de verificação de impressão digital para a respectiva entrada com base pelo menos em parte em: uma comparação entre os recursos de impressão digital da respectiva entrada 2306 e recursos de impressão digital de uma ou mais impressões digitais anteriormente registradas; e critérios de verificação de impressão digital.
[000536] A Figura 23E ilustra a caixa de texto 2308 exibida na interface de usuário 400 da tela sensível ao toque 112 que indica que o dispositivo renuncia a realização de uma respectiva operação restrita (por exemplo, negar acesso ao aplicativo bancário 2312), em resposta à detecção de entrada de usuário 2302 na Figura 23B, ou entrada de usuário 2306 na Figura 23D, e de acordo com uma determinação de que as respectivas informações de verificação de impressão digital não atendem os respectivos critérios de autorização para a respectiva operação restrita (por exemplo, critérios específicos de operação esta-belecidos pelo aplicativo bancário 2312). Por exemplo, os critérios de autorização do aplicativo bancário 2312 exigem uma "compatibilidade forte" para acessar o aplicativo bancário 2312 (por exemplo, um aplicativo seguro), e as informações de verificação de impressão digital correspondentes à entrada de usuário 2302 na Figura 23B, ou entrada de usuário 2306 na Figura 23D, indica uma "compatibilidade fraca." Em contraste, critérios de autorização de aplicativo de jogo 2310 exigem somente uma "compatibilidade fraca" para acessar o aplicativo de jogo 2310 (por exemplo, um aplicativo não seguro). Nesse exemplo, o acesso a aplicativo bancário 2312 é negado devido ao fato de que as respectivas informações de verificação de impressão digital não atendem critérios de autorização do aplicativo bancário 2312.
[000537] A Figura 23F ilustra a realização de uma respectiva operação restrita (por exemplo, conceder acesso e exibir o aplicativo bancário 2312) em resposta à detecção de entrada de usuário 2302 na Figura 23B, ou entrada de usuário 2306 na Figura 23D, e de acordo com uma determinação de que as respectivas informações de verificação de impressão digital atendem os respectivos critérios de autorização para a respectiva operação restrita. Por exemplo, os critérios de autorização do aplicativo bancário 2312 exigem uma "compatibilidade forte" para acessar aplicativo bancário 2312, e a informações de verificação de impressão digital que correspondem à entrada de usuário 2302 na Figura 23B, ou entrada de usuário 2306 na Figura 23D, indica uma "compatibilidade forte." Nesse exemplo, o acesso a aplicativo bancário 2312 é concedido e o aplicativo bancário 2312 é exibido na interface de usuário 400 da tela sensível ao toque 112 devido ao fato de que as respectivas informações de verificação de impressão digital atendem os critérios de autorização do aplicativo bancário 2312.
[000538] A Figura 23G ilustra um diagrama esquemático de um processo 2320 para realizar uma respectiva operação restrita com base em informações de verificação de impressão digital de acordo com algumas modalidades. Em algumas modalidades, o processo 2320 é realizado em um dispositivo portátil de múltiplas funções 100 ou um componente de dispositivo portátil de múltiplas funções 100. Em algumas modalidades, pelo menos uma porção de processo 2320 é realizada em um componente de dispositivo portátil de múltiplas funções 100. Por exemplo, um módulo de impressão digital 2322 é um compo-nente de dispositivo portátil de múltiplas funções 100, e o módulo de impressão digital 2322 inclui um ou mais sensores de impressão digital 2324 (por exemplo, incluir um sensor de impressão digital integrado 359-1 e/ou um sensor de impressão digital separado 359-2), uma memória da impressão digital 2326 e lógica de processamento de impressão digital 2328 acoplada a um ou mais sensores de impressão digital 2324 por meio da linha 2323 e a memória da impressão digital 2326 por meio das linhas 2325 e 2327.
[000539] Um ou mais sensores de impressão digital 2324 são configurados para identificar recursos de impressão digital de uma respectiva entrada. A memória da impressão digital 2326 é configurada para armazenar recursos de impressão digital de uma ou mais impressões digitais anteriormente registradas. Em algumas modalidades, a memória da impressão digital 2326 é adicionalmente configurada para também armazenar critérios de verificação de impressão digital. A lógica de processamento de impressão digital 2328 é configurada para determinar informações de verificação de impressão digital com base pelo menos em parte em: critérios de verificação de impressão digital obtidos da memória da impressão digital 2326 por meio da linha 2325; e uma comparação dos recursos de impressão digital da respectiva entrada obtida a partir de um ou mais sensores de impressão digital 2324 por meio da linha 2323 e recursos de impressão digital de uma ou mais impressões digitais anteriormente registradas obtidas a partir de memória da impressão digital 2326 por meio da linha 2327. A lógica de processamento de impressão digital 2328 é adicionalmente configurada para fornecer as informações de verificação de impressão digital por meio da linha 2337 ao respectivo módulo de operação restrita 2337. Em algumas modalidades, o módulo de impressão digital 2322 consiste em hardware de computação dedicado seguro que tem recursos adicionais de segurança a fim de intensificar a segurança das informações de verificação de impressão digital.
[000540] Em algumas modalidades, módulo de identificação de impressão digital compatível 2332 da lógica de processamento de impressão digital 2328 identifica uma impressão digital compatível de acordo com os critérios de verificação de impressão digital. Em algumas modalidades, o melhor módulo de identificação de impressão digital compatível 2332 de lógica de processamento de impressão digital 2328 identifica uma melhor impressão digital compatível de acordo com os critérios de verificação de impressão digital. Ademais, em algumas modalidades, módulo de atribuição de confiança 2336 atribui um valor de confiança de compatibilidade à melhor impressão digital compatível.
[000541] O respectivo módulo de operação restrita 2338 (por exemplo, um aplicativo bancário) obtém informações de verificação de impressão digital por meio da linha 2337 a partir da lógica de processamento de impressão digital 2328 e determina por meio de módulo de determinação 2340 se a informações de verificação de impressão digital atende os respectivos critérios de autorização para a respectiva operação restrita. O módulo de realização 2342 realiza a operação restrita (por exemplo, concede acesso ao aplicativo bancário) quando as informações de verificação de impressão digital obtidas a partir de lógica de processamento de impressão digital 2328 atende os respec-tivos critérios de autorização para a operação restrita. Módulo de renuncia 2344 renuncia a realização da operação restrita (por exemplo, nega acesso ao aplicativo bancário) quando as informações de verificação de impressão digital obtidas da lógica de processamento de impressão digital 2328 não atende os respectivos critérios de autorização para a operação restrita.
[000542] As Figuras 24A a 24D são diagramas de fluxo que ilustram um método 2400 de realização de uma respectiva operação restrita com base em informações de verificação de impressão digital de acordo com algumas modalidades. O método 2400 é realizado em um dispositivo eletrônico (por exemplo, dispositivo 300, Figura 3, ou dispositivo portátil de múltiplas funções 100, a Figura 1A) com um visor e um sensor de impressão digital. Em algumas modalidades, o visor é um visor de tela sensível ao toque e o sensor de impressão digital está no visor. Em algumas modalidades, o visor é separado do sensor de impressão digital. Algumas operações no método 2400 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000543] Conforme descrito abaixo, o método 2400 fornece um modo intuitivo para realizar uma respectiva operação restrita com base em informações de verificação de impressão digital. O método reduz a carga cognitiva em um usuário ao realizar uma respectiva operação restrita com base em informações de verificação de impressão digital, criando assim uma interface humano-máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário para realizar uma respectiva operação restrita com base em informações de verificação de impressão digital mais rapidamente e de forma mais eficiente conserva potência e aumenta o tempo entre cargas de bateria.
[000544] O dispositivo obtém (2402) (por exemplo, recupera da memória ou recebe de um sistema de computador remoto) ou acessa (por exemplo, na memória ou em um ou mais instruções de módulo de impressão digital 2322) critérios de verificação de impressão digital para controlar (por exemplo, determinação ou geração) verificação de im-pressões digitais. Por exemplo, os critérios de verificação de impressão digital estabelecem um número de pontos de minúcia de uma impressão digital que precisam ser verificados para determinar que uma impressão digital detectada é uma impressão digital anteriormente registrada e/ou os critérios de verificação de impressão digital estabelecem quantos pontos de minúcia verificados de uma impressão digital precisam ser verificados para a impressão digital a ser atribuída diferentes níveis de confianças indicativos de uma confiança da compatibilidade entre a impressão digital detectada e a impressão digital anteriormente registrada. A Figura 23G, por exemplo, mostra a lógica de processamento de impressão digital 2328 que obtém critérios de verificação de impressão digital da memória da impressão digital 2326 por meio da linha 2325 para determinar as informações de verificação de impressão digital.
[000545] Em algumas modalidades, os critérios de verificação de impressão digital incluem (2404) um conjunto de critérios padrão; e obter os critérios de verificação de impressão digital inclui: receber uma en- trada de ajuste de critérios de um usuário que indica uma modificação aos critérios de verificação de impressão digital; e em resposta ao recebimento da entrada de ajuste de critérios, substituir um ou mais critérios padrão por critérios modificados correspondentes nos critérios de verificação de impressão digital. Por exemplo, enquanto em um modo de definições ajustáveis de usuário, o dispositivo recebe uma entrada de usuário que especifica os critérios de verificação de nível de sistema. Em algumas modalidades, a alteração dos critérios de verificação de impressão digital alterará quais impressões digitais são compatíveis com quais entradas e/ou o nível de confiança das compatibilidades. Desse modo, em algumas modalidades, uma entrada que seria compatível com uma primeira impressão digital em um primeiro nível de confiança com o uso dos critérios de verificação de impressão digital padrão seriam compatíveis, em vez disso, com a primeira impressão digital em um segundo nível de confiança (diferente do primeiro nível de confiança) com o uso dos critérios de verificação de im-pressão digital modificados.
[000546] Em algumas circunstâncias, os critérios de verificação de impressão digital são ajustados de modo que uma compatibilidade mais próxima entre a respectiva entrada e uma impressão digital anteriormente registrada seja exigida para identificar a respectiva entrada como compatível com a impressão digital anteriormente registrada ou alcançar um nível de confiança particular que a respectiva entrada seja compatível com a impressão digital anteriormente registrada. Por exemplo, o usuário aumenta a segurança do dispositivo diminuindo-se a probabilidade de compatibilidades de falso positivo em troca de um aumento correspondente de probabilidade de compatibilidades de falso negativo. Em algumas circunstâncias, os critérios de verificação de impressão digital são ajustados (por exemplo, reduzindo-se um nível de confiança exigido para correspondência de impressão digital) de modo que uma compatibilidade menos próxima entre a respectiva entrada e uma impressão digital anteriormente registrada será aceita para identificar a respectiva entrada como correspondente à impressão digital anteriormente registrada. Por exemplo, o usuário diminui a segurança do dispositivo aumentando-se a probabilidade de compatibilidades de falso positivo em troca de uma diminuição correspondente de probabilidade de compatibilidades de falso negativo.
[000547] Para cada uma dentre uma pluralidade de respectivas entradas que correspondem (2406) às respectivas operações restritas, o dispositivo identifica (2408) recursos de impressão digital da respectiva entrada. A Figura 23D, por exemplo, mostra o sensor de impressão digital 169 integrado com botão de início 204 do dispositivo de múltiplas funções portátil 100 identificando recursos de impressão digital da entrada de usuário 2306.
[000548] Adicionalmente, para cada uma dentre uma pluralidade de respectivas entradas que correspondem (2406) às respectivas operações restritas, o dispositivo determina (2410) informações de verificação de impressão digital para a respectiva entrada com base, pelo menos em parte, em: uma comparação (2412) entre os recursos de impressão digital da respectiva entrada e recursos de impressão digital de uma ou mais impressões digitais previamente registradas; e os critérios de verificação de impressão digital (2414). Como um exemplo, o dispositivo de múltiplas funções portátil 100 detecta uma impressão digital (por exemplo, a entrada de usuário 2306 na Figura 23D) no sensor de impressão digital (por exemplo, o sensor de impressão digital 169 integrado com botão de início 204 na Figura 23D), identifica recursos da impressão digital e compara os recursos da impressão digital com recursos de impressões digitais previamente registradas. Em muitas circunstâncias, uma compatibilidade entre recursos de uma impressão digital detectada (por exemplo, entrada de usuário 2306 na Figura 23D) e uma impressão digital previamente registrada não será uma compatibilidade perfeita (por exemplo, a impressão digital detectada é compatível com a 5 de 10 pontos de minúcia), e, portanto, é ambíguo se a impressão digital detectada é compatível ou não com a impressão digital previamente registrada. A fim de resolver essa ambiguidade, o dispositivo opcionalmente aplica critérios de verificação de impressão digital aos resultados da comparação entre os recursos da impressão digital detectada e os recursos da impressão digital previamente registrada. Por exemplo, os critérios de verificação de impressão digital especificam que uma impressão digital detectada que é compatível com 3 ou menos pontos de minúcia (30% ou menos) é classificada como "não compatível", enquanto que uma impressão digital detectada que é compatível com entre 4 a 6 pontos de minúcia (mais que 30% e menos que 70%) é classificada como "compatibilida-de fraca", e uma impressão digital detectada que é compatível com 7 ou mais pontos de minúcia (70% ou mais) é classificada como uma "compatibilidade forte."
[000549] Em algumas modalidades, o dispositivo utiliza (2416) os mesmos critérios de verificação de impressão digital para processar impressões digitais para múltiplas (por exemplo, sequenciais) respectivas entradas diferentes. Por exemplo, os critérios de verificação de impressão digital são critérios de nível de sistema ou critérios independentes de operação e são aplicados uma comparação entre a impressão digital detectada e as impressões digitais previamente registradas para gerar informações de verificação de impressão digital independente da operação para a qual as informações de verificação de impressão digital serão utilizadas.
[000550] Em algumas modalidades, o dispositivo determina (2418) as informações de verificação de impressão digital: identificando-se pontos de minúcia na respectiva entrada; comparando-se os pontos de minúcia identificados na respectiva entrada com pontos de minúcia em uma pluralidade de impressões digitais candidatas; e selecionando-se uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a impressão digital compatível. Em algumas modalidades, os pontos de minúcia para uma impressão digital incluem um ou mais dentre: terminações de crista de impressão digital, bifurcações crista de impressão digital, e cristas de impressão digital curtas (às vezes chamadas de pontos). Uma terminação de crista de impressão digital é um ponto em que uma crista de impressão digital termina. Uma bifurcação crista de impressão digital é um ponto em que uma única crista de impressão digital se divide em duas cristas de impressão digital. Uma crista de impressão digital curta é uma crista que é significativamente mais curta que um comprimento de crista médio de uma crista de impressão digital na impressão digital. A Figura 23G, por exemplo, mostra módulo de identificação de impressão digital compatível 2332 configurado para selecionar uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a impressão digital compatível.
[000551] Em algumas modalidades, o dispositivo determina (2420) as informações de verificação de impressão digital: identificando-se pontos de minúcia na respectiva entrada; comparando-se os pontos de minúcia identificados na respectiva entrada com pontos de minúcia em uma pluralidade de impressões digitais candidatas; selecionando-se uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a melhor impressão digital compatível. A Figura 23G, por exemplo, mostra módulo de identificação de melhor impressão digital compatível 2334 configurado para selecionar uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a melhor impressão digital compatível.
[000552] Em algumas modalidades, o dispositivo atribui (2422) um primeiro valor de confiança à melhor impressão digital compatível, de acordo com uma determinação de que um primeiro número de pontos de minúcia na respectiva entrada é compatível com pontos de minúcia correspondentes na melhor impressão digital compatível. O dispositivo atribui adicionalmente (2424) um segundo valor de confiança à melhor impressão digital compatível, de acordo com uma determinação de que um segundo número de pontos de minúcia na respectiva entrada é compatível com pontos de minúcia correspondentes na melhor impressão digital compatível. O segundo número de pontos de minúcia é maior (2426) que o primeiro número de pontos de minúcia, e o segundo valor de confiança indica (2428) uma compatibilidade mais próxima entre a respectiva entrada e a melhor impressão digital compatível do que é indicado pelo primeiro valor de confiança. A Figura 23G, por exemplo, mostra o módulo de atribuição de valor de confiança 2336 configurado para atribuir um respectivo valor de confiança à melhor impressão digital compatível. Em algumas modalidades, quando um segundo número de pontos de minúcia na respectiva entrada é compatível com pontos de minúcia correspondentes na melhor impressão digital compatível, somente o segundo valor de confiança é atribuído à melhor impressão digital compatível.
[000553] Em algumas modalidades, as informações de verificação de impressão digital incluem (2430) informações que identificam (2432) uma impressão digital compatível determinada de acordo com os critérios de verificação de impressão digital. A Figura 23G, por exemplo, mostra o módulo de identificação de impressão digital compatível 2332 configurado para incluir informações que identificam uma impressão digital compatível nas informações de verificação de impressão digital.
[000554] Em algumas modalidades, as informações de verificação de impressão digital incluem (2430) informações que identificam (2434) uma melhor impressão digital compatível de uma pluralidade de impressões digitais previamente registradas, em que a melhor impressão digital compatível é identificada de acordo com os critérios de verificação de impressão digital; e um valor de confiança de compatibilidade de impressão digital indicativo de uma confiança de uma compatibilidade entre a primeira entrada e a melhor impressão digital compatível, em que o valor de confiança de compatibilidade de impressão digital é determinado de acordo com os critérios de verificação de impressão digital. A Figura 23G, por exemplo, mostra o módulo de identificação de melhor impressão digital compatível 2334 configurado para incluir informações que identificam uma melhor impressão digital compatível e um valor de confiança de compatibilidade nas informações de verificação de impressão digital.
[000555] Em resposta à detecção (2436) da respectiva entrada, o dispositivo renuncia (2438) a realização da respectiva operação restrita, de acordo com uma determinação de que as informações de verificação de impressão digital não satisfazem os respectivos critérios de autorização para a operação restrita (por exemplo, critérios de autorização específicos à operação). Por exemplo, os respectivos critérios de autorização indicam que impressões digitais previamente registradas são autorizadas para realizar a respectiva operação restrita e opcionalmente indicam um nível de confiança mínimo que deve ser satisfeito a fim de a respectiva operação restrita seja realizada. A Figura 23E, por exemplo, mostra o dispositivo de múltiplas funções portátil negando acesso ao aplicativo de banco 2312, em resposta à detecção da entrada de usuário 2302 na tela sensível ao toque 112 na Figura 23B, ou a entrada de usuário 2306 no sensor de impressão digital 169 na Figura 23D, e de acordo com uma determinação de que as informações de verificação de impressão digital (por exemplo, geradas em resposta à detecção da entrada de usuário 2302 na Figura 23B ou da entrada de usuário 2306 na Figura 23D) não satisfazem os respectivos critérios de autorização para o aplicativo de banco 2312.
[000556] Em resposta à detecção (2436) da respectiva entrada, o dispositivo realiza (2440) a respectiva operação restrita, de acordo com uma determinação de que as informações de verificação de impressão digital satisfazem respectivos critérios de autorização para a respectiva operação restrita. A Figura 23F, por exemplo, mostra o dispositivo de múltiplas funções portátil 100 concedendo acesso ao aplicativo de banco 2312 e exibindo o mesmo (por exemplo, a respectiva operação restrita), em resposta à detecção da entrada de usuário 2302 na tela sensível ao toque 112 na Figura 23B ou na entrada de usuário 2306 no sensor de impressão digital 169 na Figura 23D, e de acordo com uma determinação de que as informações de verificação de im-pressão digital (por exemplo, geradas em resposta à detecção da entrada de usuário 2302 na Figura 23B ou da entrada de usuário 2306 na Figura 23D) satisfazem os respectivos critérios de autorização para aplicativo de banco 2312.
[000557] Por exemplo, após a impressão digital detectada ter siso classificada de acordo com os critérios de verificação de impressão digital, essas informações de verificação de impressão digital (por exemplo, "sem compatibilidade", "compatibilidade fraca" ou "compatibilidade forte") são passadas para aplicativos individuais administrarem de acordo com critérios de autorização específicos ao aplicativo ou específicos à operação. Por exemplo em algumas circunstâncias, um aplicativo não seguro (por exemplo, um aplicativo que conta com as informações de verificação de impressão digital somente para identificação de usuário), tal como aplicativo de jogos 2310, utiliza critérios de autorização que exige somente uma compatibilidade fraca, e, portanto, o aplicativo de jogos 2310 aceitará a impressão digital detectada como uma primeira impressão digital se a impressão digital detectada for classificada ou como uma "compatibilidade fraca" ou uma "compatibilidade forte" para a primeira impressão digital (por exemplo, de acordo com os critérios de verificação de impressão digital). Em contrapartida, em algumas circunstâncias, um aplicativo seguro (por exemplo, um aplicativo que conta com as informações de verificação de impressão digital para determinar se permite ou não acesso a informações sensíveis), tal como o aplicativo de banco 2312, utiliza critérios de autorização que exige uma compatibilidade forte, e, portanto, o aplicativo de banco 2312 aceitará somente a impressão digital detectada como uma primeira impressão digital se a impressão digital detectada for classificada como uma "compatibilidade forte" para a primeira impressão digital (por exemplo, de acordo com os critérios de verificação de impressão digital).
[000558] No exemplo acima, o aplicativo de jogos 2310 e o aplicativo de banco 2312 ambos contam com as informações de verificação de impressão digital previamente computadas (por exemplo, "sem compatibilidade", "compatibilidade fraca" ou "compatibilidade forte") geradas de acordo com os critérios de verificação de impressão digital ao invés de comparar a impressão digital detectada e as impressões digitais previamente registradas diretamente. Como uma questão preliminar, realizar a comparação processo uma vez e fornecer as informações de verificação de impressão digital previamente computadas para multiplicar aplicativos ou processos pode diminuir substancialmente os recursos de computação utilizados pelo dispositivo 100, aumentando, dessa forma, a eficiência de energia, a vida de bateria e a capacidade de resposta do dispositivo 100. Adicionalmente, fazendo com que os diferentes aplicativos e processos utilizem as informações de verificação de impressão digital previamente computadas habilita o dispositivo 100 ou o usuário a ajustar facilmente a segurança de múltiplas operações ou aplicativos sensíveis à impressão digital rápida e eficiente- mente ajustando-se os critérios de verificação de impressão digital.
[000559] Por exemplo, o dispositivo 100 pode ajustar os critérios de verificação de impressão digital aumentando-se o número (ou porcentagem) de compatibilidades de ponto de minúcia necessárias para uma "compatibilidade forte" de uma impressão digital detectada com uma impressão digital previamente registrada (por exemplo, sem alterar as informações de autorização para uma ou mais operações ou aplicativos), de modo a fortalecer a segurança de aplicativos seguros (por exemplo, aplicativo de banco 2312) sem afetar a facilidade de uso de aplicativos não seguros (por exemplo, aplicativo de jogos 2310). De modo similar, o dispositivo 100 pode ajustar os critérios de verificação de impressão digital diminuindo-se o número (ou porcentagem) de compatibilidades de ponto de minúcia necessárias para uma "compatibilidade forte" e/ou uma "compatibilidade fraca" (por exemplo, sem alterar as informações de autorização para uma ou mais operações ou aplicativos), de modo a diminuir a incidência de compatibilidades de falso negativo (por exemplo, o usuário pode escolher aceitar segurança mais fraca se o dispositivo falhar repetidamente na identificação das impressões digitais do usuário).
[000560] Em algumas modalidades, os critérios específicos à operação são satisfeitos (2442) quando a impressão digital compatível é (2444) uma impressão digital associada a um usuário autorizado para realizar a operação restrita. Por exemplo, a impressão digital compatível é associada ao perfil de usuário do usuário que efetuou login no (ou destravou) dispositivo de múltiplas funções portátil 100. Em algumas modalidades, os critérios específicos à operação são satisfeitos (2442) quando a melhor impressão digital compatível for (2446) associada a um usuário autorizado para realizar a respectiva operação restrita e o valor de confiança estiver acima de um limite de confiança associado à respectiva operação restrita.
[000561] Em algumas modalidades, a pluralidade de operações restritas inclui (2448): uma primeira operação restrita que é associada a um primeiro limite de confiança; e uma segunda operação restrita que é associada a um segundo limite de confiança diferente do primeiro limite de confiança. Portanto, em algumas modalidades, em que a primeira entrada inclui recursos de impressão digital que são compatíveis com a melhor impressão digital compatibilizada a um valor de confiança que está acima do primeiro limite de confiança e abaixo do segundo limite de confiança, a primeira entrada habilitaria o usuário a realizar a primeira operação restrita, porém não habilitaria o usuário a realizar a segunda operação restrita. Por exemplo, um limite de confiança para identificar um usuário para fazer pagamentos eletrônicos por meio do aplicativo de banco 2312 é mais alto que o limite de confiança para identificar um usuário para o aplicativo de jogos 2310. Portanto uma varredura de resolução baixa rápida da impressão digital de um usuário seria suficiente para identificar o usuário para o aplicativo de jogos 2310, enquanto que uma varredura de resolução alta mais cuidadosa da impressão digital do usuário é, opcionalmente, exigida para autorizar um pagamento eletrônico por meio do aplicativo de banco 2312 para o usuário.
[000562] Em algumas modalidades, o sensor de impressão digital é integrado (2450) em um botão físico; em resposta à detecção da impressão digital no sensor de impressão digital, o dispositivo determina as informações de verificação de impressão digital; e em resposta à detecção de ativação do botão, o dispositivo realiza a respectiva operação restrita. Em algumas modalidades, o botão físico é uma região sensível à intensidade do alojamento do dispositivo que é determinada ter sido ativada pelo dispositivo quando a intensidade detectada no botão for aumentada acima de um limite de intensidade de ativação. Em algumas modalidades, o botão físico é acoplado a um comutador eletrônico em que o movimento do botão físico junto com um primeiro eixo geométrico (por exemplo, para cima e para baixo ou da esquerda para direita) fecha o comutador e ativa o botão físico (às vezes resultando em um "clique" audível ou táctil). A Figura 23D, por exemplo, mostra o sensor de impressão digital 169 integrado com botão de início 204. Em resposta à detecção de entrada 2306 no sensor de impressão digital 169 na Figura 23D, por exemplo, o dispositivo de múltiplas funções portátil 100 determina as informações de verificação de impressão digital que corresponde à entrada 2306. E adicionalmente, em resposta à detecção de ativação do botão de início 204 (por exemplo, movimento para baixo do botão 204 na Figura 23D), o dispositivo de múltiplas funções portátil 100 concede acesso ao aplicativo de banco 2312 e exibe o aplicativo de banco 2312 na Figura 23F.
[000563] Deve-se compreender que a ordem particular em que as operações nas Figuras 24A a 24D foram descritas é meramente exemplificativa e não se pretende indicar que a ordem descrita é a única ordem em que as operações podem ser realizadas. Um indivíduo de habilidade comum na técnica reconheceria várias maneiras de reordenar as operações descritas no presente documento. Adicionalmente, deve-se notar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 2400 des-crito acima em relação às Figuras 24A a 24D. Por exemplo, as impressões digitais e os contatos de entrada descritas acima com referência ao método 2400 opcionalmente têm uma ou mais das características das impressões digitais e dos contatos de entrada descritos no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questões de brevidade, esses detalhes não são repetidos aqui.
[000564] De acordo com algumas modalidades, a Figura 25 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 2500 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software, ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É compreendido por pessoas de habilidade na técnica que os blocos funcionais descritos na Figura 25 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente apoia qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000565] Conforme mostrado na Figura 25, um dispositivo eletrônico 2500 inclui uma unidade de exibição 2502 configurada para exibir um ou mais objetos de interface de usuário, uma unidade de sensor de impressão digital 2504; e uma unidade de processamento 2506 acoplada à unidade de exibição 2502 e a unidade de sensor de impressão digital 2504. Em algumas modalidades, a unidade de processamento 2506 inclui uma unidade de obtenção 2508, uma unidade de identificação 2510, uma unidade de determinação 2512, uma unidade de autorização 2514, uma unidade de realização 2516, uma unidade de atribuição 2518 e uma unidade de substituição 2520.
[000566] A unidade de processamento 2506 é configurada para obter (por exemplo, com a unidade de obtenção 2508) ou acessar de outra forma critérios de verificação de impressão digital para controlar a verificação de impressões digitais. Para cada uma dentre uma pluralidade de respectivas entradas que correspondem às respectivas operações restritas, a unidade de processamento 2506 é adicionalmente configurada para identificar (por exemplo, com a unidade de identificação 2510) recursos de impressão digital da respectiva entrada e determi- nar (por exemplo, com a unidade de determinação 2512) informações de verificação de impressão digital para a respectiva entrada com base, pelo menos em parte, em: uma comparação entre os recursos de impressão digital da respectiva entrada e recursos de impressão digital de uma ou mais impressões digitais previamente registradas; e nos critérios de verificação de impressão digital. Em resposta à detecção da respectiva entrada, a unidade de processamento 2506 é configurada para: de acordo com uma determinação (por exemplo, com a unidade de autorização 2514) de que as informações de verificação de impressão digital satisfazem respectivos critérios de autorização para a respectiva operação restrita, realizar (por exemplo, com a unidade de realização 2516) a respectiva operação restrita; e de acordo com uma determinação (por exemplo, com a unidade de autorização 2514) de que as informações de verificação de impressão digital não satisfazem os respectivos critérios de autorização para a operação restrita, renunciar a realização da respectiva operação restrita.
[000567] Em algumas modalidades, os mesmos critérios de verificação de impressão digital são utilizados para processar impressões digitais para múltiplas respectivas entradas.
[000568] Em algumas modalidades, as informações de verificação de impressão digital incluem informações que identificam uma impressão digital compatível determinada de acordo com os critérios de verificação de impressão digital.
[000569] Em algumas modalidades, os critérios de autorização específicos à operação são satisfeitos quando a impressão digital compatível é uma impressão digital associada a um usuário autorizado a realizar a operação restrita.
[000570] Em algumas modalidades, a unidade de processamento é configurada para determinar as informações de verificação de impressão digital: identificando-se (por exemplo, com a unidade de identifica- ção 2510) pontos de minúcia na respectiva entrada; comparando-se (por exemplo, com a unidade de determinação 2512) os pontos de minúcia identificados na respectiva entrada com pontos de minúcia em uma pluralidade de impressões digitais candidatas; selecionando-se (por exemplo, com a unidade de determinação 2512) uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a impressão digital compatível.
[000571] Em algumas modalidades, as informações de verificação de impressão digital incluem: informações que identificam uma melhor impressão digital compatível de uma pluralidade de impressões digitais previamente registradas, em que a melhor impressão digital compatível é identificada de acordo com os critérios de verificação de impressão digital; e um valor de confiança de compatibilidade de impressão digital indicativo de uma confiança de uma compatibilidade entre a primeira entrada e a melhor impressão digital compatível, em que o valor de confiança de compatibilidade de impressão digital é determinado de acordo com os critérios de verificação de impressão digital.
[000572] Em algumas modalidades, os critérios de autorização específicos à operação são satisfeitos quando: a melhor impressão digital compatível é associada a um usuário autorizado a realizar a respectiva operação restrita; e o valor de confiança está acima de um limite de confiança associado à respectiva operação restrita.
[000573] Em algumas modalidades, a pluralidade de operações restritas inclui: uma primeira operação restrita que é associada a um primeiro limite de confiança; e uma segunda operação restrita que é associada a um segundo limite de confiança diferente do primeiro limite de confiança.
[000574] Em algumas modalidades, a unidade de processamento é configurada para determinar as informações de verificação de impressão digital: identificando-se (por exemplo, com a unidade de identifica- ção 2510) pontos de minúcia na respectiva entrada; comparando-se (por exemplo, com a unidade de determinação 2512) os pontos de minúcia identificados na respectiva entrada com pontos de minúcia em uma pluralidade de impressões digitais candidatas; selecionando-se (por exemplo, com a unidade de determinação 2512) uma respectiva impressão digital candidata com um número mais alto de pontos de minúcia compatíveis como a melhor impressão digital compatível.
[000575] Em algumas modalidades, a unidade de processamento é configurada para: de acordo com uma determinação de que um primeiro número de pontos de minúcia na respectiva entrada é compatível com pontos de minúcia correspondentes na melhor impressão digital compatível, atribuir (por exemplo, com a unidade de atribuição 2518) um primeiro valor de confiança à melhor impressão digital compatível; e de acordo com uma determinação de que um segundo número de pontos de minúcia na respectiva entrada é compatível com pontos de minúcia correspondentes na melhor impressão digital compatível, atribuir (por exemplo, com a unidade de atribuição 2518) um segundo valor de confiança à melhor impressão digital compatível, em que: o segundo número de pontos de minúcia é maior que o primeiro número de pontos de minúcia; e o segundo valor de confiança indica uma compatibilidade mais próxima entre a respectiva entrada e a melhor impressão digital compatível que é indicada pelo primeiro valor de confiança.
[000576] Em algumas modalidades, os critérios de verificação de impressão digital inclui um conjunto de critérios padrões; e a unidade de processamento 2506 é configurada para obter (por exemplo, com a unidade de obtenção 2508) os critérios de verificação de impressão digital: recebendo-se (por exemplo, com a unidade de obtenção 2508) uma entrada de ajuste de critérios de um usuário que indica uma modificação aos critérios de verificação de impressão digital; e, em resposta ao recebimento da entrada de ajuste de critérios, substituindo-se (por exemplo, com a unidade de substituição 2520) um ou mais critérios padrões por critérios modificados correspondentes nos critérios de verificação de impressão digital.
[000577] Em algumas modalidades, a unidade de sensor de impressão digital 2504 é integrada em um botão físico; a unidade de processamento 2506 é configurada para determinar (por exemplo, com a unidade de determinação 2512) as informações de verificação de impressão digital em resposta à detecção da impressão digital na unidade de sensor de impressão digital 2504; e a unidade de processamento 2506 é configurada para realizar (por exemplo, com a unidade de realização 2516) a respectiva operação restrita em resposta à detecção de ativação do botão.
[000578] As operações nos métodos de processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais em aparelhos de processamento de informações tais como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos ao aplicativo.
[000579] As operações descritas acima com referência às Figuras 24A a 24D são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 25. Por exemplo, a operação de obtenção 2402, a operação de identificação 2408, as operações de determinação 2410 e a operação de realização 2440 são, opcionalmente, implantadas por classificador de eventos 170, reconhecedor de evento 180, e manipulador de evento 190. O monitor de evento 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo de despachante de evento 174 entrega as informações de evento ao aplicativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento com as respectivas definições de evento 186, e determina se um pri- meiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento predefinido ou subevento, tal como a seleção de um objeto em uma interface de usuário. Quando um respectivo evento predefinido ou subevento é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190 opcionalmente utiliza ou chama o atualizador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno do aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, ficaria claro para um indivíduo que tenha habili-dade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Associação de Informações de Localização e Identidade
[000580] Muitos dispositivos eletrônicos permitem que usuários interajam com seu ambiente através de mapas interativos exibidos em um visor. Por exemplo, tais dispositivos eletrônicos (por exemplo, dispositivos de múltiplas funções portáteis) frequentemente permitem que usuários indiquem sua presença em um comércio particular ou ponto de referência bem conhecido em sites da web de mídia social. Em tais situações, tais dispositivos eletrônicos frequentemente exibem um mapa em um visor de tela sensível ao toque e um usuário pode interagir com o mapa tocando-se, por exemplo, na localização do comércio ou do ponto de referência bem conhecido. Como outro exemplo, tais dispositivos eletrônicos frequentemente incluem câmeras, e é desejável fornecer aos usuários uma maneira conveniente de associar metadados de identidade e localização com fotografias tiradas com uso do dispositivo. Por exemplo, em algumas modalidades, um usuário pode indicar a localização de uma fotografia tocando-se em uma localização correspondente em um mapa exibido em um visor de tela sensível ao toque e indicando-se adicionalmente o autor de identidade e/ou os indivíduos da fotografia através de entradas separadas. Métodos existentes de associação de informações de localização e identidade com, por exemplo, uma postagem de mídia social ou como metadados associados a uma fotografia tipicamente exigem entradas separadas que indicam cada uma dentre identidade e localização.
[000581] Nas modalidades descritas abaixo, um método aprimorado para associação de informações de localização e identidade é alcançado detectando-se uma entrada que é associada tanto a uma localização exibida em um mapa (por exemplo, uma localização que corresponde a uma localização geográfica) e com uma impressão digital detectada em um sensor de impressão digital. O método identifica um usuário que corresponde à impressão digital e realiza uma operação associada à localização e ao usuário, tal como a postagem de uma indicação da presença do usuário na localização em mídia social ou adicionando-se metadados que indicam a localização de uma fotografia e que o usuário é um indivíduo e/ou autor da fotografia.
[000582] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, a superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo de múltiplas funções portátil 100, o visor é tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de entrada tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência a 26A a 26G e 27 inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, os um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, a superfície sensível ao toque separada 451 ou sistema de exibição sensível ao toque 112). Em algumas modalidades, os um ou mais sen sores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, da superfície sensível ao toque separada 451 ou do sistema de exibição sensível ao toque 112). A não ser que seja especificado de outra forma, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e do software do dispositivo que inclui o sensor de impressão digital 169. Por conveniência de explicação, as modalidades descritas com referência às Figuras 26A a 26G e 27 serão descritas com referência a operações dispositivo que são realizadas em resposta à detecção de entradas descritas nas Figuras 26A a 26G em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) ao mesmo tempo em que exibe as interfaces de usuário mostradas nas Figuras 26A a 26G na tela sensível ao toque 112. No entanto, operações análogas são, opcionalmente, realizadas em um dispositivo com um visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2 com um sensor de impressão digital integrado 359-1 em resposta à detecção das entradas descritas nas Figuras 26A a 26G no sensor de impressão digital integrado 359-1 ao mesmo tempo em que exibe as interfaces de usuário mostradas nas Figuras 26A a 26G no visor 450. Em algumas modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor.
[000583] A Figura 26A ilustra um dispositivo que exibe uma interface de usuário 2601 que inclui a exibição de um mapa. Nesse exemplo, a interface de usuário é exibida como parte de um aplicativo que assiste usuários na navegação para comércios locais e pontos de referência. Por exemplo, quando o usuário busca o termo "Gala Coffee" na barra de busca 2602, o dispositivo retorna vários resultados e exibe suas localizações como pin-drops 2604 na interface de usuário 2601.
[000584] A Figura 26B ilustra detecção de um contato 2606 na tela sensível ao toque 112 e a detecção de uma impressão digital 2608 em um sensor de impressão digital separado 169. O contato 2606 é um exemplo de uma entrada ativação que dispara uma operação do dispositivo que é associada tanto à localização do contato 2606 no mapa (por exemplo, uma localização física que corresponde à localização exibida no mapa em que o contato 2606 é recebido) quanto à impressão digital identificada. Em algumas modalidades (por exemplo, quando a tela sensível ao toque 112 é configurada para identificar impressões digitais), um único contato atua tanto como uma entrada de ati-vação e como uma entrada para qual uma impressão digital é identificada (por exemplo, uma impressão digital é detectada correspondendo ao contato 2606). Em algumas modalidades, uma impressão digital é detectada no sensor de impressão digital separado 169 e outro tipo de entrada de ativação, tal como uma entrada de fala, é detectada pelo dispositivo e associada a uma localização particular no mapa, conforme descrito em mais detalhes em relação à Figura 27.
[000585] As Figuras 26C a 26G ilustram exemplos de várias operações que o dispositivo realiza de acordo com algumas modalidades. Conforme observado acima, essas operações são associadas tanto à localização do contato 2606 no mapa quanto à impressão digital identificada. Deve-se compreender que a presente revelação é destinada a suportar uma faixa ampla de operações que são associadas a uma localização e identidade, e que as operações mostradas nas Figuras 26C-26G são meramente exemplificativas.
[000586] A Figura 26C ilustra um exemplo em que a operação inclui indicar a presença do usuário (por exemplo, o usuário cuja impressão digital foi identificada) em uma loja "Gala Coffee" particular. Nesse exemplo, o usuário selecionou um pin-drop particular que corresponde à loja Gala Coffee particular 2604-2. Em algumas modalidades, o dispositivo exibe uma mensagem de confirmação 2605 que pede ao usuário que confirme que os mesmos desejam "realizar o Check-in" na "Gala Coffee" particular e identificar o endereço da localização do check-in. Por exemplo, ativar a possibilidade de "CHECK-IN" na mensagem de confirmação 2605 irá fazer com que o dispositivo poste a presença de usuário em um site da web de mídia social.
[000587] A Figura 26D ilustra um exemplo alternativo (ou em algumas circunstâncias, adicional) de uma operação que o dispositivo realiza em resposta ao contato 2606, de acordo com algumas modalidades. Conforme foi o caso na Figura 26C, o usuário selecionou um pindrop correspondente à loja "Gala Coffee" 2604-2. No entanto, nesse exemplo, o dispositivo responde avisando-se o usuário para enviar uma quantidade de pagamento através do aviso de pagamento 2610. O usuário pode inserir uma quantidade com uso do teclado numérico 2612 no aviso 2610 e então selecionar o botão "CONFIRMAR" 2614 para enviar o pagamento. Em algumas modalidades, um usuário pode vincular contas diferentes a diferentes dedos. Por exemplo, uma impressão digital de polegar direito irá fazer com que o pagamento seja enviado através da conta de débito do usuário enquanto que uma impressão digital do indicador esquerdo irá fazer com que o pagamento seja enviado através da conta de crédito do usuário.
[000588] As Figuras 26E a 26G ilustram um exemplo alternativo de uma operação de dispositivo realizada em resposta a um contato 2616, de acordo com algumas modalidades. A Figura 26E ilustra a exibição de uma fotografia 2615 da Golden Gate Bridge tirada de uma localização em San Francisco, Califórnia. Em algumas circunstâncias, a fotografia 2615 é uma fotografia que foi previamente tirada pelo dispositivo (por exemplo, quando o dispositivo é equipado com um telefone com câmera). Em algumas circunstâncias, a fotografia 2615 é uma fotografia que foi previamente tirada por um dispositivo diferente e transmitido para o dispositivo (por exemplo, em uma rede, por e-mail, transferida por download da internet, etc.). Conforme mostrado na Figura 26E, o dispositivo opcionalmente exibe um aviso que pergunta ao usuário se o usuário gostaria de adicionar metadados (nesse exemplo, dados de autor e localização) à foto. A Figura 26E também ilustra a detecção de um contato 2616 que indica a afirmativa que o usuário gostaria de associar os metadados de autor e localização à fotografia 2615.
[000589] A Figura 26F continua o exemplo ilustrado na Figura 26E. Mediante a seleção da possibilidade "SIM" na Figura 26E por meio do contato 2616, o dispositivo exibe um mapa 2618 para associar metadados que incluem informações de localização (por exemplo, identificação geográfica) com a fotografia 2615. O dispositivo detecta um contato 2620 em uma localização no mapa que tenha significância especial para a fotografia (por exemplo, onde a fotografia foi tirada). O dispositivo também detecta uma impressão digital 2622 no sensor de impressão digital 169 que corresponde a um usuário e identifica um usuário ao qual a mesma pertence. Conforme mostrado na Figura 26G, o dispositivo associa dados associados tanto à localização no mapa 2618 do contato 2620 (nesse caso, a localização de coordenada da Golden Gate Bridge, San Francisco, CA), bem como a identidade do usuário ao qual a impressão digital 2622 pertence (por exemplo, Joseph Strauss, conforme mostrado na Figura 26G).
[000590] A Figura 27 é um fluxograma que ilustra um método 2700 de associação de informações de localização e identidade de acordo com algumas modalidades. O método 2700 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, a Figura 3, ou o dispositivo de múltiplas funções portátil 100, a Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 2700 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000591] Conforme descrito abaixo, o método 2700 fornece uma maneira intuitiva de associar informações de localização e identidade. O método reduz a carga cognitiva em um usuário durante a associação de informações de localização e identidade, criando, dessa forma, uma interface humano-máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a associar informações de localização e identidade mais rapidamente e mais eficientemente conserva energia e aumenta o tempo entre cargas de bateria.
[000592] O dispositivo exibe (2702) um mapa em um visor de um dispositivo eletrônico com um sensor de impressão digital (2702). Por exemplo, a Figura 26A ilustra um dispositivo com um sensor de impressão digital 169 que exibe um mapa.
[000593] O dispositivo detecta (2704) uma entrada de ativação, em que a entrada de ativação é associada a uma localização exibida no mapa que corresponde a uma respectiva localização geográfica e uma impressão digital detectada no sensor de impressão digital. Por exemplo, a entrada de ativação é realizada enquanto um seletor de foco estiver na localização exibida no mapa a fim de associar a entrada de ativação à localização exibida no mapa e à localização geográfica correspondente (por exemplo, o contato 2606 na Figura 26B). Em algumas modalidades, a entrada de ativação é associada à impressão digi tal detectada no sensor de impressão digital de acordo com uma determinação de que a entrada de ativação é realizada ao mesmo tempo em que a impressão digital é detectada no sensor de impressão digital.
[000594] Em algumas modalidades, a entrada de ativação é uma entrada de fala. Por exemplo, enquanto exibe o mapa mostrado na Figura 26A e detecta a impressão digital no sensor de impressão digital, o usuário irá dizer "Estou na Coffee na 1st com a Cedar", que o dispositivo irá interpretar como uma entrada de ativação para a Gala Coffee particular (representada pelo pin-drop 2604-1) no cruzamento da Rua East 1st Street e a Rua East Cedar. Em algumas modalidades, a entrada de ativação é uma entrada de fala que corresponde a uma solicitação para o dispositivo utilizar a funcionalidade de determinação de localização do dispositivo para determinar a localização do usuário. Por exemplo, ao mesmo tempo em que (ou após, ou antes) a impres-são digital 2608 é detectada, o usuário dirá "Utilize minha localização atualização", e o dispositivo irá determinar a localização atual do usuário (por exemplo, com uso do software e/ou hardware de sistema de posicionamento global). Alternativamente, o usuário dirá "Estou na Gala Coffee", ou "Check-in na Gala Coffee" e o dispositivo irá reconhecer a entrada como uma solicitação de fazer o check-in do usuário identificado na Gala Coffee mais próxima (por exemplo, a Gala Coffee representada pelo pin-drop 2604-1 quando o dispositivo determinar que o usuário está localizado no cruzamento da Rua East 1st e Rua East Cedar).
[000595] Em algumas modalidades, a entrada de ativação é detectada (2706) em uma superfície sensível ao toque diferente do sensor de impressão digital (por exemplo, a entrada de ativação é detectada em uma porção de um touchpad ou visor de tela sensível ao toque que não inclui um sensor de impressão digital integrado, em que a entrada de ativação ocorre simultaneamente ou substancialmente simultanea- mente em que uma impressão digital é colocada no sensor de impressão digital integrado, conforme mostrado nas Figuras 26A a 26G).
[000596] Em algumas modalidades, a entrada de ativação é detectada (2708) no sensor de impressão digital (por exemplo, a entrada de ativação é detectada em uma porção de um touchpad ou visor de tela sensível ao toque que inclui um sensor de impressão digital integrado, e o sensor de impressão digital integrado é utilizado para identificar o usuário que corresponde à impressão digital).
[000597] Em resposta à detecção da entrada de ativação (2710), o dispositivo identifica (2712) um usuário que corresponde à impressão digital (por exemplo, identificar um perfil de usuário que inclui uma impressão digital previamente registrada que é compatível com a impressão digital detectada no sensor de impressão digital). O dispositivo realiza (2714), então, uma operação associada à respectiva localização geográfica e ao usuário.
[000598] Em algumas modalidades, a operação associada à respectiva localização geográfica e ao usuário inclui (2716) gerar uma mensagem que indica a presença (virtual ou física) do usuário na respectiva localização geográfica (por exemplo, o usuário pode fazer "checkin" em uma localização geográfica tal como um restaurante, uma loja, um parque ou outro lugar de comércio selecionando-se uma localização no mapa que corresponde ao lugar de comércio enquanto tem simultaneamente uma impressão digital em um sensor de impressão digital, conforme mostrado nas Figuras 26A a 26C). Em algumas modalidades, a mensagem gerada indica que o usuário está atualmente presente na respectiva localização geográfica. Em algumas modalidades, a mensagem gerada indica que o usuário estava previamente presente ou estará fisicamente presente na respectiva localização geográfica no futuro. Em algumas modalidades, a mensagem que indica a presença do usuário indica uma presença física real do usuário na localização (por exemplo, o usuário faz check-in em um restaurante ao mesmo tempo em que o usuário está comendo no restaurante para indicar que o usuário está comendo no restaurante). Em algumas modalidades, a mensagem que indica a presença do usuário indica uma presença virtual do usuário (por exemplo, o usuário faz check-in em um restaurante para solicitar uma reservar no restaurante ou indica que o usuário fez uma reserva no restaurante, ou o usuário faz checkin em uma localização onde uma reunião está ocorrendo apesar de o usuário estar participando da reunião remotamente por meio de telefone ou de videoconferência).
[000599] Em algumas modalidades, a operação associada à localização geográfica e ao usuário inclui (2718) autorizar um pagamento do usuário para um comércio na respectiva localização geográfica (por exemplo, uma etapa na autorização de um pagamento a uma loja para selecionar uma localização no mapa que corresponde à localização da loja ao mesmo tempo em que uma impressão digital está em um sensor de impressão digital, conforme mostrado na Figura 26D).
[000600] Em algumas modalidades, a operação associada à localização geográfica e ao usuário inclui (2720) adicionar metadados à mídia, em que os metadados indicam que a mídia é associada à respectiva localização geográfica e ao usuário (por exemplo, a identificação geográfica de uma foto tirada pelo usuário ou do usuário adicionando- se metadados à foto que indicam que tanto uma localização onde a foto foi tirada quanto o usuário tirou a foto ou aparece na foto, conforme mostrado nas Figuras 26E a 26G).
[000601] Deve-se compreender que a ordem particular em que as operações na Figura 27 foram descritas é meramente exemplificativa e não se pretende indicar que a ordem descrita é a única ordem em que as operações podem ser realizadas. Um indivíduo de habilidade comum na técnica reconheceria várias maneiras de reordenar as opera- ções descritas no presente documento. Adicionalmente, deve-se notar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 2700 descrito acima em relação à Figura 27. Por exemplo, as impressões digitais, as entradas, os mapas e os seletores de foco descritos acima com referência ao método 2700 opcionalmente têm uma ou mais das características das impressões digitais, das entradas, dos mapas e dos seletores de foco descritos no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questões de brevidade, esses detalhes não são repetidos aqui.
[000602] De acordo com algumas modalidades, a Figura 28 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 2800 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É compreendido por pessoas de habilidade na técnica que os blocos funcionais descritos na Figura 28 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente apoia qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000603] Conforme mostrado na Figura 28, um dispositivo eletrônico 2800 inclui uma unidade de exibição 2802 configurada para exibir uma interface de usuário que inclui um mapa, uma unidade de sensor de impressão digital 2806; e uma unidade de processamento 2808 acoplada à unidade de exibição 2802 e à unidade de sensor de impressão digital 2806. Em algumas modalidades, o dispositivo inclui uma unidade de superfície sensível ao toque 2804 com uma unidade de sensor de impressão digital incorporada 2806-1. Em tais modalidades, a unidade de processamento é acoplada à unidade de superfície sensível ao toque 2804 junto com a unidade de sensor de impressão digital 2804-1. Em algumas modalidades, o dispositivo inclui uma unidade de sensor de impressão digital separada 2806-2. Em algumas modalidades, a unidade de processamento 2808 inclui uma unidade de detecção 2810, uma unidade de identificação 2812 e uma unidade de realização 2814.
[000604] A unidade de processamento 2808 é configurada para detectar uma entrada de ativação, em que a entrada de ativação é associada a uma localização exibida no mapa que corresponde a uma respectiva localização geográfica e a uma impressão digital detectada na unidade de sensor de impressão digital 2806. Em resposta à detecção da entrada de ativação: a unidade de processamento 2808 é configurada para identificar um usuário que corresponde à impressão digital e realizar uma operação associada à respectiva localização geográfica e o usuário.
[000605] Em algumas modalidades, a entrada de ativação é detectada em uma unidade de superfície sensível ao toque 2804 diferente da unidade de sensor de impressão digital 2804.
[000606] Em algumas modalidades, a entrada de ativação é detectada na unidade de sensor de impressão digital 2804.
[000607] Em algumas modalidades, a operação associada à respectiva localização geográfica e ao usuário inclui gerar uma mensagem que indica a presença do usuário na respectiva localização geográfica, conforme discutido em mais detalhes acima.
[000608] Em algumas modalidades, a operação associada à localização geográfica e ao usuário inclui autorizar um pagamento do usuá- rio a um comércio na respectiva localização geográfica, conforme discutido em mais detalhes acima.
[000609] Em algumas modalidades, a operação associada à localização geográfica e ao usuário inclui adicionar metadados à mídia, em que os metadados indicam que a mídia é associada à respectiva localização geográfica e o usuário, conforme discutido em mais detalhes acima.
[000610] As operações nos métodos de processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais em aparelhos de processamento de informações tais como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos ao aplicativo.
[000611] As operações descritas acima com referência à Figura 27 são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 28. Por exemplo, a operação de exibição 2702, a operação de detecção 2704 e a operação de identificação 2712 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de evento 180 e pelo manipulador de evento 190. O monitor de evento 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo de despachante de evento 174 entrega as informações de evento ao aplicativo 1361. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento com as respectivas definições de evento 186, e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento pre- definido ou subevento, tal como a seleção de um objeto em uma interface de usuário. Quando um respectivo evento predefinido ou sube- vento é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190 opcionalmente utiliza ou chama o atualiza- dor de dados 176 ou atualizador de objeto 177 para atualizar o estado interno do aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, ficaria claro para um indivíduo que tenha habilidade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B.
Atribuindo Espaços de Trabalho a Usuários
[000612] Muitos dispositivos eletrônicos têm interfaces de usuário gráficas que permitem que os usuários realizem uma variedade de funções e operações associadas às respectivas interfaces de usuário (por exemplo, opções de armazenamento de dados, aplicativos de edição de texto, aplicativos de desenho e similares). Adicionalmente, muitos dispositivos eletrônicos são compartilhados entre dois ou mais usuários. Ao mesmo tempo em que interage com tais dispositivos compartilhados, um usuário frequentemente deseja criar e definir um espaço de trabalho pessoal ou uma área de trabalho com operações e funções definidas de modo personalizado (por exemplo, uma lista personalizada de aplicativos, espaço de armazenamento de dados pessoal, opções de formatação de dados personalizadas tais como fontes de texto especificadas por usuário, larguras de linha, opções de desenho e similares) baseadas nas preferências do próprio usuário.
[000613] Algumas abordagens para os usuários criar seu próprio espaço de trabalho pessoal em um dispositivo compartilhado incluem a criação de contas de usuário separadas (por exemplo, com nomes de usuário separados e senhas para associar usuários às suas respectivas contas). Os usuários podem, então, efetuar login em suas respectivas contas com uso de seus respectivos nomes e senhas de usuário. Essas abordagens são limitadas de uma maneira que somente um usuário possa efetuar login em sua respectiva conta em qualquer dado momento no dispositivo compartilhado, fazendo com que seja difícil, dessa forma, que múltiplos usuários acessem simultaneamente suas contas no mesmo dispositivo compartilhado. Adicionalmente, essas abordagens exigem a navegação através de uma hierarquia de menus e definições para comutar entre espaços de trabalho que pode ser confusa e demorada para usuários.
[000614] As modalidades reveladas fornecem um método conveniente e eficiente para dividir um espaço de trabalho compartilhado em um dispositivo de múltiplas funções habilitando-se um usuário a definir uma área em um visor do dispositivo de múltiplas funções utilizando-se um ou mais contatos para definir o perímetro ou o limite da área. Com base pelo menos em uma impressão digital detectada nos um ou mais contatos utilizados pelo usuário para definir a área, o dispositivo associa a área ao respectivo usuário e associa a área às preferências e definições pessoais do usuário. Como um resultado, um ou mais usuários pode rápida e eficientemente definir respectivos espaços de trabalho ou áreas de trabalho no mesmo dispositivo físico e ter suas definições personalizadas associadas aos respectivos espaços de trabalho com base na identificação de impressão digital dos usuários.
[000615] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, a superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo de múltiplas funções portátil 100, o visor é tela sensível ao toque 112, e a superfície sensível ao toque inclui geradores de entrada tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência a 29A a 29S e 30A a 30B inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, os um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital inte- grados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, a superfície sensível ao toque separada 451 ou sistema de exibição sensível ao toque 112). Em algumas modalidades, os um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, a superfície sensível ao toque separada 451 ou sistema de exibição sensível ao toque 112). A não ser que seja especificado de outra forma, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e do software do dispositivo que inclui o sensor de impressão digital 169. Por conveniência de explicação, as modalidades descritas com referência às Figu-ras 29A a 29S e 30A a 30B serão discutidas com referência ao visor 450, a uma superfície sensível ao toque separada 451 e a um sensor de impressão digital separado 359-2, no entanto operações análogas são, opcionalmente, realizadas em um dispositivo com um sensor de impressão digital integrado 359-1 em resposta à detecção das entradas descritas nas Figuras 29A a 29S no sensor de impressão digital integrado 359-1 ao mesmo tempo em que se exibe as interfaces de usuário mostradas nas Figuras 29A a 29S no visor 450. Adicionalmente, as operações análogas são, opcionalmente, realizadas em um dispositivo com uma tela sensível ao toque 112 em resposta à detecção dos contatos descritos nas Figuras 29A a 29S em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) ao mesmo tempo em que se exibe as interfaces de usuário mostradas nas Figuras 29A a 29S na tela sensível ao toque 112; em tais modalidades, o seletor de foco é opcionalmente: um respectivo contato, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato) ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor exibido.
[000616] A Figura 29A ilustra uma primeira interface de usuário (por exemplo, uma interface de usuário de lançamento de aplicativo ou uma interface de tela inicial), com ícones selecionáveis por usuário (por exemplo, os ícones selecionáveis por usuário 424-446 que correspondem a uma pluralidade de aplicativos lançáveis), que é exibida em um visor 2900 de um dispositivo de múltiplas funções portátil 100. Em algumas modalidades, o visor 2900 é um visor sensível ao toque com um arranjo de sensores sensíveis ao toque que são responsivos ao toque. Em algumas modalidades, o arranjo de sensores sensíveis ao toque está em um plano coincidente (por exemplo, colocalizado ou coplanar) com um plano que defines os elementos de visor que formam o visor. Um visor combinado 2900 e a superfície sensível ao toque são, às vezes, referidos no presente documento como uma tela sensível ao toque 112. Em algumas modalidades, o dispositivo inclui uma superfície sensível ao toque (por exemplo, em um plano coincidente, colocalizado ou coplanar com o visor) com um arranjo de sensores sensíveis ao toque que são responsivos ao toque e a superfície sensível ao toque inclui uma capacidade de detecção de impressão digital (por exemplo, a superfície sensível ao toque inclui um arranjo de sensores de impressão digital com a capacidade de detectar impressões digitais com alta precisão espacial). Portanto, em algumas moda-lidades, o dispositivo tem a capacidade de detectar uma ou mais impressões digitais na superfície sensível ao toque e opcionalmente associar as uma ou mais impressões digitais a um ou mais usuários correspondentes do dispositivo.
[000617] As Figuras 29A a 29B ilustram a detecção de um primeiro conjunto de uma ou mais entradas (por exemplo, incluindo um ou mais contatos com um ou mais impressões digitais correspondentes) na tela sensível ao toque 112 que definem uma primeira área (por exemplo, delineiam um primeiro perímetro que limita uma primeira área) na tela sensível ao toque 112. As Figuras 29A a 29B ilustram adicionalmente a determinação de que um primeiro contato nos um ou mais contatos inclui uma primeira impressão digital associada a um primeiro usuário. Consequentemente, as Figuras 29A a 29B ilustram que o dispositivo associa a primeira área ao primeiro usuário (por exemplo, como um espaço de trabalho para o primeiro usuário com definições de trabalho personalizadas para o primeiro usuário).
[000618] Conforme mostrado na Figura 29A, o dispositivo detecta um primeiro conjunto de uma ou mais entradas que inclui contatos com impressões digitais correspondentes 2902-a, 2902-b, 2902-c, e 2902- d) na tela sensível ao toque 112 do dispositivo 100. O primeiro conjunto de entradas (por exemplo, que inclui impressões digitais correspondentes 2902-a, 2902-b, 2902-c, e 2902-d) define um perímetro (por exemplo, substancialmente retangular) que forma a borda ou o limite de uma primeira área (por exemplo, substancialmente retangular) na superfície de tela sensível ao toque do dispositivo. Conforme mostrado na Figura 29B, o dispositivo determina que uma ou mais das impres-sões digitais 2902-a, 2902-b, 2902-c, e 2902-d são associadas a um primeiro usuário (por exemplo, Jim). Consequentemente, o dispositivo associa (por exemplo, designa) a primeira área da tela sensível ao toque 112 ao primeiro usuário (por exemplo, com base em uma comparação das impressões digitais detectadas com recursos de impressão digital de impressões digitais do usuário que determina que as impressões digitais detectadas são compatíveis com as impressões digitais do usuário). Por exemplo, a primeira área é um espaço de trabalho que é designado a Jim e inclui os aplicativos preferenciais (por exemplo, definidos de modo personalizado) de Jim (por exemplo, e ícones de lançamento de aplicativo correspondentes). Conforme mostrado na Figura 29B, um usuário tem a inconveniência aprimorada de marcar, delinear e designar seu espaço de trabalho pessoal (por exemplo, a partir de um espaço de trabalho compartilhado), em um dispositivo de múltiplas funções, com suas definições preferenciais personalizadas, simplesmente utilizando-se uma ou mais entradas (por exemplo, com um ou mais contatos que tem uma ou mais impressões digitais correspondentes) para definir o limite ou o perímetro de uma área para o espaço de trabalho pessoal.
[000619] Ao longo de linhas similares, a Figura 29C ilustra uma segunda interface de usuário (por exemplo, uma interface de usuário de aplicativo de edição de texto ou bloco de notas) com uma lista de notas (por exemplo, notas mais recentemente criadas ou editadas por um ou mais usuários), em um espaço de trabalho comum, que é exibida na tela sensível ao toque 112 de um dispositivo de múltiplas funções portátil 100. As Figuras 29C a 29D ilustram a detecção de um primeiro conjunto de uma ou mais entradas (por exemplo, que inclui uma ou mais impressões digitais 2906-a, 2906-b, 2906-c, e 2906-d) associado a um primeiro usuário (por exemplo, Mark) na tela sensível ao toque 112, onde o primeiro conjunto de uma ou mais entradas define uma primeira área.
[000620] Conforme mostrado na Figura 29D, o primeiro conjunto de uma ou mais entradas é associado a (por exemplo, define o limite ou perímetro de) uma primeira área (por exemplo, espaço de trabalho retangular de edição de texto 2908) associada ao primeiro usuário (por exemplo, com Mark) com base pelo menos na determinação de que o primeiro conjunto de entradas inclui uma ou mais impressões digitais que correspondem ao primeiro usuário. Conforme mostrado na Figura 29D, o texto inserido pelo primeiro usuário na primeira área (por exemplo, a nova nota por Mark inserida por meio de um segundo con- junto de uma ou mais entradas) é associado a uma primeira operação (por exemplo, o texto inserido na primeira área é exibido e formado de acordo com definições personalizadas tais como fonte, tamanho de texto, formatação e similares) com base nas preferências do primeiro usuário (por exemplo, Mark). Conforme mostrado nas Figuras 29E a 29F, o dispositivo detecta um terceiro conjunto de uma ou mais entradas (por exemplo, o contato 2910) na tela sensível ao toque 112 fora da primeira área (por exemplo, fora do espaço de trabalho retangular de edição de texto 2908). Se o dispositivo detectar entradas que correspondem à criação de uma nova nota que não foram associadas à área do visor, então uma nova nota seria gerada com uso de preferências padrões (por exemplo, preferências de fonte, tamanho de texto e formatação diferentes). Conforme mostrado nas Figuras 29E a 29F de acordo com uma determinação de que o terceiro conjunto de uma ou mais entradas (por exemplo, o contato 2910) está fora da primeira área, o dispositivo realiza uma segunda operação (por exemplo, minimiza a nova nota por Mark para exibir novamente a lista de notas recentemente criadas ou editadas).
[000621] Portanto, em algumas modalidades, após marcar, delinear, definir ou designar seu espaço de trabalho pessoal (por exemplo, a partir de um espaço de trabalho compartilhado), em um dispositivo de múltiplas funções, o usuário tem a conveniência aprimorada de realizar uma primeira operação (por exemplo, de acordo com ou associada às suas definições preferenciais personalizadas) simplesmente colocando-se um ou mais contatos dentro da primeira área (por exemplo, que corresponde ao seu espaço de trabalho pessoal); e de realizar uma segunda operação (por exemplo, descartar o espaço de trabalho personalizado ou gerar uma nova de acordo com preferências padrões) colocando-se um ou mais contatos fora da primeira área.
[000622] Como ainda outro exemplo, a Figura 29G ilustra uma tercei- ra interface de usuário (por exemplo, uma interface de usuário de aplicativo de desenho), com um espaço de trabalho compartilhado comum (por exemplo, entre um ou mais usuários) para criar desenhos, que é exibida na tela sensível ao toque 112 do dispositivo de múltiplas funções portátil 100. A Figura 29H ilustra a detecção de um primeiro conjunto de uma ou mais entradas (por exemplo, que inclui uma ou mais impressões digitais 2912-a, 2912-b, 2912-c, e 2912-d) associado a um primeiro usuário (por exemplo, Mark) na tela sensível ao toque 112. Conforme mostrado na Figura 291, o primeiro conjunto de uma ou mais entradas define uma primeira área (por exemplo, espaço de trabalho de desenho retangular 2913) associada ao primeiro usuário (por exemplo, com Mark) com base pelo menos na determinação de que o primeiro conjunto de entradas inclui uma ou mais impressões digitais que correspondem ao primeiro usuário (por exemplo, que correspondem a Mark).
[000623] As Figuras 29J a 29K ilustram adicionalmente a detecção de um segundo conjunto de uma ou mais entradas (por exemplo, um contato 2914) na tela sensível ao toque 112 dentro da primeira área (por exemplo, dentro do espaço de trabalho de desenho retangular de Mark 2913) e atribuição do contato ao primeiro usuário. Por exemplo, mediante a detecção do contato 2914 dentro do espaço de trabalho de desenho de Mark 2913, o dispositivo realiza uma primeira operação de acordo com definições personalizadas associadas ao primeiro usuário (por exemplo, o dispositivo assume o formato e delineia o formato desenhado na primeira área, através do movimento do contato 2914, com base nas preferências ou definições personalizadas de Mark tais como preferências de cor, definições de limite e similares). Por outro lado, conforme mostrado nas Figuras 29K a 29L o dispositivo detecta um terceiro conjunto de uma ou mais entradas (por exemplo, um contato 2916) na tela sensível ao toque 112 fora da primeira área (por exemplo, fora do espaço de trabalho de desenho retangular de Mark 2913) e realiza uma segunda operação (por exemplo, de acordo com ou associada a definições padrões, tais como definições de cor padrão ou limite e preenchimento que são distintas das definições personalizadas de Mark conforme mostrado na Figura 29L).
[000624] Conforme mostrado nas Figuras 29M a 29Q, embora a primeira área seja associada ao primeiro usuário, um quarto conjunto de uma ou mais entradas (por exemplo, que inclui uma ou mais instâncias de uma impressão digital em movimento 2918) associado a um segundo usuário (por exemplo, Jane) é detectado na tela sensível ao toque 112. Conforme mostrado nas Figuras 29M-29Q, o quarto conjunto de uma ou mais entradas define uma segunda área (por exemplo, espaço de trabalho de desenho retangular 2919) associada ao segundo usuário (por exemplo, com Jane) com base pelo menos na determinação de que o quarto conjunto de entradas inclui uma ou mais impressões digitais (por exemplo, impressão digital 2918) que correspondem ao segundo usuário (por exemplo, que correspondem a Jane). Conforme mostrado na Figura 29Q, a segunda área (por exemplo, espaço de trabalho de desenho retangular 2919) é próxima à margem direita vertical do visor (por exemplo, com referência à orientação do dispositivo mostrado na Figura 29Q). Consequentemente, a segunda área (que inclui um ou mais objetos de interface de usuário na segunda área) é orientada com uso da margem direita vertical do visor como o fundo da exibição da segunda área.
[000625] Conforme mostrado nas Figuras 29R a 29S, o dispositivo detecta um segundo conjunto de uma ou mais entradas (por exemplo, um contato 2920) na tela sensível ao toque 112 dentro da segunda área (por exemplo, dentro do espaço de trabalho de desenho retangular de Jane 2919) e atribui o contato 2920 ao segundo usuário (por exemplo, a Jane). Por exemplo, mediante a detecção do contato 2919 dentro do espaço de trabalho de desenho de Jane 2919, o dispositivo realiza uma segunda operação de acordo com definições personalizadas associadas ao segundo usuário (por exemplo, o dispositivo assume o formato e delineia o formato desenhado na segunda área através do movimento do contato 2919 com base nas preferências ou definições personalizadas de Jane tais como definições de cor, limite e similares). Conforme mostrado na Figura 29S, as preferências de Jane especificam uma largura de linha mais fina e um preenchimento mais leve para objetos do que a largura de linha e preenchimento especificados pelas preferências de Mark.
[000626] Portanto, em algumas modalidades, após um primeiro usuário definir seu espaço de trabalho pessoal (por exemplo, a partir de um espaço de trabalho compartilhado) em um dispositivo de múltiplas funções, um segundo usuário pode simultaneamente definir seu próprio espaço de trabalho (por exemplo, distinto do espaço de trabalho do primeiro usuário). Como um resultado, dois ou mais usuários podem compartilhar simultaneamente um espaço de trabalho em um dispositivo de múltiplas funções dividindo-se em suas respectivas áreas de trabalho com uso de um perímetro definido por seus respectivos contatos de dedo; o dispositivo associa, então, as respectivas áreas de trabalho dos usuários individuais aos respectivos usuários com base em suas respectivas impressões digitais. Em algumas modalidades, os espaços de trabalho separados correspondem a diferentes documentos (por exemplo, um documento de desenho para Mark e um docu-mento de desenho separado para Jane, de modo que, quando as áreas 2913 e 2919 forem descartadas, os objetos desenhados por Mark e Jane sejam salvos em documentos separados associados ao respectivo usuário que desenhou o objeto). Em algumas modalidades, os espaços de trabalho separados correspondem a diferentes espaços de trabalho no mesmo documento (por exemplo, Mark e Jane estão fazendo contribuições a diferentes porções do mesmo documento, de modo que, quando as áreas 2913 e 2919 forem descartadas, os objetos desenhados por Mark e Jane continuem a serem mostrados no mesmo documento).
[000627] As Figuras 30A a 30B são fluxogramas que ilustram um método 3000 de atribuição de associação de áreas de uma superfície sensível ao toque a um ou mais usuários de acordo com algumas modalidades. O método 3000 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou o dispositivo de múltiplas funções portátil 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 3000 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000628] Conforme descrito abaixo, o método 3000 fornece uma maneira intuitiva de associar áreas de uma superfície sensível ao toque a um ou mais usuários. O método reduz a carga cognitiva em um usuário durante a seleção de um espaço de trabalho, criando, dessa forma, uma interface humano-máquina mais eficiente. Para dispositivos eletrônicos operados por bateria, habilitar um usuário para selecionar ou autodesignar um espaço de trabalho mais rapidamente e mais eficientemente conserva energia e aumenta o tempo entre cargas de bateria.
[000629] O dispositivo detecta (3002) um primeiro conjunto de uma ou mais entradas na superfície sensível ao toque que definem uma primeira área da superfície sensível ao toque. Por exemplo, o dispositivo detecta um usuário que delineia uma área da superfície sensível ao toque com um dedo (por exemplo, conforme explicado com referência às Figuras 29M-29P) ou detecta um usuário colocando 2, 3 ou 4 dedos no visor simultaneamente para identificar cantos de um espaço de trabalho (por exemplo, conforme explicado com referência às Figuras 29A, 29C, e 29H). Em algumas modalidades, a primeira área da superfície sensível ao toque é (3004) uma área de um visor de tela sensível ao toque (por exemplo, a primeira área 2904, Figura 29B; a primeira área 2908, Figura 29D; a primeira área 2913, Figura 51).
[000630] Após a detecção (3006), o primeiro conjunto de uma ou mais entradas (por exemplo, em resposta à detecção do primeiro conjunto de uma ou mais entradas): o dispositivo determina (3008) que o primeiro conjunto de uma ou mais entradas inclui um primeiro contato que inclui uma primeira impressão digital associada a um primeiro usuário (por exemplo, impressões digitais 2902-a, 2902-b, 2902-c e 2902-d associadas a Jim, Figuras 29A a 29B; impressões digitais 2906-a, 2906-b, 2906-c e 2906-d associadas a Mark, Figuras 29C29D; impressões digitais 2912-a, 2912-b, 2912-c e 2912-d associadas a Mark, Figuras 29H-29I). O dispositivo associa (3010) a primeira área da superfície sensível ao toque com o primeiro usuário com base, pelo menos em parte, na determinação de que o primeiro conjunto de uma ou mais entradas inclui o primeiro contato que inclui a primeira impressão digital associada ao primeiro usuário (por exemplo, primeira área 2904 associada a Jim, Figura 29B; a primeira área 2908 associada a Mark, Figura 29D; a primeira área 2913 associada a Mark, Figura 29I). Portanto, em algumas modalidades, um usuário pode selecionar uma porção de um espaço de trabalho compartilhado na superfície sensível ao toque como o espaço de trabalho do usuário traçando-se uma deli- neação de uma área no espaço de trabalho compartilhado com uso de um ou mais contatos que incluem impressões digitais associadas ao usuário. O usuário pode, então, utilizar seu espaço de trabalho individual para realizar operações específicas a usuário que são associadas ao usuário (por exemplo, utilizar aplicativos personalizados conforme explicado com referência à Figura 29B; utilizar fontes e tamanhos de letra personalizados conforme explicado com referência à Figura 29D; utilizar uma largura de linha e definição de limite e cor de formato ou preenchimento personalizados conforme explicado com referência à Figura 29K).
[000631] Em algumas modalidades, após a associação da primeira área da superfície sensível ao toque ao primeiro usuário, o dispositivo exibe (3012) uma indicação visual da extensão da primeira área. Por exemplo, o dispositivo exibe uma borda ao redor da primeira área (por exemplo, uma borda ao redor da primeira área 2904 associada a Jim, Figura 29B; ou ao redor da primeira área 2908 associada a Mark, Figura 29D; ou ao redor da primeira área 2913 associada a Mark, Figura 291).
[000632] Em algumas modalidades, embora a primeira área da superfície sensível ao toque seja associada (3014) ao primeiro usuário, o dispositivo realiza uma ou mais etapas descritas com referência às operações 3016 a 3034. O dispositivo detecta (3016) um segundo conjunto de uma ou mais entradas na primeira área. O dispositivo atribui (3018) o segundo conjunto de uma ou mais entradas ao primeiro usuário. Por exemplo, o dispositivo realiza um ou mais operações em resposta à detecção do segundo conjunto de uma ou mais entradas na primeira área, armazena dados gerados de acordo com o segundo conjunto de uma ou mais entradas em uma localização de armazena-mento associada ao primeiro usuário ou trata, de outra forma, o segundo conjunto de uma ou mais entradas como os mesmos fossem entradas do primeiro usuário. Em algumas modalidades, o segundo conjunto de uma ou mais entradas é atribuído ao primeiro usuário baseado na localização das entradas na primeira área sem exigir outras indicações de que o segundo conjunto de uma ou mais entradas corresponde ao usuário. Por exemplo, o dispositivo não identifica impres- sões digitais de contatos no segundo conjunto de uma ou mais entradas. Ao invés disso, assume-se que gestos que ocorrem na primeira área sejam entradas pelo primeiro usuário.
[000633] Em algumas modalidades, o dispositivo detecta (3020) um terceiro conjunto de uma ou mais entradas. Em resposta à detecção (3022) do terceiro conjunto de uma ou mais entradas: de acordo com uma determinação de que o terceiro conjunto de uma ou mais entradas é detectado dentro da primeira área, o dispositivo realiza uma primeira operação (por exemplo, o dispositivo realiza uma operação de edição de texto de acordo com as preferências de fonte do primeiro usuário conforme explicado com referência à Figura 29D; ou mediante a detecção do contato 2914 dentro da primeira área 2913, o dispositivo utiliza a largura de linha personalizada do primeiro usuário e preenchimento de formato para um desenho, conforme explicado com referência às Figuras 29J-29K); e de acordo com uma determinação de que o terceiro conjunto de uma ou mais entradas é detectado fora da primeira área, o dispositivo realiza uma segunda operação diferente da primeira operação (por exemplo, mediante a detecção do contato 2910 fora da primeira área 2908, o dispositivo minimiza a nova nota criada pelo primeiro usuário e reexibe uma lista de notas recentemente criada ou editada, explicado com referência à Figura 29E; mediante a detecção do contato 2916 fora da primeira área 2913, o dispositivo utiliza uma largura de linha e preenchimento de formato padrão para um desenho, conforme explicado com referência às Figuras 29K a 29L). Por exemplo, as entradas na primeira área são traduzidas em elementos visuais de acordo com preferências de usuário do primeiro usuário (por exemplo, preferência de fonte de texto, preferência de cor de texto, preferência de lar- gura/cor de linha, opções de dicionário ou autocorreção padrões, ou definições padrões de barra de ferramentas de aplicativo associadas ao primeiro usuário), ao mesmo tempo em que as entradas fora da primei- ra área são traduzidas em elementos visuais de acordo com preferências de usuário padrões (por exemplo, preferência de fonte de texto padrão, preferência de cor de texto padrão, preferência de cor/largura de linha padrão, opções de dicionário ou autocorreção padrões ou definições padrões de barra de ferramentas de aplicativo).
[000634] Em algumas modalidades, o dispositivo detecta (3024) um quarto conjunto de uma ou mais entradas na superfície sensível ao toque que definem uma segunda área da superfície sensível ao toque (por exemplo, movimento do contato que inclui a impressão digital 2918 que define a segunda área 2919, Figura 29Q). Por exemplo, o dispositivo detecta um segundo usuário que delineia uma área da superfície sensível ao toque (por exemplo, conforme explicado com referência às Figuras 29M a 29Q) com um dedo ou colocando 2, 3 ou 4 dedos no visor simultaneamente para identificar cantos de um espaço de trabalho for o segundo usuário. O dispositivo determina (3026) que o quarto conjunto de uma ou mais entradas inclui um segundo contato que inclui uma segunda impressão digital associada a um segundo usuário (por exemplo, impressão digital 2918 associada a Jane, Figura 29Q). O dispositivo associa (3028) a segunda área da superfície sensível ao toque com o segundo usuário com base, pelo menos em parte, em a determinação de que o quarto conjunto de uma ou mais entradas inclui o se-gundo contato que inclui a segunda impressão digital associada ao segundo usuário (por exemplo, o dispositivo associou a segunda área 2919 a Jane com base pelo menos na determinação de que a impressão digital 2918 é associada à Jane). Em algumas modalidades, a segunda área da superfície sensível ao toque é distinta (por exemplo, não sobrepõe) da primeira área da superfície sensível ao toque.
[000635] Em algumas modalidades, embora a primeira área da superfície sensível ao toque seja associada ao primeiro usuário e a segunda área da superfície sensível ao toque seja associada ao segundo usuário, o dispositivo detecta (3030) um quinto conjunto de uma ou mais entradas. Em resposta à detecção do quinto conjunto de uma ou mais entradas: de acordo com uma determinação (3032) de que o quinto conjunto de uma ou mais entradas é detectado dentro primeira área, o dispositivo realiza uma primeira operação (por exemplo, mediante a detecção do contato 2914 dentro da primeira área 2913, o dispositivo utiliza definições personalizadas para largura de linha ou preenchimento de formato com base nas preferências de Mark, conforme explicado com referência às Figuras 29J-29K); e de acordo com uma determinação de que o quinto conjunto de uma ou mais entradas é detectado dentro da segunda área, o dispositivo realiza uma segunda operação diferente da primeira operação (por exemplo, mediante a detecção do contato 2920 dentro da segunda área 2919, o dispositivo utiliza definições personalizadas para largura de linha ou preenchimento de formato com base nas preferências de Jane, conforme explicado com referência às Figuras 29R a 29S). Por exemplo, as entradas na primeira área são traduzidas em elementos visuais de acordo com preferências de usuário do primeiro usuário (por exemplo, cor de marcação de texto, preferência de fonte de texto, preferência de cor de texto, preferência de cor/largura de linha, opções de dicionário ou autocorre- ção padrões, e/ou definições padrões de barra de ferramentas de aplicativo associadas ao primeiro usuário), ao mesmo tempo em que entradas na segunda área são traduzidas em elementos visuais de acordo com usuário preferências do segundo usuário (por exemplo, cor de marcação de texto, preferência de fonte de texto, preferência de cor de texto, preferência de cor/largura de linha, opções de dicionário ou au- tocorreção padrões, e/ou definições padrões de barra de ferramentas de aplicativo associadas ao segundo usuário).
[000636] Em algumas modalidades, a primeira área é próxima a uma primeira margem do visor (por exemplo, a primeira área 2913 é próxi- ma à margem inferior horizontal do visor com referência à orientação do dispositivo mostrado nas Figuras 29G-29S); um ou mais primeiros objetos de interface de usuário exibidos na primeira área são orientados com uso da primeira margem como o fundo do visor (por exemplo, o espaço de trabalho de desenho de Mark é orientado com uso da margem inferior horizontal como o fundo, conforme explicado com referência às Figuras 29I-29L); a segunda área é próxima a uma segunda margem do visor, diferente da primeira margem do visor (por exemplo, a segunda área 2919 é próxima à margem direita vertical do visor com referência à orientação do dispositivo mostrado nas Figuras 29G-29S); e um ou mais segundos objetos de interface de usuário exibidos na segunda área são orientados com uso da segunda margem como o fundo do visor (por exemplo, o espaço de trabalho de desenho de Jane é orientado com uso da margem direita vertical como o fundo, conforme explicado com referência às Figuras 29Q a 29S). Por exemplo, o dispositivo orienta objetos de texto/gráficos na primeira área de modo que os "fundos" de objetos/texto estejam na direção de uma margem do visor mais próximo à primeira área. De modo similar, o dispositivo orienta objetos de texto/gráficos objetos na segunda área de modo que os "fundos" de objetos/texto estejam na direção de uma margem do visor mais próximo à segunda área.
[000637] Deve-se compreender que a ordem particular em que as operações nas Figuras 30A a 30B foram descritas é meramente exemplificativa e não se pretende indicar que a ordem descrita é a única ordem em que as operações podem ser realizadas. Um indivíduo de habilidade comum na técnica reconheceria várias maneiras de reordenar as operações descritas no presente documento. Adicionalmente, deve-se notar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 3000 descrito acima em relação às Figuras 30A a 30B. Por exemplo, as impressões digitais, os contatos, os objetos de interface de usuário, as entradas, as indicações visuais descritos acima com referência ao método 3000 opcionalmente têm uma ou mais das características das impressões digitais, dos contatos, dos objetos de interface de usuário, das entradas e das indicações visuais descritas no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questões de brevidade, esses detalhes não são repetidos aqui.
[000638] De acordo com algumas modalidades, a Figura 31 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 3100 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por hardware, software ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É compreendido por pessoas de habilidade na técnica que os blocos funcionais descritos na Figura 31 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento opcionalmente apoia qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000639] Conforme mostrado na Figura 31, um dispositivo eletrônico 3100 inclui uma unidade de exibição 3102 configurada para exibir um ou mais objetos de interface de usuário, uma unidade de superfície sensível ao toque 3104 configurada para receber um contato na unidade de superfície sensível ao toque 3104, uma unidade de sensor de impressão digital 3106; e uma unidade de processamento 3108 acoplada à unidade de exibição 3102, à unidade de superfície sensível ao toque 3104 e à unidade de sensor de impressão digital 3106. Em algumas modalidades, a unidade de processamento 3108 inclui uma unidade de detecção 3110, uma unidade de determinação 3112, uma unidade de associação 3114, uma unidade de habilitação de exibição 3116, uma unidade de atribuição 3118 e uma unidade de realização 3120.
[000640] A unidade de processamento 3108 é configurada para: detectar um primeiro conjunto de uma ou mais entradas na unidade de superfície sensível ao toque 3104 que definem uma primeira área da unidade de superfície sensível ao toque 3104 (por exemplo, com a unidade de detecção 3110); e após detectar o primeiro conjunto de uma ou mais entradas: determinar que o primeiro conjunto de uma ou mais entradas inclui um primeiro contato que inclui uma primeira impressão digital associada a um primeiro usuário (por exemplo, com a unidade de determinação 3112); e associar a primeira área da unidade de superfície sensível ao toque 3104 ao primeiro usuário com base, pelo menos em parte, na determinação de que o primeiro conjunto de uma ou mais entradas inclui o primeiro contato que inclui a primeira impressão digital associada ao primeiro usuário (por exemplo, com a unidade de associação 3114).
[000641] Em algumas modalidades, a primeira área da unidade de superfície sensível ao toque 3104 é uma área de um visor de tela sensível ao toque.
[000642] Em algumas modalidades, a unidade de processamento 3108 é configurada para, após associar a primeira área da unidade de superfície sensível ao toque 3104 ao primeiro usuário, habilitar a exibição de uma indicação visual da extensão da primeira área (por exemplo, com a unidade de habilitação de exibição 3116).
[000643] Em algumas modalidades, a unidade de processamento 3108, ao mesmo tempo em que a primeira área da unidade de superfície sensível ao toque 3104 é associada ao primeiro usuário, é configurada para: detectar um segundo conjunto de uma ou mais entradas na primeira área (por exemplo, com a unidade de detecção 3110); e atribuir o segundo conjunto de uma ou mais entradas ao primeiro usuário (por exemplo, com a unidade de atribuição 3118).
[000644] Em algumas modalidades, a unidade de processamento 3108 é configurada para: ao mesmo tempo em que a primeira área da unidade de superfície sensível ao toque 3104 é associada ao primeiro usuário, detectar um terceiro conjunto de uma ou mais entradas (por exemplo, com a unidade de detecção 3110); e em resposta à detecção do terceiro conjunto de uma ou mais entradas: de acordo com uma determinação de que o terceiro conjunto de uma ou mais entradas é detectado dentro da primeira área, realizar uma primeira operação (por exemplo, com a unidade de realização 3120); e de acordo com uma determinação de que o terceiro conjunto de uma ou mais entradas é detectado fora da primeira área, realizar uma segunda operação diferente da primeira operação (por exemplo, com a unidade de realização 3120).
[000645] Em algumas modalidades, a unidade de processamento 3108 é configurada para: ao mesmo tempo em que a primeira área da unidade de superfície sensível ao toque 3104 é associada ao primeiro usuário, detectar um quarto conjunto de uma ou mais entradas na unidade de superfície sensível ao toque que definem uma segunda área da unidade de superfície sensível ao toque 3104 (por exemplo, com a unidade de detecção 3110); determinar que o quarto conjunto de uma ou mais entradas inclui um segundo contato que inclui uma segunda impressão digital associada a um segundo usuário (por exemplo, com a unidade de determinação 3112); e associar a segunda área da unidade de superfície sensível ao toque 3104 ao segundo usuário com base, pelo menos em parte, na determinação de que o quarto conjunto de uma ou mais entradas inclui o segundo contato que inclui a segun-da impressão digital associada ao segundo usuário (por exemplo, com a unidade de associação 3114).
[000646] Em algumas modalidades, a unidade de processamento 3108 é configurada para: ao mesmo tempo em que a primeira área da unidade de superfície sensível ao toque 3104 é associada ao primeiro usuário e a segunda área da unidade de superfície sensível ao toque 3104 é associada ao segundo usuário, detectar um quinto conjunto de uma ou mais entradas (por exemplo, com a unidade de detecção 3110); e em resposta à detecção do quinto conjunto de uma ou mais entradas: de acordo com uma determinação de que o quinto conjunto de uma ou mais entradas é detectado dentro da primeira área, realizar uma primeira operação (por exemplo, com a unidade de realização 3120); e de acordo com uma determinação de que o quinto conjunto de uma ou mais entradas é detectado dentro da segunda área, realizar uma segunda operação diferente da primeira operação (por exemplo, com a unidade de realização 3120).
[000647] Em algumas modalidades, a primeira área é próxima a uma primeira margem da unidade de exibição 3102; um ou mais primeiros objetos de interface de usuário exibidos na primeira área são orientados com uso da primeira margem como o fundo da unidade de exibição 3102; a segunda área é próxima a uma segunda margem da unidade de exibição 3102, diferente da primeira margem da unidade de exibição 3102; e um ou mais segundos objetos de interface de usuário exibidos na segunda área são orientados com uso da segunda margem como o fundo da unidade de exibição 3102.
[000648] As operações nos métodos de processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais em aparelhos de processamento de informações tais como processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou chips específicos ao aplicativo.
[000649] As operações descritas acima com referência às Figuras 30A a 30B são, opcionalmente, implantadas por componentes retratados nas Figuras 1A a 1B ou na Figura 31. Por exemplo, a operação de detecção 3002, a operação de determinação 3008 e a operação de associação 3010 são, opcionalmente, implantadas pelo classificador de eventos 170, pelo reconhecedor de evento 180 e pelo manipulador de evento 190. O monitor de evento 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112, e o módulo de despachante de evento 174 entrega as informações de evento ao apli-cativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento com as respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento predefinido ou subevento, tal como a seleção de um objeto em uma interface de usuário. Quando um respectivo evento predefinido ou subevento é detectado, o reconhecedor de evento 180 ativa um mani-pulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190 opcionalmente utiliza ou chama o atuali- zador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno do aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, ficaria claro para um indivíduo que tenha habilidade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B. Treinar um Usuário nos Conjuntos de Procedimentos de Movimento de Dedos Apropriados
[000650] Realizar tarefas de modo eficiente tais como digitar em um dispositivo eletrônico e tocar um piano ou teclado elétrico exige que um usuário utilize conjuntos de procedimentos de movimento de dedo apropriados. Por exemplo, um conjunto de procedimentos conhecido como "digitação sensível ao toque" foi desenvolvido para aprimorar a velocidade e precisão de um usuário durante a digitação em um teclado (por exemplo, um teclado QWERTY associado a um dispositivo eletrônico ou máquina de escrever). Esse conjunto de procedimentos envolve a colocação leve por um usuário de oito dedos (excluindo seus polegares direito e esquerdo) ao longo da fileira do meio de letras em um teclado QWERTY (por exemplo, o dedo mínimo, o dedo anular, o dedo médio e o indicador esquerdos do usuário são colocados nas teclas "A", "S", "D", e "F", respectivamente, e o indicador, o dedo médio, o dedo anular e o dedo mínimo direitos do usuário são colocados nas teclas "J", "K", "L", e ";", respectivamente). Com uso dessa configuração inicial como uma posição de mão de base, cada tecla do teclado é atribuída a um dedo que deve ser utilizado para pressionar a tecla, fazendo com que a letra associada à tecla pressionada seja digitada em um dispositivo conectado (por exemplo, um dispositivo eletrônico tal como um computador, ou máquina de escrever). Quando proficiente na digitação sensível ao toque, um usuário pode contar com a memória muscular, ao invés da identificação visual, para digitar uma cadeia de letras, aumentado sua eficiência. Métodos convencionais para treinar um usuário no conjunto de procedimentos de digitação apropriada incluem instruções para um usuário pressionar uma tecla particular com um dedo correspondente e/ou realizar uma série de exercícios práticos. No entanto, embora o computador possa fornecer retroalimentação quanto à precisão das letras que são digitadas, o computador não pode fornecer ao usuário retroalimentação quanto a se os mesmos utilizaram o dedo correto para pressionar as respectivas teclas no teclado.
[000651] Da mesma forma, tocar um teclado musical com alta proficiência exige conjunto de procedimentos de movimento de dedos apropriado, tanto para produzir qualidade de som consistente (por exemplo, pressionando-se as teclas com conjunto de procedimentos apropriado) quanto para alcançar velocidade e precisão adequados (por exemplo, pressionando-se simultaneamente uma combinação de teclas em um acorde ou pressionando-se serialmente uma série de teclas em uma passagem musical). Métodos convencionais para treinar um músico para tocar um teclado musical (por exemplo, um piano) incluem aulas individuais (por exemplo, "privadas") com um instrutor, que pode demonstrar o conjunto de procedimentos apropriado e fornecer retroalimentação ao músico aprendiz. No entanto, aulas privadas podem ser proibitivamente caras e tipicamente precisam ser agendadas com bastante antecedência. Alternativamente, existem programas que habilitam um usuário a conectar um teclado a um dispositivo eletrônico ou permitem o uso de um dispositivo eletrônico com uma superfície sensível ao toque como um teclado proxy. Similar a programas utilizados para aprender a digitar em um computador, esses programas podem fornecer retroalimentação sobre a precisão das notas sendo tocadas, porém não sobre o conjunto de procedimentos de movimento de dedos do usuário.
[000652] Em modalidades descritas abaixo, métodos e interfaces de usuário aprimorados para treinar conjuntos de procedimentos de movimento de dedos apropriados (por exemplo, para digitar ou tocar um teclado musical) são alcançados em um dispositivo eletrônico detectando-se contatos de dedo e analisando-se as impressões digitais associadas aos contatos de dedo. Dessa maneira, o dispositivo eletrônico pode determinar quais dedos, e em algumas modalidades qual porção das pontas de dedo, foram utilizados para fazer os contatos. Vantajosamente, diferente de métodos eletrônicos convencionais para treinar digitar e tocar o teclado musical, os métodos e interfaces de usuário descritos abaixo fornecem retroalimentação que indica se os conjuntos de procedimentos de movimento de dedos apropriados es- tão sendo utilizados (por exemplo, se os dedos corretos estão sendo utilizados para digitar, se o usuário está realizando o contato com um teclado musical na elevação e direção corretas e se combinações apropriadas de dedos estão sendo utilizadas para tocar acordes e passagens musicais). Adicionalmente, os métodos e interfaces de usuário descritos abaixo podem ser utilizados para ensinamento autônomo, eliminando os custos e as restrições de agendamento associados a ter aulas de música privadas.
[000653] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo portátil de múltiplas funções 100, o visor tem tela sensível ao toque 112 e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência a 32A a 32S e 33A a 33C inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integra-dos 359-1 (Figura 4B) que são integrados dentro da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Exceto quando especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Visando a conveni- ência da explicação, as modalidades descritas com referência às Figuras 32A a 32S e 33A a 33C a uma tela sensível ao toque 112 com um sensor de impressão digital integrado 359-1 (por exemplo, uma tela sensível ao toque 112 com uma resolução espacial que é alta o suficiente para detectar os recursos de impressão digital formado por cristas individuais de impressão digital), entretanto, as operações análogas são, opcionalmente, realizadas em um dispositivo com um sensor de impressão digital separado 359-1 em resposta à detecção das entradas descritas nas Figuras 32A a 32S no sensor de impressão digital integrado 359-1 enquanto exibe as interfaces de usuário mostradas nas Figuras 32A a 32S no visor 450.
[000654] As Figuras 32A a 32S ilustram o dispositivo de múltiplas funções 100 que tem uma tela sensível ao toque 112 com uma resolução espacial que é alta o suficiente para detectar os recursos de impressão digital formados pelas cristas individuais de impressão digital, de modo a permitir que os mesmos sejam usados como sensores de impressão digital. Em algumas modalidades, o dispositivo de múltiplas funções 100, alternativamente ou adicionalmente, tem um sensor de impressão digital separado 169. As Figuras 32A a 32P ilustram a interface de usuário 3200 exibidas na tela sensível ao toque 112, sendo que a interface de usuário 3200 inclui teclado musical 3201 que tem uma pluralidade de objetos de interface de usuário ativáveis (por exemplo, as teclas 3202-1 a 3202-24). As Figuras 32Q a 32S ilustram a interface de usuário 3240 exibida na tela sensível ao toque 112, sendo que a interface de usuário 3240 inclui teclado QWERTY de inserção de caracteres 3222 que tem uma pluralidade de objetos de interface de usuário ativáveis (por exemplo, as teclas 3232-1 a 3232-41). As Figuras 32C a 32K e 32M incluem o medidor de frequência de áudio 3210 que mostra a uma ou mais frequências de som de saída de áudio 3208 geradas no alto-falante 111 em resposta a um evento de geração de saída de áudio (por exemplo, detecção de um evento de qualificação em uma posição na tela sensível ao toque 112 que corresponde à exibição de uma tecla no teclado musical 3201). Tais medidores de frequência de áudio tipicamente não são uma parte da interface de usuário exibida, porém, são fornecidas para auxiliar na interpretação das Figuras.
[000655] As Figuras 32A a 32P ilustram várias modalidades em que o dispositivo de múltiplas funções 100 detecta um padrão de impressão digital de um contato em uma posição na tela sensível ao toque 112 que corresponde à exibição de uma tecla de música ativável em um teclado musical e com base em uma ou mais características do padrão de impressão digital, fornece retroalimentação ao usuário se a movimentação de dedo usado para entrar em contato com a tela sensível ao toque 112 não for uma movimentação preferencial de dedo e reproduz uma nota (por exemplo, saída de áudio gerada 3208) se a movimentação de dedo usada para realizar o contato for uma movi-mentação preferencial de dedo.
[000656] Por exemplo, as Figuras 32A a 32G ilustram várias modalidades em que o dispositivo de múltiplas funções 100 detecta um padrão de impressão digital de contato 3204 em uma posição na tela sensível ao toque 112 que corresponde à exibição da tecla 3202-5 (por exemplo, a tecla "E3") no teclado musical 3201, conforme ilustrado na Figura 32A. O dispositivo de múltiplas funções 100 determina se o padrão de impressão digital de contato 3204 corresponde a uma movimentação preferencial de dedo, sendo que a movimentação preferencial de dedo inclui pelo menos um critério de que o dedo que corresponde ao padrão de impressão digital de contato 3204 usado para ativar a tecla "E3" 3202-5 é o dedo médio do usuário.
[000657] As Figuras 32B, 32D a 32F ilustram várias modalidades em que a movimentação de dedo usada para realizar o contato 3205 não é uma movimentação preferencial de dedo com base em pelo menos um critério de que a tecla "E3" 3202-5 entra em contato com o dedo médio do usuário. O dispositivo de múltiplas funções 100 analisa um padrão de impressão digital do contato 3205 (por exemplo, incluindo pelo menos uma determinação da identidade do dedo que corresponde ao padrão de impressão digital) e determina que o contato 3205 na Figuras 32B, 32D a 32F foi realizado pelo dedo anelar esquerdo (LR) do usuário. Devido ao fato de que o dedo anelar esquerdo do usuário não corresponde ao dedo preferencial predeterminado (por exemplo, o dedo médio do usuário), o dispositivo de múltiplas funções 100 fornece retroalimentação ao usuário que indica que uma movimentação preferencial de dedo não foi usada.
[000658] Em algumas modalidades, a retroalimentação que indica que o usuário usou o dedo errado (por exemplo, o dedo anelar esquerdo do usuário em vez de seu dedo médio) inclui retroalimentação visual. Por exemplo, conforme ilustrado nas Figuras 32B e 32D, quando a tecla "E3" 3202-5 entra em contato com o dedo anelar esquerdo (LR) do usuário, um grande "X" 3206 é exibido na tela sensível ao toque 112.
[000659] Em algumas modalidades, a retroalimentação que indica que o usuário usou o dedo errado (por exemplo, o dedo anelar esquerdo do usuário em vez de seu dedo médio) inclui retroalimentação audível. Por exemplo, conforme ilustrado na Figura 32E, quando a tecla "E3" 3202-5 entra em contato com o dedo anelar esquerdo (LR) do usuário, o dispositivo de múltiplas funções 100 gera uma saída de áudio 3208 no alto-falante 111 que tem uma frequência 3210 de 161,00 Hz, que é desafinada em relação ao tom "E3" real, que tem uma frequência de 164,81 Hz. Particularmente, quando reproduzido em uma sequência de notas (por exemplo, como uma parte de uma passagem musical), ou em um acorde, o usuário percebe que a nota está "errada (off)," indicando que o mesmo usou uma movimentação de dedo não preferencial.
[000660] Em algumas modalidades, a retroalimentação que indica que o usuário usou o dedo errado (por exemplo, o dedo anelar esquerdo do usuário em vez de seu dedo médio) inclui retroalimentação tátil. Por exemplo, conforme ilustrado na Figura 32F, quando a tecla "E3" 3202-5 entra em contato com o dedo anelar esquerdo (LR) do usuário, o dispositivo de múltiplas funções 100 gera uma saída tátil 3212 (por exemplo, com o uso do gerador de saída tátil 167).
[000661] As Figuras 32C e 32G ilustram várias modalidades em que a movimentação de dedo usada para realizar o contato 3207 é uma movimentação preferencial de dedo com base em pelo menos um critério de que a tecla "E3" 3202-5 entra em contato com o dedo médio esquerdo (LM) do usuário. O dispositivo de múltiplas funções 100 analisa um padrão de impressão digital de contato 3207 (por exemplo, que inclui pelo menos uma determinação da identidade do dedo que corresponde ao padrão de impressão digital) e determina que o contato 3207 nas Figuras 32C e 32G foi realizado pelo dedo médio esquerdo (LM) do usuário. Devido ao fato de que o dedo médio do usuário é o dedo preferencial predeterminado, o dispositivo de múltiplas funções 100 gera a saída de áudio 3208 no alto-falante 111 que tem uma frequência de 164,81 Hz, que corresponde frequência real de um tom "E3". Na Figura 32C, de acordo com algumas modalidades, o dispositivo de múltiplas funções 100 não fornece a retroalimentação que indica que a movimentação preferencial de dedo foi usada. Na Figura 32G, de acordo com algumas modalidades, o dispositivo de múltiplas funções 100 fornece a retroalimentação que indica que a movimentação preferencial de dedo foi usada por meio da exibição a estrela 3218 na tela sensível ao toque 112.
[000662] As Figuras 32H a 32J ilustram várias modalidades em que a movimentação preferencial de dedo para reproduzir uma tríade de C- maior inclui um dedo mínimo esquerdo do usuário, dedo médio esquerdo e polegar esquerdo. Por exemplo, o critério de movimentação preferencial de dedo inclui o critério de que os padrões de impressão digital dos contatos 3214, 3217 e 3216 usados para ativar a tecla "C" 3202-1, a tecla "E3" 3202-5 e a tecla "G" 3202-8 no teclado musical 3201 nas Figuras 32H a 32J, respectivamente, correspondem à movi-mentação preferencial de dedo.
[000663] As Figuras 32H a 32I ilustram várias modalidades em que a movimentação de dedo usada para realizar os contatos 3214, 3217 e 3216 nas Figuras 32H a 32I não é a movimentação preferencial de dedo, devido ao fato de que o padrão de impressão digital de contato 3217 nas Figuras 32H-32I, usado para ativar a tecla "E3" 3202-5 no teclado musical 3201, corresponde ao dedo anelar esquerdo (LR) do usuário, em vez do dedo médio do usuário. Na Figura 32H, de acordo com algumas modalidades, o dispositivo de múltiplas funções 100 fornece a retroalimentação visual que indica que uma movimentação de dedo não preferencial foi usada por meio da exibição de um grande "X" 3206 na tela sensível ao toque 112. Na Figura 32I, de acordo com algumas modalidades, o dispositivo de múltiplas funções 100 fornece as retroalimentações visual e audível que indicam que uma movimentação de de-do não preferencial foi usada por meio da exibição de um grande "X" 3206 na tela sensível ao toque 112 e por meio da geração de uma saída de áudio 3208 no alto-falante 111, sendo que a saída de áudio 3208 inclui um tom que tem uma frequência de 161,00 Hz, de modo a criar um acorde de C maior que seja desafinado de modo audível.
[000664] A Figura 32J ilustra uma modalidade em que a movimentação de dedo usada para reproduzir a tríade de C maior é a movimentação preferencial de dedo, com base, pelo menos, em uma determinação de que os padrões de impressão digital de contatos 3219, 3221 e 3223 na Figura 32J correspondem ao dedo mínimo esquerdo do usuário (LP), dedo médio esquerdo (LM) e o polegar esquerdo (LT), respectivamente. Em resposta, de acordo com algumas modalidades, o dispositivo de múltiplas funções 100 gera a saída de áudio 3208 no alto-falante 111 que corresponde a uma tríade de C maior adequadamente afinada e fornece a retroalimentação visual que indica que a movimentação de dedo usada para reproduzir o acorde foi a movimentação preferencial de dedo por meio da exibição de uma estrela 3218 na tela sensível ao toque 112.
[000665] A Figura 32K a 32L ilustra várias modalidades em que os critérios de movimentação preferencial de dedo incluem um critério de que o padrão de impressão digital do contato de ativação corresponde ao usuário realizando o contato com a tela sensível ao toque 112 com a ponta de sua ponta de dedo, ao contrário da polpa ou toda a sua ponta do dedo.
[000666] Conforme ilustrado na Figura 32K, o dispositivo de múltiplas funções 100 detecta o contato 3225 em uma posição na tela sensível ao toque 112 que corresponde à exibição da tecla "E3" 3202-5 ativável do teclado musical 3201. Devido ao fato de que o padrão de impressão digital de contato 3225 na Figura 32K corresponde à ponta da ponta do dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 determina que o contato satisfaz os critérios de movimentação de dedo predeterminados e gera a saída de áudio 3208 no alto-falante 111 que tem uma frequência de 164,81 Hz, que corres-ponde ao tom "E3" adequadamente afinado. O dispositivo de múltiplas funções 100 de acordo com algumas modalidades também fornece a retroalimentação visual que indica que a movimentação de dedo usada para reproduzir a nota foi a movimentação preferencial de dedo, por meio da exibição da estrela 3218 na tela sensível ao toque 112.
[000667] As Figuras 32L ilustram uma modalidade em que os crité- rios de movimentação preferencial de dedo, que incluem um critério de que uma ponta do dedo do usuário é usada para ativar a tecla, não são satisfeitos. O dispositivo de múltiplas funções 100 detecta o contato 3227 na tela sensível ao toque 112 em uma posição que corresponde à exibição da tecla "E3" 3202-5 no teclado musical 3201 na Figura 32L. Mediante uma determinação de que o contato 3227 na Figura 32L não satisfaz os critérios de movimentação preferencial de dedo, devido ao fato de que o padrão de ponta de dedo do contato corresponde à polpa da ponta do dedo do médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 exibe um grande "X" 3206 na tela sensível ao toque 112, fornecendo a retroalimentação visual que indica que a movimentação preferencial de dedo não foi usada.
[000668] As Figuras 32M a 32P ilustram várias modalidades em que os critérios de movimentação preferencial de dedo incluem, adicionalmente, um critério de que o usuário ativa uma tecla musical com um movimento de dedo que se move para trás em direção a uma borda do teclado musical.
[000669] Conforme ilustrado nas Figuras 32M a 32N, o dispositivo de múltiplas funções 100 detecta o contato 3228 em uma posição na tela sensível ao toque 112 que corresponde à exibição da tecla "E3" 32025 ativável do teclado musical 3201. Devido ao fato de que o padrão de impressão digital de contato 3228 inclui o movimento 3220 do contato 3228 da posição 3228-a na tela sensível ao toque 112 na Figura 32M para a posição 3228-b na tela sensível ao toque 112 na Figura 32N, o dispositivo de múltiplas funções 100 determina que o contato satisfaz os critérios de movimentação de dedo predeterminados e, em resposta, gera a saída de áudio 3208 no alto-falante 111 que tem uma frequência de 164,81 Hz, que corresponde a um tom de "E3" adequadamente afinado. O dispositivo de múltiplas funções 100, de acordo com algumas modalidades, também fornece a retroalimentação visual que indica que a movimentação de dedo usada para reproduzir a nota foi a movimentação preferencial de dedo por meio da exibição da estrela 3218 na tela sensível ao toque 112 na Figura 32N. O padrão de impressão digital do contato 3228 nas Figuras 32M a 32N também corresponde à ponta da ponta do dedo médio esquerdo (LM) do usuário, de modo que apresente compatibilidade adicional com os critérios de movimentação preferencial de dedo de acordo com algumas modalidades.
[000670] Conforme ilustrado nas Figuras 32O a 32P, o dispositivo de múltiplas funções 100 detecta o contato 3229 em uma posição na tela sensível ao toque 112 que corresponde à exibição da tecla "E3" 32025 ativável do teclado musical 3201. Devido ao fato de que o padrão de impressão digital de contato 3229 nas Figuras 32O a 32P inclui o movimento 3230 do contato 3229 da posição 3229-a na tela sensível ao toque 112 na Figura 320 à posição 3229-b na tela sensível ao toque 112 na Figura 32P, o dispositivo de múltiplas funções 100 determina que o contato não satisfaz os critérios de movimentação de dedo predeterminados e, em resposta, fornece a retroalimentação visual que indica que a movimentação de dedo usada para reproduzir a nota não foi a movimentação preferencial de dedo por meio da exibição de um grande "X" 3206 na tela sensível ao toque 112 na Figura 32P.
[000671] As Figuras 32Q a 32S ilustram várias modalidades em que o dispositivo de múltiplas funções 100 detecta um padrão de impressão digital de um contato em uma posição na tela sensível ao toque 112 que corresponde à exibição de uma tecla de inserção de caracteres ativável em um teclado de inserção de caracteres e, com base em uma ou mais características do padrão de impressão digital, fornece a retroalimentação ao usuário se a movimentação de dedo usada para realizar o contato na tela sensível ao toque 112 não satisfizer os critérios de movimentação preferencial de dedo e insere um caractere (por exemplo, a letra "c" 3232-27) se a movimentação de dedo usada para realizar o contato satisfizer os critérios de movimentação preferencial de dedo. A movimentação preferencial de dedo que inclui pelo menos um critério de que o usuário toque a tecla "C" 3232-27 com seu dedo médio esquerdo.
[000672] Na Figura 32Q, o dispositivo de múltiplas funções 100 detecta o contato 3234 na tela sensível ao toque 112 em uma posição que corresponde à exibição da tecla de inserção de caracteres 323227 (por exemplo, a tecla "C"). O dispositivo de múltiplas funções 100 analisa o padrão de impressão digital de contato 3234 na Figura 32Q para determinar pelo menos a identidade do dedo de usuário que corresponde ao contato.
[000673] Em algumas modalidades, conforme ilustrado na Figura 32R, devido ao fato de que o dispositivo de múltiplas funções 100 determina que o padrão de impressão digital de contato 3236 na Figura 32R corresponde ao dedo indicador esquerdo (LI) do usuário, o contato não satisfaz os critérios predefinidos de movimentação preferencial de dedo. Em resposta, o dispositivo de múltiplas funções 100 exibe um grande "X" 3206 na tela sensível ao toque 112, de modo a fornecer a retroalimentação visual de que o usuário não usou a movimentação preferencial de dedo. Em resposta à detecção do contato 3236 na Figura 32R, o dispositivo de múltiplas funções 100 também exibe o caractere "C" 3226-53 na caixa de texto 3224 de acordo com algumas modalidades.
[000674] Em algumas modalidades, conforme ilustrado na Figura 32S, devido ao fato de que o dispositivo de múltiplas funções 100 determina que o padrão de impressão digital de contato 3238 na Figura 32S corresponde ao dedo médio esquerdo (LM) do usuário, o contato satisfaz os critérios predefinidos de movimentação preferencial de dedo. Em resposta, o dispositivo de múltiplas funções 100 exibe o carac- tere "c" 3226-53 na caixa de texto 3224. Em algumas modalidades, quando o contato que ativa a tecla de inserção de caracteres não satisfaz os critérios de movimentação preferencial de dedo, o dispositivo não insere o caractere que corresponde à tecla de inserção de caracteres (por exemplo, o dispositivo trata a seleção de uma tecla de inserção de caracteres com um dedo não preferencial com uma falha para ativar a tecla, em vez de solicitar que o usuário use o dedo preferencial para ativar a tecla de inserção de caracteres para inserir o caractere).
[000675] As Figuras 33A a 33C são fluxogramas que ilustram um método 3300 para treinar um usuário a respeito dos conjuntos de procedimentos adequados de movimentação de dedo de acordo com algumas modalidades. O método 3300 é realizado em um dispositivo eletrônico (por exemplo, dispositivo 300, Figura 3, ou dispositivo portátil de múltiplas funções 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 3300 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000676] Conforme descrito abaixo, o método 3300 fornece uma forma intuitiva para treinar um usuário quanto aos conjuntos de procedimentos adequados de movimentação de dedo. O método reduz a carga cognitiva sobre um usuário ao aprender os conjuntos de procedimentos adequados de movimentação de dedo, assim, criando uma interface de humano-máquina mais eficaz. Para os dispositivos eletrônicos operados com bateria, habilitar um usuário para aprender os conjuntos de procedimentos adequados de movimentação de dedo mais rápido e de maneira mais eficiente conserva a potência e aumenta o tempo entre as cargas de bateria.
[000677] Em algumas modalidades, um dispositivo eletrônico (por exemplo, o dispositivo de múltiplas funções 100 nas Figuras 32A a 32S) com uma superfície sensível ao toque (por exemplo, a tela sensível ao toque 112 nas Figuras 32A a 32S) e um visor (por exemplo, a tela sensível ao toque 112 nas Figuras 32A a 32S) exibem (3302) uma interface de usuário (por exemplo, a interface de usuário 3200 nas Figuras 32A a 32S) que inclui um respectivo objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 do teclado musical 3201 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 do teclado QWERTY de inserção de caracteres 3222 nas Figuras 32Q a 32S). Em algumas modalidades, a interface de usuário inclui uma pluralidade de objetos de interface de usuário ativáveis (por exemplo, uma pluralidade de objetos de interface de usuário que podem ser ativados). Por exemplo, a interface de usuário 3200 exibe uma pluralidade de teclas musicais ativáveis 3202-1 a 3202-24 do teclado musical 3201 nas Figuras 32A a 32P e a interface de usuário 3240 exibe uma pluralidade de teclas de inserção de caractere ativáveis 3232-1 a 3232-41 do teclado QWERTY de inserção de caracteres 3222 nas Figuras 32Q a 32S.
[000678] Em algumas modalidades, o respectivo objeto de interface de usuário ativável (por exemplo, a tecla musical ativável "E3" nas Figuras 32A a 32P) é (3304) um dentre uma pluralidade de objetos de interface de usuário ativáveis que correspondem às teclas (por exemplo, as teclas musicais ativáveis 3202-1 a 3202-24 nas Figuras 32A a 32P) em uma representação de um teclado musical (por exemplo, um teclado de piano virtual, tal como o teclado musical 3201 nas Figuras 32A a 32P).
[000679] Em algumas modalidades, o respectivo objeto de interface de usuário ativável (por exemplo, a tecla de inserção do caractere "C" ativável 3232-27 nas Figuras 32Q a 32S) é (3306) um dentre uma plu- ralidade de objetos de interface de usuário ativáveis que correspondem às teclas (por exemplo, as teclas de inserção de caractere ativáveis 3232-1 a 3232-41) em uma representação de um teclado de inserção de caracteres (por exemplo, um teclado de texto virtual, tal como um teclado QWERTY 3222 nas Figuras 32Q a 32S).
[000680] O dispositivo eletrônico (por exemplo, o dispositivo de múltiplas funções 100) detecta (3308) um padrão de impressão digital de um contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) sobre uma superfície sensível ao toque (por exemplo, a tela sensível ao toque 112) que corresponde a um se- letor de foco (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) que está sobre o respectivo objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 323227 nas Figuras 32Q a 32S) em um visor (por exemplo, a tela sensível ao toque 112). Em algumas modalidades, conforme ilustrado nas Figuras 32A a 32S, o dispositivo detecta um contato em um visor de tela sensível ao toque sobre o respectivo objeto de interface de usuário ativável. Em algumas modalidades, o dispositivo detecta um contato sobre uma superfície sensível ao toque separada de um visor associado, em uma posição que corresponde a uma posição no visor associado que exibe um seletor de foco.
[000681] Em resposta (3310) à detecção do padrão de impressão digital do contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) sobre a superfície sensível ao toque que corresponde ao seletor de foco que está sobre o respectivo objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 nas Figuras 32Q a 32S) no visor (por exemplo, a tela sensível ao toque 112): o dispositivo (por exemplo, o dispositivo de múltiplas funções 100) analisa (3312) o padrão de impressão digital do contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) sobre a superfície sensível ao toque (por exemplo, a tela sensível ao toque 112) para determinar uma ou mais características de movimentação de dedo do contato e determina (3314) se o contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) satisfaz os critérios predefinidos de movimentação preferencial de dedo com base na uma ou mais características de mo-vimentação de dedo.
[000682] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem (3316) um critério que é satisfeito quando um dedo que corresponde ao padrão de impressão digital do contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) usado para ativar o objeto de interface de usuário ati- vável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 nas Figuras 32Q a 32S) é compatível com um dedo preferencial predefinido de uma mão para ativar o objeto de interface de usuário ativável (por exemplo, a tecla "j" em um teclado QWERTY é, de preferência, ativada pelo dedo indicador direito com o uso de critérios padrão de digitação por toque e uma tecla "f" em um teclado QWERTY é, de preferência, ativada pelo dedo indicador esquerdo com o uso dos critérios padrão de digitação por toque). Por exemplo, um critério de movimentação preferencial de dedo é satisfeito nas Figuras 32C, 32G e 32J a 32N quando a tecla musical "E3" 3202-5 é ativado por meio dos contatos 3207, 3221, 3225, 3227 e/ou 3228 que têm um padrão de impressão digital que corresponde ao dedo médio esquerdo (LM) do usuário. Por outro lado, o critério de movimentação preferencial de dedo não é satisfeito nas Figuras 32B, 32D-32F e 32H-32I quando a tecla musical "E3" 3202-5 é ativada por meio do contato 3205 e/ou 3217 que têm um padrão de impressão digital que corresponde ao dedo anelar esquerdo (LR) do usuário. Como outro exemplo, um critério de movimentação preferencial de dedo é satisfeito na Figura 32S quando a tecla de inserção do caractere "C" 3232-27 é ativada pelo contato 3228 que tem um padrão de impressão digital que corresponde ao dedo médio esquerdo (LM) do usuário. Por outro lado, o critério de movimentação preferencial de dedo não é satisfeito na Figura 32R quando a tecla de inserção do caractere "C" 3232-27 é ativada por meio do contato 3236 que tem um padrão de impressão digital que corresponde ao dedo indicador esquerdo (LI) do usuário.
[000683] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem (3318) um critério que é satisfeito quando o padrão de impressão digital do contato (por exemplo, o contato 3225, 3227, 3228 e/ou 3229 nas Figuras 32K a 32P) sobre uma superfície sensível ao toque (por exemplo, a tela sensível ao toque 112) corresponde a um ângulo de elevação inicial entre um dedo usado para ativar o objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32K a 32P) e o visor (por exemplo, a tela sensível ao toque 112) sobre o qual o objeto de interface de usuário ativável é exibido que está dentro de uma faixa predefinida de ângulos de elevação iniciais preferenciais para ativar o objeto de interface de usuário ativável, (por exemplo, uma tecla sobre um teclado musical é, de preferência, reproduzida com a ponta de um dedo em vez da polpa de um dedo com o uso de diretrizes-padrão para tocar piano). Por exemplo, um critério de movimentação preferencial de dedo é satisfeito nas Figuras 32K e 32M a 32P quando a tecla musical "E3" 3202-5 é ativada pelo contato 3225, 3228 e/ou 3229 que tem um padrão de impressão digital que corresponde à extremidade da ponta do dedo do usuário. Por outro lado, o critério de movimentação preferencial de dedo não é satisfeito na Figura 32L quando a tecla musical "E3" 3202-5 é ativada pelo contato 3227 que tem um padrão de impressão digital que corresponde à polpa da ponta do dedo do usuário.
[000684] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem (3320) um critério que é satisfeito quando o padrão de impressão digital do contato (por exemplo, o contato 3228 e/ou 3229 nas Figuras 32M a 32P) sobre a superfície sensível ao toque (por exemplo, a tela sensível ao toque 112) corresponde a um movimento de um dedo que ativa o objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32K a 32P) que está dentro de uma faixa predefinida de movimentos preferenciais para ativar o objeto de interface de usuário ativável (por exemplo, uma tecla em um teclado musical deve ser reproduzida com a ponta de um dedo que se move para trás em direção a uma borda do teclado, em vez de para frente para dentro do teclado e/ou com uma intensidade predefinida). Por exemplo, um critério de movimentação preferencial de dedo é satisfeito nas Figuras 32M a 32N quando a tecla musical "E3" 3202-5 é ativada pelo contato 3228 que tem um padrão de impressão digital que corresponde ao movimento da ponta do dedo do usuário para trás da localização inicial do contato na tela sensível ao toque 112 em direção à borda frontal da represen-tação de teclado musical 3201 exibida na tela sensível ao toque 112 (por exemplo, o movimento 3220 do contato 3228 da posição 3228-a na Figura 32M para a posição 3228-b na Figura 32N). Por outro lado, o critério de movimentação preferencial de dedo não é satisfeito nas Figuras 320 a 32P quando a tecla musical "E3" 3202-5 é ativada pelo contato 3229 que tem um padrão de impressão digital que corresponde ao movimento da ponta do dedo do usuário para frente a partir da localização inicial do contato na tela sensível ao toque 112 na direção oposta à borda frontal da representação do teclado musical 3201 exibido na tela sensível ao toque 112 (por exemplo, o movimento 3230 do contato 3229 da posição 3229-a na Figura 320 para a posição 3229-b na Figura 32P).
[000685] De acordo com uma determinação de que o contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) não satisfaz os critérios de movimentação preferencial de dedo, o dispositivo (por exemplo, o dispositivo de múltiplas funções 100) fornece (3322) a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos (por exemplo, a retroalimentação visual, tal como um grande "X" 3206 exibido na tela sensível ao toque 112 nas Figuras 32B, 32D, 32H-32I, 32L, 32P e 32R; retroalimentação audível, tal como a saída de áudio 3208 que inclui uma frequência de 161,00 Hz gerada no alto-falante 111 nas Figuras 32E e 321; e/ou a retroalimentação tátil, tal como a saída tátil 3212 gerada, por exemplo, pelo gerador de saída tátil 167 na Figura 32F).
[000686] Em algumas modalidades, de acordo com a determinação de que o contato não satisfaz os critérios de movimentação preferencial de dedo, o dispositivo (por exemplo, o dispositivo de múltiplas funções 100) realiza (3324) a operação (por exemplo, reproduz a nota musical "E3," ou insere o caractere "C" em uma caixa de texto ativa) associada ao objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 nas Figuras 32Q a 32S). Dessa for ma, em algumas modalidades, mesmo quando os critérios de movimentação preferencial de dedo não são satisfeitos, o dispositivo ainda ativa o objeto de interface de usuário ativável e realiza uma operação correspondente, tal como reproduzir uma nota que corresponde a uma tecla no teclado enquanto fornece a retroalimentação visual, audível e/ou tátil de que a tecla foi "pressionada" incorretamente. Por exemplo, mediante uma determinação de que o contato 3205 e/ou 3217 não satisfaz critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 seja ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 gera uma saída de áudio 3208 que tem uma frequência de 164,81 (por exemplo, que corresponde à frequência rela de um tom "E3") no alto-falante 111, que corresponde à ativação da tecla musical "E3" 3202-5 nas Figuras 32D e 32H, enquanto fornece uma indicação diferente de que a tecla foi ativada com o uso da movimentação de dedo não preferencial (por exemplo, exibir um grande "X" 3206 nas Figuras 32D e 32H devido ao fato de que o dedo indicador esquerdo do usuário foi usado para ativar a tecla musical "E3" 3202-5). Em outro exemplo, mediante uma determinação de que o contato 3236 não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla de inserção do caractere "C" 3232-27 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 insere (por exemplo, exibe) o caractere "C" 3226-53 no interior da caixa de texto 3224 exibida na tela sensível ao toque 112, que corresponde à ativação da tecla de inserção do caractere "C" 3232-27, enquanto fornece uma indicação diferente de que a tecla foi ativada com o uso da movimentação de dedo não preferencial (por exemplo, de modo a exibir um grande "X" 3206 na Figura 32R devido ao fato de que os dedo indicador esquerdo do usuário foi usado para ativar a tecla de inserção "C" 3232-27).
[000687] Em algumas modalidades, de acordo com a determinação de que o contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) não satisfaz os critérios de movimentação preferencial de dedo, o dispositivo (por exemplo, dispositivo de múltiplas funções 100) renuncia (3326) a realização da operação (por exemplo, não reproduz a nota musical "E3," ou não insere o caractere "c" em uma caixa de texto ativa) associada ao objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 nas Figuras 32Q a 32S). Dessa forma, em algumas modalidades, quando os critérios de movimentação preferencial de dedo não são satisfeitos, o dispositivo não ativa o objeto de interface de usuário ati- vável e realiza uma operação correspondente, tal como a reprodução de uma nota que corresponde a uma tecla no teclado que seria reproduzida se os critérios de movimentação preferencial de dedo fossem satisfeitos. Por exemplo, mediante uma determinação de que o contato 3205 e/ou 3229 não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 renuncia a geração da saída de áudio 3208 que tem uma frequência de 164,81 (por exemplo, que corresponde à frequência real de um tom de "E3") no alto-falante 111, que corresponde à ativação da tecla musical "E3" 3202-5 nas Figuras 32B e 32O a 32P.
[000688] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui (3328) a retroalimentação audível gerada pelo dispositivo (por exemplo, os alto-falantes reproduzem som de aviso ou sons de notas "desafinados" como se um teclado musical fosse tocado incorre- tamente quando os critérios de movimentação de dedo para reproduzir uma nota no teclado musical não forem satisfeitos). Por exemplo, mediante uma determinação de que o contato 3205 e/ou 3217 não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 seja ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 gera a saída de áudio 3208 que inclui uma frequência de 161,00 Hz (por exemplo, que corresponde a um tom "E3" que está desafinado) no alto-falante 111, que indica ao usuário que uma movimentação preferencial de dedo não foi usada para ativar a tecla musical "E3" 3202-5 nas Figuras 32E e 321. Em algumas modalidades, a re-troalimentação audível inclui alterar uma intensidade sonora, reverberação ou outra propriedade auditiva da nota correspondente em vez de ou em adição à alteração da frequência da saída de áudio para indicar que a movimentação preferencial de dedo não foi usada.
[000689] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui (3330) a retroalimentação visual exibida no visor (por exemplo, o visor do dispositivo pisca ou exibe destaques próximos ao contato). Por exemplo, mediante uma determinação de que o contato 3205, 3217, 3227 e/ou 3229 não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 exibe um grande "X" 3206 na tela sensível ao toque 112, de modo a indicar ao usuário que uma movimentação preferencial de dedo não foi usada para ativar a tecla musical "E3" 3202-5 nas Figuras 32B, 32D, 32H-32I, 32L e 32P. Em outro exemplo, mediante uma determinação de que o contato 3236 não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla de inserção do caracte- re "C" 3232-27 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 exibe um grande "X" 3206 na tela sensível ao toque 112, de modo a indicar ao usuário que uma movimentação preferencial de dedo não foi usada para ativar a tecla de inserção do caractere "C" 3232-27 na Figura 32R.
[000690] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui (3332) a retroalimentação tátil gerada pelo dispositivo (por exemplo, o dispositivo apita ou fornece alguma outra saída tátil que indica que a movimentação de dedo do usuário está incorreta). Por exemplo, mediante uma determinação de que o contato 3205 na Figura 32F não satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 gera a saída tátil 3212 (por exemplo, com o uso do gerador de saída tátil 167), de modo a indicar ao usuário que uma movimentação preferencial de dedo não foi usada para ativar a tecla musical "E3" 3202-5 na Figura 32F.
[000691] De acordo com a determinação de que o contato (por exemplo, o contato 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236 e/ou 3238 nas Figuras 32A a 32S) satisfaz os critérios de movimentação preferencial de dedo, o dispositivo (por exemplo, o dispositivo de múltiplas funções 100) realiza (3334) uma operação associada ao objeto de interface de usuário ativável (por exemplo, a tecla musical "E3" 3202-5 nas Figuras 32A a 32P e/ou a tecla de inserção do caractere "C" 3232-27 nas Figuras 32Q a 32S). Por exemplo, o dispositivo ativa o objeto de interface de usuário ativável sem fornecer a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos. Por exemplo, mediante uma determinação de que o contato 3207, 3221, 3225 e/ou 3228 satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 é ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 gera a saída de áudio 3208 que inclui uma frequência de 164,81 (por exemplo, que corresponde à frequência real de um tom "E3") no alto-falante 111, que corresponde à ativação da tecla musical "E3" 3202-5 nas Figuras 32C, 32G, 32J a 32K e 32M a 32N. Em outro exemplo, mediante uma determinação de que o contato 3238 satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla de inserção do caractere "C" 3232-27 seja ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 insere (por exemplo, exibe) o caractere "c" 3226-53 no interior da caixa de texto 3224 exibida na tela sensível ao toque 112, que corresponde à ativação da tecla de inserção do caractere "C" 3232-27 na Figura 32S.
[000692] Em algumas modalidades, de acordo com a determinação de que o contato satisfaz os critérios de movimentação preferencial de dedo, o dispositivo (por exemplo, dispositivo de múltiplas funções 100) fornece (3336) a retroalimentação que indica que os critérios de movimentação preferencial de dedo foram satisfeitos, (por exemplo, retroalimentação visual, audível e/ou tátil). Por exemplo, mediante uma determinação de que o contato 3207, 3221, 3225 e/ou 3228 nas Figuras 32G, 32J a 32K e 32N satisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla musical "E3" 3202-5 seja ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 exibe a estrela 3218 na tela sensível ao toque 112, de modo a indicar ao usuário que uma movimentação preferencial de dedo foi usada para ativar a tecla musical "E3" 3202-5 nas Figuras 32G, 32J a 32K e 32N. Em outro exemplo, mediante uma determinação de que o contato 3228 na Figura 32S sa- tisfaz os critérios predefinidos de movimentação de dedo que incluem pelo menos um critério de que a tecla de inserção do caractere "C" 3232-27 seja ativada pelo dedo médio esquerdo (LM) do usuário, o dispositivo de múltiplas funções 100 exibe a estrela 3218 na tela sensível ao toque 112, de modo a indicar ao usuário que uma movimentação preferencial de dedo foi usada para ativar a tecla de inserção do caractere "C" 3232-27 na Figura 32S.
[000693] Deve-se entender que a ordem específica em que as operações nas Figuras 33A a 33C foram descritas é meramente exemplifi- cadora e não se destina a indicar que a ordem descrita é a única ordem em que as operações podem ser realizadas. Um elemento de habilidade comum na técnica reconhece várias maneiras para reorganizar as operações descritas neste documento. Adicionalmente, deve-se observar que os detalhes de outros processos aqui descritos em relação a outros métodos descritos neste documento (por exemplo, os listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 3300 descrito acima em relação às Figuras 33A a 33C. Por exemplo, as impressões digitais, contatos, objetos de interface de usuário e seletores de foco descritos acima em relação ao mé-todo 3300 opcionalmente têm uma ou mais dentre as características das impressões digitais, contatos, objetos de interface de usuário e seletores de foco descritos neste documento em relação aos outros métodos descritos neste documento (por exemplo, os listados no parágrafo [00123]). Visando a brevidade, tais detalhes não são repetidos neste documento.
[000694] De acordo com algumas modalidades, a Figura 34 mostra um diagrama de blocos funcional de um dispositivo eletrônico 3400 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por meio de hardware, software ou uma combinação de hardwa re e software para executar os princípios das várias modalidades descritas. É entendido pelos elementos versados na técnica que os blocos funcionais descritos na Figura 34 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição neste documento opcionalmente suporta qualquer combinação ou separação possíveis ou definição adicional dos blocos funcionais descritos neste documento.
[000695] Conforme mostrado na Figura 34, um dispositivo eletrônico 3400 inclui uma unidade de exibição 3402 configurada para exibir uma interface gráfica de usuário, uma unidade de superfície sensível ao toque 3404 configurada para receber os contatos de usuário, opcionalmente, uma unidade de sensor de impressão digital 3405, uma unidade de retroalimentação audível 3406 para fornecer a retroalimentação audível e uma unidade de retroalimentação tátil 3407 para fornecer a retroalimentação tátil; e uma unidade de processamento 3408 acoplada à unidade de exibição 3402, a unidade de superfície sensível ao toque 3404 e, opcionalmente, a unidade de sensor de impressão digital 3405, a unidade de retroalimentação audível 3406 e a unidade de retroalimentação tátil 3407. Em algumas modalidades, a unidade de processamento 3408 inclui uma unidade de habilitação de exibição 3410, uma unidade de detecção 3412, uma unidade de análise 3414, uma unidade de determinação 3416, uma unidade de fornecimento de retroalimentação 3418 e uma unidade de realização 3420.
[000696] A unidade de processamento 3408 está configurada para habilitar a exibição de uma interface de usuário que inclui um respectivo objeto de interface de usuário ativável (por exemplo, com a unidade de habilitação de exibição 3410) e detectar um padrão de impressão digital de um contato na unidade de superfície sensível ao toque 3402 que corresponde a um seletor de foco que está sobre o respectivo objeto de interface de usuário ativável na unidade de exibição 3402 (por exemplo, com a unidade de detecção 3412). A unidade de processamento 3408 está, também, configurada para, em resposta à detecção do padrão de impressão digital do contato sobre a unidade de superfície sensível ao toque 3404 que corresponde ao seletor de foco que está sobre o respectivo objeto de interface de usuário ativável na unidade de exibição 3402, analisar o padrão de impressão digital do contato sobre a unidade de superfície sensível ao toque 3404 para determinar uma ou mais características de movimentação de dedo do contato (por exemplo, com a unidade de análise 3414) e determinar se o contato satisfaz os critérios predefinidos de movimentação preferencial de dedo com base na uma ou mais características de movimentação de dedo (por exemplo, com a unidade de determinação 3416). A unidade de processamento 3408 é adicionalmente configurada para, de acordo com uma determinação de que o contato não satisfaz os critérios de movimentação preferencial de dedo, fornecer a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos (por exemplo, com a unidade de fornecimento de retroalimentação 3418). A unidade de processamento 3408 é adicionalmente configurada para, de acordo com uma determinação de que o contato satisfaz os critérios de movimentação preferencial de dedo, realizar uma operação associada ao objeto de interface de usuário ati- vável (por exemplo, com a unidade de realização 3420).
[000697] Em algumas modalidades, a unidade de processamento 3408 é adicionalmente configurada para, de acordo com a determinação de que o contato não satisfaz os critérios de movimentação preferencial de dedo, realizar a operação associada ao objeto de interface de usuário ativável (por exemplo, à unidade de realização 3420).
[000698] Em algumas modalidades, a unidade de processamento 3408 é adicionalmente configurada para, de acordo com uma determinação de que o contato não satisfaz os critérios de movimentação pre- ferencial de dedo, renunciar a realização da operação associada ao objeto de interface de usuário ativável (por exemplo, à unidade de realização 3420).
[000699] Em algumas modalidades, a unidade de processamento 3408 é adicionalmente configurada para, de acordo com uma determinação de que o satisfaz os critérios de movimentação preferencial de dedo, fornecer a retroalimentação que indica que os critérios de movimentação preferencial de dedo foram satisfeitos (por exemplo, com a unidade de fornecimento de retroalimentação 3418).
[000700] Em algumas modalidades, o respectivo objeto de interface de usuário ativável é um dentre uma pluralidade de objetos de interface de usuário ativáveis que correspondem às teclas em uma representação de um teclado musical.
[000701] Em algumas modalidades, o respectivo objeto de interface de usuário ativável é um dentre uma pluralidade de objetos de interface de usuário ativáveis que correspondem às teclas em uma representação de um teclado de inserção de caracteres.
[000702] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem um critério que é satisfeito quando um dedo que corresponde ao padrão de impressão digital do contato usado para ativar o objeto de interface de usuário ativável é compatível com um dedo preferencial predefinido de uma mão para ativar o objeto de interface de usuário ativável.
[000703] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem um critério que é satisfeito quando o padrão de impressão digital do contato sobre uma unidade de superfície sensível ao toque corresponde a um ângulo de elevação inicial entre um dedo usado para ativar o objeto de interface de usuário ativável e a unidade de visor 112 sobre a qual o objeto de interface de usuário ati- vável é exibido que está dentro de uma faixa predefinida de ângulos de elevação iniciais preferenciais para ativar o objeto de interface de usuário ativável.
[000704] Em algumas modalidades, os critérios de movimentação preferencial de dedo incluem um critério que é satisfeito quando o padrão de impressão digital do contato sobre a unidade de superfície sensível ao toque 3404 corresponde a um movimento de um dedo que ativa o objeto de interface de usuário ativável que está em uma faixa predefinida de movimentos preferenciais para ativar o objeto de interface de usuário ativável.
[000705] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui a retroalimentação audível gerada pelo dispositivo 3400 (por exemplo, com a unidade de retroalimentação audível 3406).
[000706] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui a retroalimentação visual exibida na unidade de exibição 3402.
[000707] Em algumas modalidades, a retroalimentação que indica que os critérios de movimentação preferencial de dedo não foram satisfeitos inclui a retroalimentação tátil gerada pelo dispositivo 3400 (por exemplo, com a unidade de retroalimentação tátil 3407).
[000708] As operações nos métodos para processamento de informações descritas acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tais como os processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou os chips específicos quanto ao aplicativo.
[000709] As operações descritas acima em relação às Figuras 33A a 33C são opcionalmente implantadas por meio de componentes representados nas Figuras 1A a 1B ou na Figura 34. Por exemplo, a opera- ção de exibição 3302, a operação de detecção 3308, a operação de análise 3312, a operação de determinação 3314, as operações de fornecimento de retroalimentação 3322 e 3336, as operações de realização 3324 e 3334 e a operação de renúncia 3326 são opcionalmente implantadas pelo classificador de evento 170, reconhecedor de evento 180, e manipulador de evento 190. O monitor de evento 171 no classificador de evento 170 detecta um contato sobre o visor sensível ao toque 112 e o módulo despachante de evento 174 entrega as informações de evento para o aplicativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento com as respectivas definições de evento 186 e determina se um pri-meiro contato em uma primeira localização sobre a superfície sensível ao toque corresponde a um evento ou subevento predefinido, tal como a seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou subevento predefinido é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190, opcionalmente, utiliza ou chama o atualizador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, ficará evidente para um elemento de habilidade comum na técnica como outros processos podem ser implantados com base nos componentes representados nas Figuras 1A a 1B. Operar uma Porção de uma Superfície Sensível ao Toque em um Modo de Operação de Sensibilidade Intensificada
[000710] Diversos dispositivos eletrônicos têm aplicativos que usam a autenticação de identidade, tais como aplicativos que têm logins ou aplicativos que acessam conteúdo privado. Um método para a autenticação de identidade é a detecção e verificação de impressão digital. Um dispositivo pode incluir uma superfície sensível ao toque de sensibilidade suficiente para detectar as impressões digitais. Entretanto, tais superfícies sensíveis ao toque consomem pais potência e se o dispositivo é rodado com uma bateria, diminui o tempo entre as cargas. As modalidades descritas abaixo incluem um dispositivo que tem uma superfície sensível ao toque que pode ser subdividida em regiões que podem ser operadas em um modo de sensibilidade intensificada que é suficiente para detectar as impressões digitais ou em um modo de sensibilidade reduzida. Uma região da superfície sensível ao toque é operada no modo de sensibilidade intensificada em um ou mais critérios forem satisfeitos e é, de outro modo, operada no modo de sensibilidade reduzida. Isso intensifica a sensibilidade de porções da superfí-cie sensível ao toque a uma base conforme a necessidade. Operando- se as porções da superfície sensível ao toque no modo de sensibilidade intensificada a uma base conforme a necessidade, o consumo de potência é reduzido enquanto o dispositivo permanece com a capacidade de detecção de impressão digital, assim, fornecendo uma interface de usuário conveniente e eficiente que conserva a potência de bateria.
[000711] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo portátil de múltiplas funções 100, o visor tem tela sensível ao toque 112 e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo em relação a 35A a 35J e 36A a 36B, opcionalmente, inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados dentro da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Exceto quando especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 3592, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Visando a conveniência da explicação, as modalidades descritas com referência às Figuras 35A a 35J e 36A a 36B serão discutidas com referência à tela sensível ao toque 112; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato), ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112, no lugar de um cursor. As operações análogas são, opcionalmente, realizadas em um dispositivo com o visor 450, uma superfície sensível ao toque separada 451 e, opcionalmente, um ou mais sensores de impressão digital 169 em resposta à detecção de entradas descritas nas Figuras 35A a 35J sobre a superfície sensível ao toque 451 enquanto exibe as interfaces de usuário mostradas nas Figuras 35A a 35J no visor 450.
[000712] A Figura 35A ilustra a interface de usuário 3501 exibida na tela sensível ao toque 112 de um dispositivo (por exemplo, dispositivo 100). A interface de usuário 3501 inclui um ou mais ícones de aplicativo, conforme descrito acima em relação à Figura 4A. A tela sensível ao toque 112 inclui uma ou mais regiões 3502, cada um dos quais corresponde a um respectivo ícone de aplicativo. Conforme mostrado na Figura 35A, a região 3502-1 corresponde ao ícone "Mensagens" 424. A região 3502-2 corresponde ai ícone "Calendário" 426. A região 3502-3 corresponde ao ícone "Fotos" 428. A região 3502-4 corresponde ao ícone "Notas" 444. A região 3502-5 corresponde ao ícone "Definições" 446. A região 3502-6 corresponde ao ícone "Telefone" 416. A região 3502-7 corresponde ao ícone "Mail" 418. Em algumas modalidades, as regiões correspondem aos quadrantes (ou outras divisões geométricas) da superfície sensível ao toque (por exemplo, a tela sensível ao toque 112).
[000713] O dispositivo 100 opera uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) em um modo de sensibilidade reduzida ou um modo de sensibilidade intensificada. Quando o dispositivo 100 opera uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) que em modo de sensibilidade intensificada, o dispositivo 100 pode detectar a presença/ausência de um contato na respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) na tela sensível ao toque 112 e o movimento do contato e pode, também detectar os recursos de impressão digital do contato, tais como recursos de minúcia que possibilitam que o contato seja unicamente identificado com uma impressão digital registrada anteriormente. Quando o dispositivo 100 opera a respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade reduzida, o dispositivo 100 pode detectar a presença/ausência do contato na respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) na tela sensível ao toque 112 e o movimento do contato, porém, não pode detectar os recursos de impressão digital do contato. Dessa forma, por exemplo, quando um contato está localizado em uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) do dispositivo 100 que é operado no modo de sensibilidade intensificada, o dispositivo 100 pode detectar os recursos de impressão digital, que podem ser usados para a autenticação de identidade ou acesso autorizado e/ou detecção de movimento suave do contato. Por outro lado, quando um contato está localizado em uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) que opera em modo de sensibilidade reduzida, o dispositivo 100 não pode detectar os recursos de impressão digital do contato. Em algumas modalidades, o dispositivo 100 opera e transita independentemente cada respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada. Em algumas modalidades, a maioria da tela sensível ao toque 112 ou, opcionalmente toda a tela sensível ao toque 112 pode ser operada no modo de operação de sensibilidade intensificada.
[000714] Quando não há o contato detectado em uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A), o dispositivo 100 opera a respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade reduzida. Operar uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade reduzida consome menos potência do que operar a mesma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade intensificada. Quando o dispositivo 100 detecta um contato em uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) que opera em modo de sensibilidade reduzida, o dispositivo 100 opera a respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) em modo de sensibilidade intensificada se o contato satisfizer um ou mais critérios de ativação de sensor de impressão digital e, de outro modo, continuar a operar a respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) em modo de sensibilidade reduzida.
[000715] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem um critério que é satisfeito quando um contato em formato de impressão digital é detectado na respectiva região (por exemplo, uma das regiões 3502 na Figura 35A). Dessa forma, por exemplo, um contato em formato de impressão digital detectado na respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) ativa o modo de sensibilidade intensificada, porém, um contato de caneta do tipo stylus, não. Em algumas modalidades, um único gesto de contato ativa o modo de sensibilidade intensificada de operação, enquanto um gesto de múltiplos contatos não ativa o modo de operação de sensibilidade intensificada.
[000716] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem um critério que é satisfeito quando um contato em formato de impressão digital é detectado por se mover ou girar (por exemplo, contorcer) a uma velocidade abaixo de uma velocidade limite predeterminada (ou a uma velocidade de rotação abaixo de um limite predeterminado). Por exemplo, uma impressão digital que se move lentamente ou contorce em uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) ativa o modo de sensibilidade intensificada para a respectiva região (por exemplo, uma das regiões 3502 na Figura 35A). Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digi-tal incluem um critério que é satisfeito quando um contato é detectado na tela sensível ao toque 112 enquanto um seletor de foco que corresponde ao contato está sobre um elemento de interface de usuário sensível à impressão digital. Em algumas modalidades, na tela sensível ao toque 112, o seletor de foco que corresponde ao contato é o contato, em si. Dessa forma, por exemplo, tal critério é satisfeito quando um contato é detectado na tela sensível ao toque 112 sobre um elemento de interface de usuário sensível à impressão digital. Um exemplo de um elemento de interface de usuário sensível à impressão digital é um ícone de aplicativo cujo aplicativo correspondente está configurado para solicitar a autenticação ou autorização para o acesso. Em algumas modalidades, a possibilidade de um aplicativo solicitar a autenticação ou autorização para o acesso é configurável por um usuário do dispositivo 100. Outro exemplo de um elemento de interface de usuário sensível à impressão digital é um objeto de interface de usuário interativo (por exemplo, um dígito ou manípulo virtual).
[000717] Em algumas modalidades, quando o dispositivo opera uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade intensificada, o dispositivo opera as outras respectivas regiões 3502 no modo de sensibilidade reduzida. Operar apenas uma respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade intensificada consome menos potência do que operar múltiplas respectivas regiões 3502 no modo de sensibilidade intensificada. Em algumas modalidades, quando o contato não satisfaz mais os critérios, ou o contato é removido da respectiva região (por exemplo, por meio da elevação do contato da tela sensível ao toque 112), o dispositivo 100 reverte para a operação da respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) no modo de sensibilidade reduzida. Em algumas modalidades, a reversão para a operação da respectiva região (por exemplo, uma das regiões 3502 na Figura 35A) em modo de sensibilidade reduzida ocorre após uma predeterminada quantidade de tempo após o contato ser removido ou não satisfazer mais os critérios (por exemplo, um intervalo).
[000718] A Figura 35A mostra um contato com impressão digital 3504 detectada no ícone de "Mail" 418. O ícone de "Mail" 418 corresponde à região 3502-7, que é operada pelo dispositivo 100 no modo de sensibilidade reduzida. Na Figura 35A, o módulo de cliente de email 140 ao qual o ícone de "Mail" 418 corresponde, é configurado para solicitar a autenticação ou autorização para o acesso. Em resposta à detecção do contato com a impressão digital 3504 no ícone de "Mail" 418, o dispositivo 100 inicializa para operar a região 3502-7 no modo de sensibilidade intensificada. Com a região 3502-7 que operar no modo de sensibilidade intensificada, o dispositivo 100 pode detectar os recursos de impressão digital de impressão digital 3504 para os propósitos de autorização. Em algumas modalidades, se o dispositivo 100 determinar que a impressão digital 3504 não corresponde à impressão digital registrada anteriormente ou não pertence a um usuário autorizado do módulo de cliente de e-mail 140, o dispositivo 100 exibe a mensagem 3506 que alerta o usuário da falta de autorização para acessar o módulo de cliente de e-mail 140 conforme mostrado na Figura 35B. Se o dispositivo 100 determinar que a impressão digital 3504 corresponde a uma impressão digital registrada anteriormente que pertence a um usuário autorizado do módulo de cliente de e-mail 140, o dispositivo 100 ativa o módulo de cliente de e-mail 140 e exibe a interface de usuário 3508 do módulo de cliente de e-mail 140 conforme mostrado na Figura 35C. A interface de usuário 3508 inclui, por exemplo, uma listagem de contas de e-mail 3512 e uma listagem de caixas de entrada correspondentes 3510.
[000719] Em algumas modalidades, um usuário do dispositivo 100 pode ter acesso a algumas contas de e-mail (e caixas de entrada correspondentes) e não a outras. Quando a interface de usuário 3508 do módulo de cliente de e-mail 140 é exibida, a listagem de contas de email 3512 e listagem de caixas de entrada 3510 inclui apenas as contas de e-mail e caixas de entrada que o usuário é autorizado a acessar com base na impressão digital detectada na região 3502-7.
[000720] A Figura 35D ilustra o dispositivo 100 em um estado travado. Embora o dispositivo 100 esteja no estado travado e a tela sensível ao toque 112 esteja ativa (por exemplo, não no modo de suspensão), uma tela de trava é exibida na tela sensível ao toque 112. A tela de trava inclui o objeto de destravamento 3516 e o sulco virtual (ou imagem de destravamento) 3518, com o objeto de destravamento 3516 situado em uma extremidade (por exemplo, a extremidade esquerda) do sulco virtual (ou imagem de destravamento) 3518. O dispositivo 100 pode ser destravado arrastando-se o objeto de destrava- mento 3516 para a extremidade oposta (por exemplo, a extremidade direita) do sulco virtual 3518. A tela sensível ao toque 112 também inclui a região 3520 que o dispositivo 100 opera no modo de sensibilidade reduzida ou modo de sensibilidade intensificada. Quando não há contato detectado na região 3520, a região 3520 é operada no modo de sensibilidade reduzida.
[000721] Um contato com a impressão digital 3514 no objeto de destravamento 3516 e o movimento do contato e da impressão digital 3514 em direção à extremidade direita do sulco virtual 3518 são detectados na tela sensível ao toque 112. Em resposta à detecção do movimento do contato, o objeto de destravamento 3516 se move em direção à extremidade direita do sulco virtual 3518 conforme mostrado nas Figuras 35E a 35F e na Figura 35G; o contato arrasta o objeto de destravamento 3516 em direção à extremidade direita do sulco virtual 3518. Antes que a impressão digital 3514 alcance a região 3520 (por exemplo, enquanto a impressão digital 3514 está na localização 3514-a ou 3514-b), a região 3520 permanece no modo de sensibilidade reduzida.
[000722] Quando o dispositivo detecta a impressão digital 3514 na região 3520 (por exemplo, quando o contato com a impressão digital 3514 se move para a localização 3514-c), conforme mostrado na Figura 35F e na Figura 35G, o dispositivo 100 opera a região 3520 no modo de sensibilidade intensificada. Em algumas modalidades, o dispositivo 100 opera a região 3520 no modo de sensibilidade intensificada se o contato com a impressão digital 3514 for detectado se movendo na região 3520 abaixo de um predeterminado limite de veloci- dade. O dispositivo 100 detecta um ou mais recursos de impressão digital da impressão digital 3514. Com base nos recursos de impressão digital detectados, o dispositivo 100 determina se a impressão digital 3514 satisfaz um ou mais critérios de destravamento ou não. No exemplo mostrado na Figura 35G, se a impressão digital 3514 satisfaz 3522 os critérios de destravamento (por exemplo, a impressão digital é uma impressão digital registrada anteriormente de um usuário do dispositivo 100), então, o dispositivo 100 é destravado e, por exemplo, uma interface de usuário de lançamento de aplicativo (ou outra interface destravada) é exibida. Por outro lado, se a impressão digital 3514 não satisfizer os critérios de destravamento 3524 (por exemplo, a impressão digital não é identificada como uma impressão digital registrada anteriormente de um usuário do dispositivo 100) ou se os recursos de impressão digital 3514 não puderem ser detectados (por exemplo, devido a uma região 3520 estar no modo de sensibilidade reduzida), então, o dispositivo 100 permanece no estado travado e opcionalmente exibe uma interface de usuário alternativa para destravar o dispositivo 100 (por exemplo, uma interface de usuário de inserção de senha). Alternativamente, quando a impressão digital 3514 não satisfaz os critérios de destravamento 3524, a tela de trava mostrada na Figura 35D é reexibida.
[000723] A Figura 35H mostra a interface de usuário 3526 exibida na tela sensível ao toque 112. A interface de usuário 3526 inclui diversos campo de valor 3528 e manípulo virtual 3530. A interface de usuário 3526 é uma interface de usuário de um aplicativo que inclui inserção e/ou manipulação de valor numérico (por exemplo, uma calculadora, um aplicativo de controle termostático, um conversor de unidade, uma planilha). Um usuário interage com o manípulo virtual 3530 para ajustar um valor exibido no campo de valor numérico 3528. Por exemplo, um usuário coloca uma impressão digital na tela sensível ao toque 112 sobre o manípulo virtual 3530 e contorce a impressão digital para girar o manípulo virtual 3530. O valor no campo de valor numérico 3528 é alterado com o giro do manípulo virtual 3530.
[000724] Na Figura 35H a 35J, a área do manípulo virtual 3530 é uma região de tela sensível ao toque 112 que o dispositivo 100 opera no modo de sensibilidade reduzida ou modo de sensibilidade intensificada. Quando não há uma impressão digital detectada no manípulo virtual 3530, o dispositivo 100 opera uma porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade reduzida. Quando uma impressão digital é detectada no manípulo virtual 3530, o dispositivo 100 opera uma porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 tanto no modo de sensibilidade reduzida quando no modo de sensibilidade intensificada com ba-se na taxa a que a impressão digital detectada é contorcida. Por exemplo, a Figura 351 ilustra a impressão digital 3532 detectada no manípulo virtual 3530. O usuário contorce a impressão digital 3532 a uma taxa acima de um limite de velocidade predeterminado. De acordo com a taxa de contorção de limite superior de impressão digital 3532, o dispositivo 100 opera uma porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade reduzida. Enquanto opera a porção de tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade reduzida, o dispositivo 100 detecta o movimento (por exemplo, contorção) da impressão digital 3532 porém, não detecta os recursos da impressão digital 3532. Dessa forma, o dispositivo 100 detecta a contorção da impressão digital 3530 em incrementos relativamente bruscos. O manípulo virtual 3530 gira em incrementos bruscos de acordo com os incrementos bruscos de contorção detectados da impressão digital 3530. O valor in campo de valor numérico 3528 altera os incrementos bruscos de acordo com os incrementos bruscos de rotação do manípulo virtual 3530.
[000725] A Figura 35J ilustra a impressão digital 3534 análoga à impressão digital 3532 detectada no manípulo virtual 3530. O usuário contorce a impressão digital 3534 a uma taxa abaixo do limite de velocidade predeterminado. De acordo com a taxa de contorção de limite inferior da impressão digital 3534, o dispositivo 100 opera a porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade intensificada. Enquanto opera a porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade intensificada, o dispositivo 100 detecta os recursos da impressão digital 3532 assim como seu movimento de contorção. Detectando-se os recursos de impressão digital 3532, o dispositivo 100 pode detectar o movimento de tais recursos e, assim, detectar o movimento suave incluindo a contorção em incrementos suaves da impressão digital 3532. O manípulo virtual 3530 gira em incrementos suaves de acordo com os incrementos suaves de contorção detectados da impressão digital 3530. O valor in campo de valor numérico 3528 é alterado em incrementos suaves de acordo com os incrementos suaves de rotação do manípulo virtual 3530. Em algumas modalidades, o dispositivo 100 opera a porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530 no modo de sensibilidade intensificada em resposta à detecção da contorção de impressão digital 3534 no manípulo virtual 3530 sem considerar a velocidade da contorção.
[000726] Conforme mostrado nas Figuras 35A a 35J, a tela sensível ao toque 112 inclui uma ou mais regiões que o dispositivo 100 opera no modo de sensibilidade reduzida ou modo de sensibilidade intensificada. Deve-se observar que, em algumas modalidades, qualquer porção da tela sensível ao toque 112 (ou superfície sensível ao toque 451) pode ser operada pelo dispositivo (por exemplo, o dispositivo 100 ou 300) no modo de sensibilidade reduzida ou modo de sensibilidade intensificada. Em algumas modalidades, para uma determinada inter face de usuário exibida, algumas porções da tela sensível ao toque 112 (ou superfície sensível ao toque 451), tais como as porções da tela sensível ao toque 112 fora das regiões 3502, a região 3520, ou manípulo virtual 3530 permanece no modo de sensibilidade reduzida; a capacidade de transitar tais porções entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada é desabilitada. Por exemplo, para a interface de usuário 3501 conforme mostrado na Figura 35A, a capacidade de transitar as porções da tela sensível ao toque 112 fora das regiões 3502 entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada é desabilitada. Além disso, em algumas modalidades, uma região em que a transição entre os modos de sensibilidade está habilitada se move juntamente com o objeto de interface de usuário correspondente ou possibilidade. Por exemplo, na Figura 35A, se as localizações do ícone de "Notas" 444 e o ícone de "Clima" 438 são trocados entre si, a região 3502-5 se move para a nova localização do ícone de "Notas" 444 e a porção da tela sensível ao toque 112 que corresponde à antiga localização do ícone de "Notas" 444 (isto é, a nova localização do ícone de "Clima" 438) é desabilitada da transição entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada.
[000727] Em algumas modalidades, as porções da superfície sensível ao toque que são transitadas entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada correspondem a diferentes grupos de sensores que podem ser habilitados e desabilitados separadamente. Por exemplo, um primeiro conjunto de sensores que corresponde a um quadrante direito inferior da tela sensível ao toque 112, um segundo conjunto de sensores que corresponde a um quadrante direito superior da tela sensível ao toque 112, um terceiro conjunto de sensores que corresponde a um quadrante esquerdo inferior da tela sensível ao toque 112 e um quarto conjunto de sensores que corresponde a um quadrante esquerdo superior da tela sensível ao toque 112 podem, cada um, ser independentemente transitados entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada. Em algumas modalidades, as diferentes regiões são selecionadas para serem transitadas entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada com base em uma localização de um contato ou um objeto de interface de usuário na tela sensível ao toque 112, conforme descrito em maiores detalhes acima. Nas situações em que o dispositivo determina que uma região da interface de usuário que precisa de dados de sensibilidade intensificada abrange múltiplas regiões de conjuntos de sensores, o dispositivo, opcional-mente, habilita todas as múltiplas regiões de conjuntos de sensores para operar no modo de operação de sensibilidade intensificada, enquanto um ou mais outros conjuntos de sensores continuam a operar no modo de sensibilidade reduzida da operação.
[000728] As Figuras 36A a 36B são fluxogramas que ilustram um método 3600 para operar uma porção de uma superfície sensível ao toque em um modo de operação de sensibilidade intensificada de acordo com algumas modalidades. O método 3600 é realizado em um dispositivo eletrônico (por exemplo, dispositivo 300, Figura 3, ou dispositivo portátil de múltiplas funções 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 3600 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcio-nalmente, alterada.
[000729] Conforme descrito abaixo, o método 3600 fornece uma maneira intuitiva para operar a porção de uma superfície sensível ao toque em um modo de operação de sensibilidade intensificada. O méto- do reduz a carga cognitiva sobre um usuário ao operar uma superfície sensível ao toque, assim, criando uma interface de humano-máquina mais eficaz. Para os dispositivos eletrônicos operados com bateria, habilitar a operação de uma porção de uma superfície sensível ao toque em um modo de operação de sensibilidade intensificada conserva a potência e aumenta o tempo entre as cargas de bateria.
[000730] O dispositivo detecta (3602) um contato em uma primeira região da superfície sensível ao toque em que a primeira região da superfície sensível ao toque está em um modo de operação de sensibilidade reduzida. A Figura 35A, por exemplo, ilustra um contato com a impressão digital 3504 detectada na região 3502-7 que é operada no modo de sensibilidade reduzida. A Figura 35F mostra um contato com a impressão digital 3514 que se move para a localização 3514-c, que está na região 3520 que é operada no modo de sensibilidade reduzida. A Figura 35H mostra um contato com a impressão digital 3532 detectada no manípulo virtual 3530, que é, também, uma região que é operada no modo de sensibilidade reduzida. Em algumas modalidades, a superfície sensível ao toque inclui (3603) uma pluralidade de diferentes regiões (por exemplo, as regiões que correspondem aos subconjuntos da superfície sensível ao toque) e o dispositivo é configurado para transitar, independentemente, cada uma dentre a pluralidade de diferentes regiões entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada (por exemplo, o dispositivo pode girar o modo de sensibilidade intensificada "ligado" para uma ou mais das regiões sem ligar o modo de sensibilidade intensificada para toda a superfície sensível ao toque). Ligar o modo de sensibilidade intensificada em determinadas áreas, porém, não em outras, se não houver a necessidade de que toda a superfície sensível ao toque esteja no modo de sensibilidade intensificada, reduz as demandas sobre o processador e estende a vida útil da bateria. Por exemplo, a Figura 35A mostra as regiões 3502-1 a 3502-7. Em algumas modalidades, o dispositivo está configurado para transitar independentemente cada uma das regiões 3502-1 a 3502-7 (ou regiões da tela sensível ao toque 112 que incluem tais regiões) entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada.
[000731] Em resposta à detecção do contato (3604), o dispositivo determina (3606) se o contato satisfaz um ou mais critérios de ativação de sensor de impressão digital. O dispositivo 100 determina, por exemplo, se a impressão digital 3504 (ou impressão digital 3514 ou 3532 ou 3534) satisfaz um ou mais critérios de ativação de sensor de impressão digital.
[000732] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem (3608) um critério que é satisfeito quando um contato em formato de impressão digital é detectado na primeira região da superfície sensível ao toque. Por exemplo, um critério de ativação de sensor de impressão digital é satisfeito por meio da detecção de um contato com a impressão digital 3504 na região 3502-7 (ou a detecção de um contato com a impressão digital 3514 na região 3520).
[000733] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem (3610) um critério que é satisfeito quando um contato em formato de impressão digital é detectado ao se mover a uma velocidade abaixo de um limite de velocidade predeterminado (por exemplo, a sensibilidade intensificada ajuda a tornar o movimento lente mais preciso/o movimento lento indica que o usuário interage com um elemento de interface de usuário sensível à impressão digital). Por exemplo, um critério de ativação de sensor de impressão digital é satisfeito por maio da detecção da contorção de impressão digital 3534 no manípulo virtual 3530 a uma taxa abaixo de um limite predeterminado. Como outro exemplo, um critério de ativa- ção de sensor de impressão digital é satisfeito por meio da detecção de um contato com o movimento de impressão digital 3514 na região 3520 a uma taxa abaixo de um limite predeterminado.
[000734] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem (3612) um critério que é satisfeito quando um contato é detectado sobre a superfície sensível ao toque enquanto um seletor de foco que corresponde ao contato está sobre um elemento de interface de usuário sensível à impressão digital. Por exemplo, o dispositivo detecta um contato sobre um controle que opera de acordo com uma impressão digital detectada (por exemplo, um manípulo ou dígito que opera em resposta à contorção de uma impressão digital, ou uma possibilidade que é restringida de modo que apenas seja ativada de acordo com uma impressão digital detectada) e liga a impressão digital sensibilidade em uma região da superfície sensível ao toque que inclui o contato e/ou o controle de modo que a impressão digital que corresponde ao contato possa ser identificada e usada para operar o controle. Por exemplo, um critério de ativação de sensor de impressão digital é satisfeito por meio de detecção da contorção de impressão digital 3534 no manípulo virtual 3530. Como outro exemplo, um critério de ativação de sensor de impressão digital é satisfeito por meio de detecção de um contato com a impressão digital 3504 na região 3502-7.
[000735] De acordo com a determinação de que o contato satisfaz os critérios de ativação de sensor de impressão digital, o dispositivo opera (3614) a primeira região da superfície sensível ao toque em um modo de operação de sensibilidade intensificada (por exemplo, para os contatos no interior da primeira região da superfície sensível ao toque, o dispositivo pode detectar a presença/ausência e movimento do contato e, além disso, o dispositivo pode detectar os recursos de impressão digital do contato, tal como uns recursos de minúcia que habilitam o contato para que seja unicamente identificado como uma impressão digital registrada anteriormente). Por exemplo, o dispositivo 100 opera a região 3502-7 (e, de modo similar, a região 3520 ou uma porção da tela sensível ao toque 112 que inclui o manípulo virtual 3530) no modo de sensibilidade intensificada quando os critérios de ativação de sensor de impressão digital são satisfeitos.
[000736] De acordo com uma determinação de que o contato não satisfaz os critérios de ativação de sensor de impressão digital, o dispositivo continua a operar (3618) a primeira região da superfície sensível ao toque no modo de operação de sensibilidade reduzida (por exemplo, para as regiões da superfície sensível ao toque que operam no modo de sensibilidade reduzida, o dispositivo pode detectar a pre- sença/ausência e movimento do contato, porém, não pode detectar os recursos de impressão digital do contato tal como os recursos de minúcia que habilitam o contato para que seja unicamente identificada como uma impressão digital registrada anteriormente). Por exemplo, na Figura 351, quando os critérios de ativação de sensor de impressão digital incluem o movimento ou rotação abaixo de uma taxa-limite, quando a impressão digital 3532 se contorce acima da velocidade- limite, o dispositivo 100 continua a operar o manípulo virtual 3530 no modo de sensibilidade reduzida.
[000737] Em algumas modalidades, enquanto a primeira região da superfície sensível ao toque está no modo de operação de sensibilidade intensificada, o dispositivo pode (3616) detectar os detalhes de impressão digital de um contato detectado na primeira região; e enquanto a primeira região da superfície sensível ao toque está no modo de operação de sensibilidade reduzida, o dispositivo não pode (3620) detectar os detalhes de impressão digital de um contato detectado na primeira região. Por exemplo, enquanto o dispositivo 100 opera a região 3502-7 (ou a região 3520 ou 3530) no modo de sensibilidade inten- sificada, o dispositivo 100 pode detectar os detalhes de impressão digital (por exemplo, os recursos de impressão digital) de um contato (por exemplo, um contato com a impressão digital 3504, um contato com a impressão digital 3514, um contato com a impressão digital 3534) detectados na região. Enquanto o dispositivo 100 opera a região 3502-7 (ou a região 3520 ou 3530) no modo de sensibilidade reduzida, o dispositivo 100 não pode detectar os detalhes de impressão digital (por exemplo, os recursos de impressão digital) de um contato detectado na região e, assim, não rastreia os movimentos do contato tão precisamente quanto quando a região opera no modo de sensibilidade intensificada.
[000738] Em algumas modalidades, enquanto opera a primeira região da superfície sensível ao toque no modo de sensibilidade intensificada (3622), o dispositivo detecta (3624) os recursos de impressão digital do contato e, em resposta à detecção dos recursos de impressão digital do contato, realiza (3626) uma operação de acordo com os recursos de impressão digital (por exemplo, em resposta à detecção dos recursos de impressão digital do contato, o dispositivo realiza uma operação à base de identidade ou uma operação que solicita a detecção de recursos de impressão digital do contato). Por exemplo, o dispositivo detecta pequenos movimentos do contato com base na detecção de movimentos dos recursos de minúcia da impressão digital, em que os pequenos movimentos do contato não são detectáveis com base no movimento do contato geral sem considerar os recursos de im-pressão digital. Nas Figuras 35B a 35C, o dispositivo 100 detecta os recursos de impressão digital 3504 na região 3502-7 e tanto exibe a mensagem de erro 3506 quanto exibe a interface de usuário 3508 do módulo de cliente de e-mail 140 com base nos recursos de impressão digital detectados 3504. Na Figura 35G, o dispositivo 100 detecta os recursos de impressão digital 3514 na região 3520 e destrava o dispo- sitivo 100 ou deixa o dispositivo 100 com base na possibilidade de a impressão digital 3514 satisfazer os critérios de destravamento 3522 ou não satisfazer os critérios de destravamento 3524. Na Figura 35J, o dispositivo 100 detecta o movimento dos recursos de impressão digital 3534 no manípulo virtual 3530 e gira o manípulo virtual 3530 em incrementos suaves de acordo com o movimento detectado dos recursos de impressão digital.
[000739] Em algumas modalidades, enquanto opera a primeira região no modo de sensibilidade intensificada (3622), o dispositivo opera (3628) uma ou mais das outras regiões da superfície sensível ao toque no modo de sensibilidade reduzida (por exemplo, enquanto a primeira região está habilitada para detectar os detalhes de impressão digital dos contatos detectados sobre a superfície sensível ao toque, as outras regiões da superfície sensível ao toque podem detectar a presen- ça/ausência e movimento dos contatos sem detectar os detalhes de impressão digital dos contatos). Por exemplo, a Figura 35A mostra múltiplas regiões 3502 que são operáveis no modo de sensibilidade reduzida ou modo de sensibilidade intensificada (e o restante da tela sensível ao toque 112 é operável no modo de sensibilidade reduzida). Enquanto a região 3502-7 é operada no modo de sensibilidade intensificada, as outras regiões 3502 são operadas no modo de sensibilidade reduzida. Manter algumas das regiões da tela sensível ao toque 112 no modo de sensibilidade reduzida enquanto opera uma respectiva região no modo de sensibilidade intensificada fornece os benefícios de precisão intensificada e/ou habilidade para autenticar um usuário na respectiva região enquanto se reduz o uso de potência mantendo-se as outras regiões em um modo de sensibilidade reduzida de potência inferior quando o modo de sensibilidade intensificada não é necessário para as outras regiões.
[000740] Em algumas modalidades, operar (3630) a primeira região da superfície sensível ao toque no modo de sensibilidade intensificada consome mais potência do que operar a primeira região da superfície sensível ao toque no modo de sensibilidade reduzida. Dessa forma, comutar a primeira região da superfície sensível ao toque do modo de sensibilidade reduzida para o modo de sensibilidade intensificada a uma base "conforme a necessidade" reduz o consumo de energia geral do dispositivo, aumentando assim a eficiência de energia e a vida útil da bateria do dispositivo. Por exemplo, operar a região 3502-7 no modo de sensibilidade intensificada quando um contato é detectado no interior e no modo de sensibilidade reduzida em outros instantes reduz o consumo de potência em comparação com a operação da região 3502-7 no modo de sensibilidade intensificada o tempo inteiro.
[000741] Em algumas modalidades, operar (3632) mais do que a primeira região da superfície sensível ao toque no modo de sensibilidade intensificada consome mais potência que operar apenas a primeira região da superfície sensível ao toque no modo de sensibilidade intensificada (por exemplo, enquanto opera o restante da superfície sensível ao toque no modo de sensibilidade reduzida). Dessa forma, operar o restante da superfície sensível ao toque no modo de sensibilidade reduzida enquanto opera a primeira região da superfície sensível ao toque no modo de sensibilidade intensificada reduz o consumo geral de energia do dispositivo, aumentando assim a eficiência de energia e a vida útil da bateria do dispositivo. Por exemplo, operar apenas qualquer região 3502 em que um contato seja detectado (por exemplo, a região 3502-7 na Figura 35A) no modo de sensibilidade intensificada e o restante no modo de sensibilidade reduzida reduz o consumo de potência em comparação à operação de mais de uma das regiões 3502 no modo de sensibilidade intensificada.
[000742] Deve-se entender que a ordem específica em que as operações nas Figuras 33A a 33B foram descritas é meramente exemplifi- cadora e não se destina a indicar que a ordem descrita é a única ordem em que as operações podem ser realizadas. Um elemento de habilidade comum na técnica reconhece várias maneiras para reorganizar as operações descritas neste documento. Adicionalmente, deve-se observar que os detalhes de outros processos aqui descritos em relação a outros métodos descritos neste documento (por exemplo, os listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 3600 descrito acima em relação às Figuras 33A a 33B. Por exemplo, as impressões digitais, os contatos e as interfaces de usuário descritas acima em relação ao método 3600 têm, opcio-nalmente, uma ou mais das características das impressões digitais, contatos e interfaces de usuário descritas neste documento em relação aos outros métodos descritos neste documento (por exemplo, aqueles listados no parágrafo [00123]). Visando a brevidade, tais detalhes não são repetidos neste documento.
[000743] De acordo com algumas modalidades, a Figura 37 mostra um diagrama de blocos funcional de um dispositivo eletrônico 3700 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são, opcionalmente, implantados por meio de hardware, software ou uma combinação de hardware e software para executar os princípios das várias modalidades descritas. É entendido pelos elementos versados na técnica que os blocos funcionais descritos na Figura 37 são, opcionalmente, combinados ou separados em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição neste documento opcionalmente suporta qualquer combinação ou separação possíveis ou definição adicional dos blocos funcionais descritos neste documento.
[000744] Conforme mostrado na Figura 37, um dispositivo eletrônico 3700 inclui uma unidade de exibição 3702, uma unidade de superfície sensível ao toque 3704 configurada para receber os contatos e uma unidade de processamento 3708 acoplada à unidade de exibição 3702 e à unidade de superfície sensível ao toque 3704. Em algumas modalidades, a unidade de processamento 3708 inclui uma unidade de detecção 3710, uma unidade de determinação 3712, uma unidade de operação 3714, uma unidade de realização 3716 e uma unidade de transição 3718.
[000745] A unidade de processamento 3708 está configurada para: detectar um contato em uma primeira região da unidade de superfície sensível ao toque 3704 (por exemplo, com a unidade de detecção 3710), em que a primeira região da unidade de superfície sensível ao toque 3704 está em um modo de operação de sensibilidade reduzida; em resposta à detecção do contato: determinar se o contato satisfaz os critérios de ativação de sensor de impressão digital (por exemplo, com a unidade de determinação 3712); de acordo com uma determinação de que o contato satisfaz os critérios de ativação de sensor de impressão digital, operar a primeira região da unidade de superfície sensível ao toque 3704 em um modo de operação de sensibilidade intensificada (por exemplo, com a unidade de operação 3714); e de acordo com uma determinação de que o contato não satisfaz os critérios de ativação de sensor de impressão digital, continuar a operar a primeira região da unidade de superfície sensível ao toque 3704 no modo de operação de sensibilidade reduzida (por exemplo, com a unidade de operação 3714).
[000746] Em algumas modalidades, enquanto a primeira região da unidade de superfície sensível ao toque 3704 está no modo de operação de sensibilidade intensificada, a unidade de processamento 3708 pode detectar os detalhes de impressão digital de um contato detectado na primeira região (por exemplo, com a unidade de detecção 3710) e enquanto a primeira região da unidade de superfície sensível ao toque 3704 está no modo de operação de sensibilidade reduzida, a uni dade de processamento 3708 não pode detectar os detalhes de impressão digital de um contato detectado na primeira região (por exemplo, com a unidade de detecção 3710).
[000747] Em algumas modalidades, a unidade de processamento 3708 está configurada para, enquanto opera a primeira região da unidade de superfície sensível ao toque 3704 no modo de sensibilidade intensificada: detectar os recursos de impressão digital do contato (por exemplo, com a unidade de detecção 3710) e em resposta à detecção dos recursos de impressão digital do contato, realizar uma operação de acordo com os recursos de impressão digital (por exemplo, com a unidade de realização 3716).
[000748] Em algumas modalidades, a unidade de superfície sensível ao toque 3704 inclui uma pluralidade de diferentes regiões e a unidade de processamento 3708 está configurada para transitar, independentemente, cada uma dentre a pluralidade de diferentes regiões entre o modo de sensibilidade reduzida e o modo de sensibilidade intensificada (por exemplo, com a unidade de transição 3718).
[000749] Em algumas modalidades, a unidade de processamento 3708 está configurada para, enquanto opera a primeira região no modo de sensibilidade intensificada, operar uma ou mais das outras regiões da unidade de superfície sensível ao toque 3704 no modo de sensibilidade reduzida (por exemplo, com a unidade de operação 3714).
[000750] Em algumas modalidades, operar a primeira região da unidade de superfície sensível ao toque 3704 no modo de sensibilidade intensificada consome mais potência do que operar a primeira região da unidade de superfície sensível ao toque 3704 no modo de sensibilidade reduzida.
[000751] Em algumas modalidades, operar mais que a primeira região da unidade de superfície sensível ao toque 3704 no modo de sensibilidade intensificada consome mais potência do que operar apenas a primeira região da unidade de superfície sensível ao toque 3704 no modo de sensibilidade intensificada.
[000752] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem um critério que é satisfeito quando um contato em formato de impressão digital é detectado na primeira região da unidade de superfície sensível ao toque 3704.
[000753] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem um critério que é satisfeito quando um contato em formato de impressão digital é detectado ao se mover a uma velocidade abaixo de um limite de velocidade predeterminado.
[000754] Em algumas modalidades, o um ou mais critérios de ativação de sensor de impressão digital incluem um critério que é satisfeito quando um contato é detectado na unidade de superfície sensível ao toque 3704 enquanto um seletor de foco que corresponde ao contato está sobre um elemento de interface de usuário sensível à impressão digital.
[000755] As operações nos métodos para processamento de informações descritos acima são opcionalmente implantadas rodando-se um ou mais módulos funcionais no aparelho de processamento de informações, tais como os processadores de propósito geral (por exemplo, conforme descrito acima em relação às Figuras 1A e 3) ou os chips específicos quanto ao aplicativo.
[000756] As operações descritas acima em relação às Figuras 36A a 36B são, opcionalmente, implantadas por componentes representados nas Figuras 1A a 1B ou a Figura 37. Por exemplo, a operação de detecção 3602, a operação de determinação 3606 e as operações de operação 3614 e 3618 são, opcionalmente, implantadas pelo classificador de evento 170, reconhecedor de evento 180 e o manipulador de evento 190. O monitor de evento 171 no classificador de evento 170 detecta um contato sobre o visor sensível ao toque 112 e o módulo despachante de evento 174 entrega as informações de evento para o aplicativo 136-1. Um respectivo reconhecedor de evento 180 do aplicativo 136-1 compara as informações de evento com as respectivas definições de evento 186 e determina se um primeiro contato em uma primeira localização sobre a superfície sensível ao toque corresponde a um evento ou subevento predefinido, tal como a seleção de um objeto em uma interface de usuário. Quando um respectivo evento ou su- bevento predefinido é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. O manipulador de evento 190, opcionalmente, utiliza ou chama o atualizador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, o manipulador de evento 190 acessa um respectivo atualizador de GUI 178 para atualizar o que é exibido pelo aplicativo. De modo similar, ficará evidente para um elemento de habilidade comum na técnica como outros processos podem ser implantados com base nos componentes representados nas Figuras 1A a 1B. Realização de Operações Associadas a Gestos de Impressão Digital
[000757] Diversos dispositivos eletrônicos têm respectivos aplicativos para realizar as respectivas operações, juntamente com as respectivas interfaces de usuário e possibilidades correspondentes. Tipicamente, para que uma operação seja realizada por um dispositivo, o usuário lança o aplicativo correspondente (por exemplo, por meio da ativação de um ícone de aplicativo correspondente) no dispositivo de modo que as interfaces de usuário e possibilidades correspondentes sejam exibidas. O usuário, então, ativa a operação com o uso da interface de usuário e possibilidades. Entretanto, por vezes, o usuário que uma operação realizada no momento em que interage com um aplicativo ou interface de usuário não relacionados. Nos métodos atuais, o usuário ainda pre- cisaria ativar o ícone de aplicativo para lançar o aplicativo para realizar a operação. Isso é demorado e compromete a experiência de usuário. As modalidades descritas abaixo aprimoram tais métodos por meio da associação de uma determinada impressão digital com uma operação em um dispositivo. Quando o usuário realiza um gesto com tal impressão digital enquanto uma interface de usuário não relacionada à operação desejada é exibida, o dispositivo realiza a operação. Dessa forma, o usuário pode ativar uma operação enquanto uma interface de usuário não relacionada à operação é exibida; o usuário tem a habilidade de ativar a operação de maneira rápida e eficiente, aprimorando assim a velocidade e eficiência da interface de usuário.
[000758] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é dispositivo portátil de múltiplas funções 100, o visor tem tela sensível ao toque 112 e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo em relação a 38A a 38P e 39A a 39E inclui, opcionalmente, um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados dentro da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de visor sensível ao toque 112). Exceto quando especificado de outro modo, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, ou um sensor de impressão di gital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que inclui o sensor de impressão digital 169. Visando a conveniência da explicação, as modalidades descritas em relação às Figuras 38A a 38P e 39A a 39E serão discutidas em relação à tela sensível ao toque 112 e, opcionalmente, um ou mais sensores de impressão digital 169; em tais modalidades, o seletor de foco é, opcionalmente: um respectivo contato, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um respectivo contato ou um ponto associado a um respectivo contato) ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112 no lugar de um cursor. As operações análogas são, opcionalmente, realizadas em um dispositivo com o visor 450, uma superfície sensível ao toque separada 451 e, opcionalmente, um ou mais sensores de impressão digital 169 em resposta à detecção das entradas descritas nas Figuras 38A a 38P sobre a superfície sensível ao toque 451 enquanto exibe as interfaces de usuário mostradas nas Figuras 38A a 38P no visor 450.
[000759] A Figura 38A ilustra a interface de usuário 3801 exibida na tela sensível ao toque 112 de um dispositivo (dispositivo 100). A tela sensível ao toque 112 inclui um sensor de impressão digital integrado. Na Figura 38A, a interface de usuário de lançamento de aplicativo 3801 que inclui um ou mais ícones para o lançamento de respectivos aplicativos é exibida no visor de tela sensível ao toque 112. No dispositivo, uma ou mais respectivas impressões digitais são associadas às respectivas operações. Em algumas modalidades, as impressões digitais são diferenciadas por mão e dedo. Por exemplo, uma impressão de polegar direito é associada a uma respectiva função ou operação e uma impressão de polegar esquerdo é associada a outra respectiva função ou operação. Em algumas modalidades, uma função ou operação relacionada à câmera (por exemplo, uma função de obturador pa ra capturar uma foto ou vídeo, que exibe uma pré-visualização de câmera) é associada a uma respectiva impressão digital.
[000760] Enquanto a interface de usuário de lançamento de aplicativo 3801 é exibida na tela sensível ao toque 112, o dispositivo detecta um gesto com a impressão digital 3802 na tela sensível ao toque 112. A impressão digital 3802 é identificada pelo dispositivo como uma impressão de polegar direito. Em tal exemplo, a impressão de polegar direito é associada à exibição de uma interface de câmera e uma pré- visualização de câmera e imagem parada ou captura de foto. Em resposta à detecção do gesto com a impressão digital 3802, o dispositivo exibe a interface de câmera 3804, que corresponde ao módulo de câmera 143 na tela sensível ao toque 112 conforme mostrado na Figura 38B. Em algumas modalidades, o dispositivo exibe a pré-visualização de câmera 3804 em resposta à detecção da impressão digital 3802 na tela sensível ao toque 112 durante pelo menos um período de tempo predefinido. A interface de câmera 3804 inclui a pré-visualização de câmera 3806. A pré-visualização de câmera 3806 mostra o conteúdo que é detectado por uma câmera (por exemplo, o(s) sensor(es) ópti- co(s) 164) no dispositivo, e pré-visualiza o que será capturado pela câmera conforme uma imagem parada ou vídeo se uma função de captura de mídia for ativada no dispositivo.
[000761] Em algumas modalidades, as impressões digitais detectadas na tela sensível ao toque 112 são identificadas com base na comparação com os recursos registrados anteriormente de impressões digitais de usuários ou com recursos associados aos tipos de impressão digital predefinidos. Por exemplo, a impressão digital 3802 é identificada com uma impressão de polegar direito através da identificação da impressão digital 3802 com a impressão de polegar direito de um usuário específico ou a identificação da impressão digital 3802 como uma impressão de polegar direito genérica (isto é, sem identificar que a im- pressão digital 3802 pertence a um usuário específico).
[000762] O dispositivo detecta uma continuação do gesto com a impressão digital 3802, em que a continuação inclui um aumento na intensidade de um contato que corresponde à impressão digital 3802 acima de um limite de intensidade predefinido (por exemplo, um limite de intensidade que é superior a um limite de intensidade de detecção de contato padrão), conforme mostrado na Figura 38C. Por exemplo, o usuário pressiona a tela sensível ao toque 112 com o contato que corresponde à impressão digital 3802. Em resposta à detecção do aumento de intensidade acima do limite, o dispositivo ativa uma função de obturador que ativa uma captura de uma imagem parada ou foto que corresponde à pré-visualização de câmera 3806. Em algumas modalidades, o dispositivo exibe uma animação de representação 3808 da foto capturada que se move para uma tira de filme ou rolo de câmera para o aplicativo de câmera 143 conforme ilustrado na Figura 38C. Após a foto ser capturada, o dispositivo interrompe a exibição da interface de câmera 3804 e a intervisualização de câmera 3806 e ree- xibe a interface de usuário exibida anteriormente (por exemplo, a interface de usuário de lançamento de aplicativo 3801), conforme mostrado na Figura 38D.
[000763] Em algumas modalidades, o dispositivo ativa a função de obturador para capturar o conteúdo em resposta à detecção da impressão digital 3802 continuamente durante um período maior que um respectivo limite de tempo (por exemplo, 2, 5, 10 segundos ou qualquer outro limite de tempo razoável), em vez de em resposta à detecção de um aumento na intensidade de contato. Por exemplo, a função de obturador é ativada se a impressão digital 3802 na Figura 38B for continuamente detectada, de uma detecção inicial, durante um período de tempo mais longo que o intervalo de tempo. Dessa forma, em al-gumas modalidades, mesmo enquanto uma interface de usuário que não inclui uma possibilidade para exibir uma interface de câmera ou ativar uma função de obturador (ou outra operação) é exibida, um usuário ainda pode ativar a exibição de uma interface de câmera e/ou uma função de obturador (ou outra operação) com um gesto que inclui uma impressão digital associada à(s) respectiva(s) operação(ões).
[000764] As Figuras 38E a 38H ilustram outro exemplo de ativação de uma respectiva operação enquanto uma interface de usuário que não inclui uma possibilidade de ativação da respectiva operação é exibida. A Figura 38E ilustra a interface de usuário de lançamento de aplicativo 3801 exibida na tela sensível ao toque 112 conforme na Figura 38A. Um gesto com a impressão digital 3810 é detectado na tela sensível ao toque 112. A impressão digital 3810 é detectada pelo dispositivo como uma impressão de polegar direito. Em tal exemplo, a impressão de polegar direito é associada à exibição de uma interface de câmera e uma pré-visualização de câmera e gravação de vídeo. Em resposta à detecção do gesto com a impressão digital 3810, o dispositivo exibe a interface de câmera 3804 e pré-visualização de câmera 3812 na tela sensível ao toque 112 conforme mostrado na Figura 38F. Além disso, o dispositivo ativa a gravação do vídeo que corresponde à pré-visualização de câmera 3812. Enquanto o vídeo é gravado, o indicador de gravação 3813 é, opcionalmente, exibido na tela sensível ao toque 112 para indicar que a gravação está em progresso assim como o comprimento de tempo da gravação em progresso. A Figura 38G mostra o gesto com a impressão digital 3810 não mais detectado na tela sensível ao toque 112 devido, por exemplo, à impressão digital 3810 ter sido elevada da tela sensível ao toque 112. Em resposta à detecção da elevação, o dispositivo interrompe a gravação do vídeo e interrompe a exibição da interface de câmera 3804 e a pré- visualização de câmera 3812 e reexibe a interface de usuário 3801 conforme mostrado na Figura 38H.
[000765] Em algumas modalidades, o gesto que inclui uma impressão digital é específico quanto à orientação, localização e/ou duração e a possibilidade de uma operação associada à impressão digital ser ativada depende da possibilidade de a impressão digital satisfazer as exigências de orientação, localização e ou duração. Por exemplo, em algumas modalidades, se a impressão digital 3802 for detectada na tela sensível ao toque 112 durante menos que um período de tempo predeterminado, a operação não é realizada. Em algumas modalidades, se a impressão digital for detectada em uma localização além de uma localização predeterminada (por exemplo, o quadrante direito superior da tela sensível ao toque 112 com base na orientação de tela atual) na tela sensível ao toque 112 (por exemplo, a impressão digital 3814 que está no quadrante direito inferior (Figura 381), em oposição à impressão digital 3802 ou 3810 que está no quadrante direito superior), a operação não é realizada. Em algumas modalidades, se a im-pressão digital for detectada em uma orientação além de uma orientação predeterminada (por exemplo, ângulo de 45° ± 10° graus da vertical de lado direito para cima) na tela sensível ao toque 112 (por exemplo, sendo que a impressão digital 3816 está fora da faixa de ângulo de orientação (Figura 38J), em oposição à impressão digital 3802 ou 3810 que está na faixa de ângulo de orientação), a operação não é realizada (por exemplo, a mídia não é capturada e o dispositivo não substitui a exibição de uma interface de usuário atualmente exibida pela interface de usuário de captura de mídia).
[000766] As Figuras 38K a 38L ilustram ainda outro exemplo de ativação de uma respectiva operação enquanto uma interface de usuário que não inclui uma possibilidade para ativar a respectiva operação é exibida. A Figura 38K ilustra a interface de usuário 3818 para um aplicativo de notas exibido na tela sensível ao toque 112. Um gesto com a impressão digital 3820 é detectado na tela sensível ao toque 112 e, então, elevado da tela sensível ao toque 112 após um período de tempo predefinido. A impressão digital 3820 é detectada pelo dispositivo como uma impressão de polegar direito. Em tal exemplo, a impressão de polegar direito está associada à exibição de uma interface de comunicações, tal como uma interface de usuário de aplicativo de telefone, interface de usuário de aplicativo de e-mail ou uma interface de usuário de aplicativo de mensagem. Em resposta à detecção do gesto com a impressão digital 3820 e A elevação subsequente, o dispositivo exibe a interface de aplicativo de telefone 3822 na tela sensível ao toque 112 conforme mostrado na Figura 38L.
[000767] Em algumas modalidades, múltiplas impressões digitais são respectivamente associadas, no dispositivo, às diferentes operações. Por exemplo, a impressão de polegar direito está associada a uma captura de imagem parada e a impressão de polegar esquerdo está associada à gravação de vídeo, cujo exemplo é mostrado nas Figuras 38M a 38P. A Figura 38M ilustra um gesto com a impressão digital 3824 detectada na tela sensível ao toque 112 enquanto a interface de usuário de lançamento de aplicativo 3801 é exibida na tela sensível ao toque 112. A impressão digital 3824 é detectada como uma impressão de polegar direito. Em resposta à detecção do gesto com a impressão digital 3824, a interface de câmera 3804 e pré-visualização de câmera 3826 são exibidas e uma foto que corresponde à pré-visualização de câmera 3826 é capturada conforme mostrado na Figura 38N. Após a foto ser capturada, o dispositivo, opcionalmente, interrompe a exibição da interface de câmera 3804 e a pré-visualização de câmera 3826 e reexibe a interface de usuário anteriormente exibida (por exemplo, a interface de usuário de lançamento de aplicativo 3801).
[000768] A Figura 38O ilustra um gesto com a impressão digital 3828 detectada na tela sensível ao toque 112 enquanto a interface de usuário 3801 é exibida na tela sensível ao toque 112. A impressão digital 3828 é detectada como uma impressão de polegar esquerdo. Em resposta à detecção do gesto com a impressão digital 3828, a interface de câmera 3804 e a pré-visualização de câmera 3830 são exibidas e o vídeo que corresponde à pré-visualização de câmera 3830 é capturado conforme mostrado na Figura 38P. A gravação de vídeo e a exibição da interface de câmera 3804 e da pré-visualização de câmera 3830 é, opcionalmente, parado quando a elevação do gesto com a impressão digital 3828 é detectada. Após a exibição da interface de câmera 3804 e a pré-visualização de câmera 3830 serem interrompidas, o dispositivo reexibe a interface de usuário 3801.
[000769] As Figuras 39A a 39E são fluxogramas que ilustram um método 3900 de operação de realização associado aos gestos de impressão digital de acordo com algumas modalidades. O método 3900 é realizado em um dispositivo eletrônico (por exemplo, dispositivo 300, Figura 3, ou dispositivo portátil de múltiplas funções 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 3900 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000770] Conforme descrito abaixo, o método 3900 fornece uma maneira intuitiva para realizar as operações associadas aos gestos de impressão digital. O método reduz a carga cognitiva sobre um usuário quando a operação de realização associada aos gestos de impressão digital, criando assim uma interface de humano-máquina mais eficaz. Para os dispositivos eletrônicos operados com bateria, habilitar um usuário para realizar as operações associadas aos gestos de impressão digital de maneira mais rápida e eficiente conserva a potência e aumenta o tempo entre as cargas de bateria.
[000771] O dispositivo associa (3902) uma primeira impressão digital a uma primeira operação (por exemplo, durante um processo de registro de impressão digital atribui a impressão de polegar direito a uma função de obturador de um aplicativo de câmera). Por exemplo, nas Figuras 38A a 38D, a impressão de polegar direito é associada a uma função de obturador de câmera.
[000772] O dispositivo exibe (3904), no visor, uma respectiva interface de usuário que inclui as possibilidades de realização de uma pluralidade de operações além da primeira operação (por exemplo, a interface de usuário não é uma interface de usuário para realizar a primeira operação e a interface de usuário não contém as possibilidades ou outros elementos de interface de usuário para realizar a primeira operação). A interface de usuário 3801 exibida na tela sensível ao toque 112 conforme mostrado nas Figuras 38A e 38E, por exemplo, inclui as possibilidades para lançar os aplicativos (por exemplo, os ícones de aplicativo), porém, não inclui a possibilidade de capturar uma foto ou gravar um vídeo. De modo similar, a interface de usuário 3818 (Figura 38K) inclui as possibilidades relacionadas à ação de tomar notas (por exemplo, as respectivas possibilidades de abrir uma nota existente, criar uma nota nova, excluir uma nota, etc.), porém, não inclui uma possibilidade relacionada a realização de uma ligação telefônica. Em algumas modalidades, a respectiva interface de usuário não inclui (3906) um controle exibido para realizar a primeira operação. Por exemplo, a interface de usuário 3801 (Figura 38A ou 38E) não inclui um controle para capturar uma foto ou gravar um vídeo. A interface de usuário 3818 (Figura 38K) não inclui um controle para realizar uma ligação telefônica ou para ativar a exibição de uma interface de aplicativo de telefone.
[000773] Em algumas modalidades, a respectiva interface de usuário é (3908) uma interface de usuário de um primeiro aplicativo que não é configurado para realizar a primeira operação e a primeira operação é realizada por um segundo aplicativo diferente do primeiro aplicativo. Por exemplo, a interface de usuário 3818 (Figura 38K) é uma interface de usuário para um aplicativo de notas (por exemplo, módulo de notas 153), que não é configurado para realizar as operações de câmera. As operações de câmera são realizadas por um aplicativo de câmera (por exemplo, módulo de câmera 143). Em algumas modalidades, a respectiva interface de usuário é (3910) uma interface de usuário de uma tela de lançamento de aplicativo que não está configurada para realizar a primeira operação e a primeira operação é realizada por um respectivo aplicativo diferente da tela de lançamento de aplicativo. Por exemplo, a interface de usuário 3801 (Figura 38A ou 38E) é uma tela de lançamento de aplicativo não configurada para realizar as opera-ções de câmera. As operações de câmera são realizadas por um aplicativo de câmera (por exemplo, módulo de câmera 143).
[000774] Enquanto exibe a respectiva interface de usuário que inclui as possibilidades para realizar a pluralidade de operações além da primeira operação, o dispositivo detecta (3912) um primeiro gesto que inclui detectar a primeira impressão digital sobre a superfície sensível ao toque (por exemplo, um gesto de toque, um gesto de toque e arraste, um gesto de toque e retenção, ou outro gesto predefinido associado à realização da primeira operação). A Figura 38A, por exemplo, mostra o dispositivo 100 que detecta um gesto que inclui a impressão digital 3802 na tela sensível ao toque 112. A Figura 38E mostra o dispositivo 100 que detecta um gesto que inclui a impressão digital 3810 na tela sensível ao toque 112. A Figura 38K mostra o dispositivo 100 que detecta um gesto que inclui a impressão digital 3820 na tela sensível ao toque 112.
[000775] Em algumas modalidades, o primeiro gesto é um gesto específico quanto à orientação e detectar o gesto específico quanto à orientação inclui (3914) detectar a primeira impressão digital sobre a superfície sensível ao toque em uma orientação predeterminada. Por exemplo, a operação apenas é realizada quando o dispositivo detecta um gesto realizado com o polegar enquanto o polegar está a um ângulo predefinido (por exemplo, a 45° em comparação a um eixo geométrico primário da superfície sensível ao toque) ou dentro de uma faixa predefinida de ângulos (por exemplo, a 45° ± 5°, 10°, ou 15° em comparação a um eixo geométrico primário da superfície sensível ao toque) em relação a um eixo geométrico primário da superfície sensível ao toque. Por outro lado, em algumas modalidades, se a primeira impressão digital não estiver a um ângulo predefinido ou dentro da faixa predefinida de ângulos, então, a primeira operação não é realizada (por exemplo, nenhuma operação é realizada ou uma operação associada a um ícone atualmente exibido (ou outro elemento de interface de usuário) na localização da primeira impressão digital é realizada em vez da primeira operação). Por exemplo, nas Figuras 38A a 38C, o gesto com a impressão digital 3802 é, opcionalmente, específico quanto à orientação e a impressão digital 3802 é detectada como dentro de uma faixa predefinida de ângulos (por exemplo, 45° ± 10°) em relação a um eixo geométrico paralelo a uma longa borda do dispositivo. Em resposta à detecção do gesto com a impressão digital 3802, a interface de câmera 3804 e a pré-visualização de câmera 3806 são exibidas. Por outro lado, a impressão digital 3812 (Figura 38J) está fora da faixa de ângulo predefinida e nenhuma interface de câmera ou pré- visualização de câmera é exibida em resposta à detecção da impres-são digital 3812.
[000776] Em algumas modalidades, o primeiro gesto é um gesto específico quanto à localização e detectar o gesto específico quanto à localização inclui (3916) detectar a primeira impressão digital sobre a superfície sensível ao toque em uma localização predeterminada. Por exemplo, a operação apenas é realizada quando o dispositivo detecta um gesto realizado com o polegar enquanto o polegar está em uma localização predeterminada (por exemplo, o canto superior de mão direita da superfície sensível ao toque) sobre a superfície sensível ao toque. Por outro lado, em algumas modalidades, se a primeira impressão digital não estiver na localização predeterminada, então, a primeira operação não é realizada (por exemplo, nenhuma operação é realizada ou uma operação associada a um ícone atualmente exibido (ou outro elemento de interface de usuário) na localização da primeira impressão digital é realizada em vez da primeira operação). Por exemplo, nas Figuras 38A a 38C, o gesto com a impressão digital 3802 é, opcionalmente, específico quanto à localização e a impressão digital 3802 é detectada como dentro da localização predeterminada (por exemplo, o quadrante direito superior da tela sensível ao toque 112 com base na orientação de tela atual). Em resposta à detecção do gesto com a impressão digital 3802, a interface de câmera 3804 e a pré-visualização de câmera 3806 são exibidas. Por outro lado, a impressão digital 3810 (Figura 381) está fora da localização predeterminada e nenhuma interface de câmera ou pré-visualização de câmera é exibida em resposta à detecção da impressão digital 3810.
[000777] Em algumas modalidades, o primeiro gesto é um gesto específico quanto à duração e detectar o gesto específico quanto à duração inclui (3918) detectar a primeira impressão digital sobre a superfície sensível ao toque durante pelo menos um período de tempo predeterminado. Por exemplo, a operação apenas é realizada quando o dispositivo detecta um gesto realizado com um polegar direito que está presente sobre a superfície sensível ao toque durante mais que um período de tempo predefinido (por exemplo, 0,05, 0,1, 0,2, 0,5 segundos ou algum outro período de tempo razoável). Por outro lado, em algumas modalidades, se a primeira impressão digital não for detecta- da durante pelo menos o período de tempo predeterminado, então, a primeira operação não é realizada (por exemplo, nenhuma operação é realizada ou uma operação associada a um ícone atualmente exibido (ou outro elemento de UI (interface de usuário)) na localização da primeira impressão digital é realizada em vez da primeira operação). Por exemplo, nas Figuras 38A a 38C, o gesto com a impressão digital 3802 é, opcionalmente, específico quanto à duração e a impressão digital 3802 é detectada na tela sensível ao toque 112 durante mais que o período de tempo predefinido (por exemplo, 0,2 segundos). Em resposta à detecção do gesto com a impressão digital 3802, a interface de câmera 3804 e a pré-visualização de câmera 3806 são exibidas. Por outro lado, em algumas modalidades, se a impressão digital 3802 for detectada na tela sensível ao toque 112 durante menos que o período de tempo predefinido, nenhuma interface de câmera ou pré- visualização de câmera é exibida em resposta.
[000778] Em algumas modalidades, a superfície sensível ao toque é (3920) um visor de tela sensível ao toque com um sensor de impressão digital integrado. Os dispositivos mostrados nas Figuras 38A a 38P têm uma tela sensível ao toque (por exemplo, a tela sensível ao toque 112) como a superfície sensível ao toque sobre a qual os gestos são detectados. A tela sensível ao toque tem, opcionalmente, um sensor de impressão digital integrado. O sensor de impressão digital integrado abrange, opcionalmente, a área da tela sensível ao toque 112. Em algumas modalidades, a tela sensível ao toque 112 tem uma capacidade de sensibilidade ao toque de resolução alta o suficiente para detectar as cristas das impressões digitais e a tela sensível ao toque 112 pode ser usada como um sensor de impressão digital.
[000779] Em algumas modalidades, a primeira impressão digital é uma impressão digital registrada anteriormente (por exemplo, a primeira impressão digital é registrada como um polegar direito do usuário X, sendo que o registro é armazenado na memória do dispositivo) e detectar o primeiro gesto inclui (3922) identificar uma impressão digital detectada como a primeira impressão digital com base em uma comparação entre os recursos detectados da impressão digital detectada e os recursos registrados anteriormente da primeira impressão digital (por exemplo, a impressão digital é identificada com um polegar por meio da compatibilidade da primeira impressão digital em relação à impressão digital registrada anteriormente de um usuário específico que foi identificada pelo usuário como uma impressão digital de polegar). Por exemplo, a identificação da impressão digital 3802 envolve a comparação da impressão digital 3802 com as impressões digitais registradas anteriormente de usuários e a identificação da impressão digital 3802 como a impressão digital específica (por exemplo, a impressão de polegar direito) de um usuário específico.
[000780] Em algumas modalidades, a primeira impressão digital é um tipo predefinido de impressão digital (por exemplo, uma "impressão digital") e detectar o primeiro gesto inclui (3924) identificar uma impressão digital detectada como a primeira impressão digital com base em uma comparação entre os recursos da impressão digital detectada e os recursos associados ao tipo predefinido de impressão digital (por exemplo, a primeira impressão digital é identificada como um "polegar" genérico sem identificar especificamente que a impressão digital é uma impressão digital específica de um usuário específico). Por exemplo, a identificação da impressão digital 3802 envolve a comparação da impressão digital 3802 com os recursos de impressão digital que não são específicos quanto ao usuário (por exemplo, tamanho) e identificar a impressão digital 3802 como um dedo genérico (por exemplo, polegar direito genérico, dedo indicador esquerdo genérico, etc.).
[000781] Em resposta à detecção do primeiro gesto (3926), o dispo- sitivo realiza (3928) a primeira operação. Por exemplo, na Figura 38B, a interface de câmera 3804 e a pré-visualização de câmera 3806 é exibida em resposta ao dispositivo que detecta o gesto com a impressão digital 3802. Como outro exemplo, na Figura 38N, uma foto que corresponde à pré-visualização de câmera 3826 é capturada em resposta ao dispositivo que detecta o gesto com a impressão digital 3824.
[000782] Em algumas modalidades, a primeira operação é realizada (3930) em resposta à detecção à primeira impressão digital sobre a superfície sensível ao toque (por exemplo, a primeira operação é realizada em resposta à detecção da primeira impressão digital sobre a superfície sensível ao toque). Por exemplo, a captura de foto operação na Figura 38N é realizada pelo dispositivo em resposta ao dispositivo que detecta a impressão digital 3824. Como outro exemplo, a exibição da interface de câmera 3804 e a pré-visualização de câmera 3806 na Figura 38A são realizadas pelo dispositivo em resposta ao dispositivo que detecta a impressão digital 3802. Em algumas modalidades, a primeira operação é realizada em resposta à detecção da primeira impressão digital sobre a superfície sensível ao toque durante mais que um período de tempo predeterminado.
[000783] Em algumas modalidades, a primeira operação é realizada (3932) em resposta à detecção da elevação da primeira impressão digital da superfície sensível ao toque (por exemplo, a primeira operação é realizada em resposta à detecção da elevação da primeira impressão digital da superfície sensível ao toque após a detecção da primeira impressão digital sobre a superfície sensível ao toque). Por exemplo, a exibição da interface de aplicativo de telefone 3822 na Figura 38L é realizada pelo dispositivo em resposta ao dispositivo que detecta a elevação da impressão digital 3820. Em algumas modalidades, a primeira operação é realizada em resposta à detecção de elevação da primeira impressão digital da superfície sensível ao toque após a de- tecção da primeira impressão digital sobre a superfície sensível ao toque durante mais que um período de tempo predeterminado.
[000784] Em algumas modalidades, a primeira operação inclui (3934) tirar uma foto. Por exemplo, o dispositivo nas Figuras 38M a 38N captura uma foto em resposta à detecção da impressão digital 3824. Em algumas modalidades, a primeira operação inclui (3936) gravar um vídeo. Por exemplo, o dispositivo nas Figuras 38E a 38F grava um vídeo em resposta à detecção da impressão digital 3810. Em algumas modalidades, a primeira operação inclui (3938) exibir uma interface de comunicação (por exemplo, uma interface de usuário para um aplicativo de telefone, e-mail ou outro aplicativo de mensagem eletrônica que é um aplicativo padrão associado à primeira impressão digital, ou é um aplicativo associado à primeira impressão digital por um usuário do dispositivo). Por exemplo, o dispositivo nas Figuras 38K a 38L exibe a interface de aplicativo de telefone 3822 em resposta à detecção da impressão digital 3820. Em algumas modalidades, a primeira operação inclui (3940) exibir uma interface de câmera (por exemplo, uma interface de usuário para um aplicativo de câmera para capturar fotos ou vídeo). Por exemplo, o dispositivo nas Figuras 38A a 38B exibe a interface de câmera 3804 em resposta à detecção da impressão digital 3802.
[000785] Em algumas modalidades, enquanto exibe (3942) a interface de câmera, o dispositivo determina se os critérios de captura de mídia foram satisfeitos. De acordo com a determinação de que os critérios de captura de mídia foram satisfeitos, o dispositivo inicializa a captura de mídia com uma câmera. De acordo com a determinação de que os critérios de captura de mídia não foram satisfeitos, o dispositivo renuncia a captura de mídia com uma câmera. Por exemplo, nas Figuras 38B a 38C, o dispositivo exibe a interface de câmera 3806. Enquanto exibe a interface de câmera 3806, o dispositivo determina se um ou mais critérios de captura de mídia são satisfeitos. Se os critérios forem satisfeitos, o dispositivo inicializa a captura de mídia (por exemplo, uma ou mais fotos, vídeo) com uma câmera (por exemplo, sen- sor(es) óptico(s)164). Se os critérios não forem satisfeitos, o dispositivo não captura a mídia.
[000786] Em algumas modalidades, os critérios de captura de mídia include (3944) um critério que é satisfeito quando um contato que corresponde à primeira impressão digital tem uma intensidade acima de um respectivo limite de intensidade (por exemplo, o usuário pressiona com a impressão digital de maneira mais forte para tirar uma foto ou inicializar a gravação de um vídeo enquanto a pré-visualização de câmera é exibida). Por exemplo, a impressão digital 3802 na Figura 38C tem uma intensidade acima de um respectivo limite de intensidade (por exemplo, um limite de intensidade que é superior a um limite de intensidade de detecção de contato que corresponde à detecção de um contato sobre o visor de tela sensível ao toque 112) e, assim, satisfaz os critérios. Em resposta, o dispositivo captura uma foto.
[000787] Em algumas modalidades, os critérios de captura de mídia incluem (3946) um critério que é satisfeito quando um contato que corresponde à primeira impressão digital foi continuamente detectado durante um tempo mais longo do que um respectivo limite de tempo (por exemplo, o usuário mantém o contato sobre a superfície sensível ao toque durante um tempo que é mais longo que o respectivo limite de tempo para tirar uma foto ou para inicializar a gravação de um vídeo enquanto a pré-visualização de câmera é exibida). Por exemplo, na Figura 38C, o critério de captura de mídia é, opcionalmente, um critério de duração de detecção de impressão digital em vez de um critério de intensidade. O critério de duração é satisfeito se a impressão digital 3802 for continuamente detectada durante um tempo mais longo que um respectivo limite de tempo.
[000788] Em algumas modalidades, em resposta à detecção da primeira impressão digital durante pelo menos um período de tempo pre- definido, o dispositivo exibe (3948) uma pré-visualização de câmera que inclui uma pré-visualização de mídia que será capturada por uma câmera. Por exemplo, na Figura 38B o dispositivo exibe a pré- visualização de câmera 3806 em resposta à detecção da impressão digital 3802 durante pelo menos um período de tempo predeterminado (por exemplo, 0,05, 0,1, 0,2, 0,5 segundos, ou algum outro período de tempo razoável).
[000789] Em algumas modalidades, enquanto exibe a pré-visualização de câmera, o dispositivo detecta (3950) uma entrada que corresponde a uma solicitação para capturar mídia que corresponde à pré-visualização de câmera (por exemplo, o dispositivo detecta uma elevação da primeira impressão digital, um aumento na intensidade da impressão digital sobre o limite de intensidade respectivo ou ativação de um botão físico associado à captura de uma gravura). Em resposta a uma detecção (3952) da entrada que corresponde à solicitação para capturar mídia que corresponde à pré-visualização de câmera, o dispositivo captura (3954) a imagem parada que corresponde à pré-visualização de câmera, interrompe (3956) a exibição da pré-visualização de câmera e reexibe (3958) a interface de usuário respectiva. Por exemplo, em resposta à detecção da impressão digital na superfície sensível ao toque, o dispositivo exibe uma pré-visualização de câmera. Em resposta à detecção de uma elevação da impressão digital enquanto exibe a pré-visualização de câmera, o dispositivo tira uma foto e interrompe a exibição da pré-visualização de câmera. Dessa forma, enquanto um usuário está no meio do uso do dispositivo para uma tarefa respectiva (por exemplo, ler notícias, verificar email ou alguma outra tarefa), o usuário pode fazer a transição rápida para um modo de captura de foto, tirar uma foto e retornar, então, para a tarefa respectiva com interrupção mínima.
[000790] Por exemplo, as Figuras 38B a 38D ilustram um aumento da intensidade de impressão digital 3802 acima de um limite de intensidade respectivo enquanto uma pré-visualização de câmera 3806 é exibida. O aumento de intensidade é uma solicitação para o dispositivo capturar mídia que corresponde à pré-visualização de câmera 3806. Em resposta à detecção da solicitação, o dispositivo captura uma foto que corresponde à pré-visualização de câmera 3806, interrompe a exibição da pré-visualização de câmera 3806 (junto com a interrupção da exibição de uma interface de câmera 3804) e reexibe uma interface de usuário 3801.
[000791] Em algumas modalidades, enquanto exibe a pré- visualização de câmera, o dispositivo captura (3960) mídia (por exemplo, vídeo ou uma série de fotos paradas tiradas em intervalos predeterminados, tal como em um modo de captura de foto instantânea) que corresponde à pré-visualização de câmera. Em algumas modalidades, o dispositivo começa a capturar a mídia em resposta à detecção da primeira impressão digital na superfície sensível ao toque. Em algumas modalidades, o dispositivo começa a capturar a mídia em resposta à detecção de uma entrada de inicialização de captura subsequente como a detecção da primeira impressão digital na superfície sensível ao toque por mais que uma quantidade de tempo predeterminada ou a detecção de um aumento na intensidade da primeira impressão digital acima de um limite de intensidade respectivo. Por exemplo, a Figura 38F mostra o dispositivo que grava um vídeo que corresponde à pré- visualização de câmera 3812 enquanto exibe uma pré-visualização de câmera 3812 em resposta a uma detecção de impressão digital 3810.
[000792] Em algumas modalidades, enquanto captura a mídia que corresponde à pré-visualização de câmera (por exemplo, após tirar uma ou mais fotos em uma série de fotos ou enquanto captura um vídeo), o dispositivo detecta (3962) uma entrada que corresponde a uma solicitação para interromper a captura da mídia (por exemplo, o dispositivo detecta uma elevação da primeira impressão digital, detecta um aumento na intensidade da impressão digital sobre o limite de intensidade respectivo ou detecta uma ativação de um botão físico associado à interrupção da captura da mídia ou detecta um toque ou gesto de pressionamento na superfície sensível ao toque ou em uma porção da superfície sensível ao toque que corresponde ao ícone de captura de mídia). Em resposta à detecção (3964) da entrada que corresponde à solicitação para interromper a captura da mídia, o dispositivo interrompe (3966) a captura da mídia, interrompe (3968) a exibição da pré- visualização de câmera e reexibe (3970) a interface de usuário respec-tiva. Em algumas modalidades, em resposta à detecção da impressão digital na superfície sensível ao toque, o dispositivo exibe uma pré- visualização de câmera. Em resposta a continuar a detectar a impressão digital na superfície sensível ao toque por mais que uma quantidade de tempo predeterminada, o dispositivo começa a fazer vídeo e, em resposta à detecção de uma elevação da impressão digital enquanto exibe a pré-visualização de câmera, o dispositivo interrompe a criação de vídeo e interrompe a exibição da pré-visualização de câmera. Alternativamente, em resposta à detecção da impressão digital na superfície sensível ao toque, o dispositivo exibe uma pré-visualização de câmera e, em resposta a continuar a detectar a impressão digital na superfície sensível ao toque por mais que uma quantidade de tempo predeterminada, o dispositivo tira uma série de múltiplas fotos em um modo de captura de foto instantâneo e, em resposta à detecção de uma elevação da impressão digital enquanto exibe a pré-visualização de câmera, o dispositivo interrompe a exibição da pré-visualização de câmera. Dessa forma, enquanto um usuário está no meio do uso do dispositivo para uma tarefa respectiva (por exemplo, ler notícias, verificar e-mail ou alguma outra tarefa), o usuário pode fazer uma transição rápida para um modo de captura de vídeo, fazer um vídeo ou uma rajada de fotos e retornar, então, para a tarefa respectiva com interrupção mínima. Enquanto um vídeo que corresponde a uma pré- visualização de câmera 3812 é gravado (Figura 38F), por exemplo, o dispositivo detecta uma elevação de impressão digital 3810. Em resposta, o dispositivo interrompe a gravação do vídeo (Figura 38G) para exibir pré-visualização de câmera 3812 (junto com a interrupção da exibição de uma interface de câmera 3804) e reexibe uma interface de usuário 3801 (Figura 38H).
[000793] Em algumas modalidades, o dispositivo associa (3972) uma segunda impressão digital diferente da primeira impressão digital com uma segunda operação diferente da primeira operação (por exemplo, durante um processo de registro de impressão digital, atribui o polegar direito a uma função de obturador de um aplicativo de câmera). O dispositivo exibe (3976), no visor, a interface de usuário respectiva onde a interface de usuário respectiva não inclui uma possibilidade de realizar a segunda operação (por exemplo, a interface de usuário é uma tela de lançamento de aplicativo ou uma interface de usuário para um aplicativo diferente que não é uma interface de usuário para realizar a segunda operação e a interface de usuário não contém possibilidades ou outros elementos de interface de usuário para realizar a segunda operação). Enquanto exibe a interface de usuário respectiva, o dispositivo detecta (3978) um segundo gesto que inclui detectar a segunda impressão digital na superfície sensível ao toque. Em resposta à detecção do gesto que inclui a segunda impressão digital na superfície sensível ao toque, o dispositivo realiza (3980) a segunda operação. Por exemplo, nas Figuras 38M a 38P, o polegar direito é associado à captura de foto e o polegar esquerdo é associado a uma gravação de vídeo. O dispositivo exibe uma interface de usuário 3801 (Figura 38M) que não inclui possibilidades para captura de foto ou gravação de ví- deo. O dispositivo captura uma foto em resposta à detecção de uma impressão digital 3824 que é um polegar direito e grava um vídeo em resposta à detecção de uma impressão digital 3828.
[000794] Em algumas modalidades, a primeira operação é (3974) uma operação associada à captura de fotos paradas (por exemplo, que exibe uma interface de usuário de aplicativo de câmera parada ou que captura uma foto) e a segunda operação é uma operação associada à captura de vídeo (por exemplo, que exibe uma interface de usuário de aplicativo de câmera de vídeo ou que faz um vídeo). Por exemplo, quando o usuário coloca um polegar esquerdo em qualquer lugar na superfície sensível ao toque (por exemplo, tela sensível ao toque) do dispositivo, o dispositivo lança um aplicativo de câmera parada e quando o usuário coloca um polegar direito em qualquer lugar na superfície sensível ao toque (por exemplo, tela sensível ao toque) do dispositivo, o dispositivo lança um aplicativo de câmera de vídeo. Em algumas modalidades, a primeira operação e a segunda operação lançam o mesmo aplicativo, mas em diferentes modos (por exemplo, um aplicativo de câmera é lançado em um modo de captura de imagem parada se o dispositivo detecta o gesto realizado com o polegar esquerdo ou em um modo de captura de vídeo se o dispositivo detecta o gesto realizado com o polegar direito). Por exemplo, nas Figuras 38M a 38P, o polegar direito é associado a uma captura de foto e o polegar esquerdo é associado a uma gravação de vídeo.
[000795] Deve-se compreender que a ordem em particular na qual as operações nas Figuras 39A a 39E foram descritas é somente exemplificativa e não se destina a indicar que a ordem descrita é a única ordem na qual as operações poderiam ser realizadas. Um versado na técnica reconhecerá várias formas de reordenar as operações descritas no presente documento. Adicionalmente, deve-se observar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de maneira análoga a um método 3900 descrito acima em relação às Figuras 39A a 39E. Por exemplo, as impressões digitais, contatos, gestos descritos e interfaces de usuário acima com referência ao método 3900 opcionalmente têm uma ou mais das características das impressões digitais, contatos, gestos e interfaces de usuário descritas no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por brevidade, esses detalhes não são repetidos aqui.
[000796] De acordo com algumas modalidades, a Figura 40 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 4000 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são implantados, opcionalmente, por hardware, software ou uma combinação de hardware e software para realizar os princípios das várias modalidades descritas. É compreendido por pessoas versadas na técnica que os blocos funcionais descritos na Figura 40 são combinados ou separados, opcionalmente, em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento apoia opcionalmente qualquer combinação ou separação ou definição adicional dos blocos funcionais descritos no presente documento.
[000797] Conforme mostrado na Figura 40, um dispositivo eletrônico 4000 inclui uma unidade de exibição 4002 configurada para exibir uma interface de usuário respectiva que inclui possibilidades para realizar uma pluralidade de operações diferentes de uma primeira operação, uma unidade de superfície sensível ao toque 4004 configurada para receber gestos, opcionalmente uma unidade de sensor de impressão digital 4006 para detectar impressões digitais e uma unidade de processamento 4008 acoplada à unidade de exibição 4002 e à unidade de superfície sensível ao toque 4004. Em algumas modalidades, a unidade de processamento 4008 inclui uma unidade de associação 4010, uma unidade de detecção 4012, uma unidade de realização 4014, uma unidade de determinação 4016, uma unidade de inicialização 4018, uma unidade de habilitação de exibição 4022, uma unidade de captura 4024 e uma unidade de interrupção 4026.
[000798] A unidade de processamento 4008 é configurada para: associar uma primeira impressão digital à primeira operação (por exemplo, à unidade de associação 4010); habilitar uma exibição de uma interface de usuário respectiva que inclui possibilidades para realizar uma pluralidade de operações diferentes da primeira operação (por exemplo, com a unidade de habilitação de exibição 4022); enquanto habilita uma exibição da interface de usuário respectiva que inclui possibilidades para realizar a pluralidade de operações diferentes da primeira operação, detectar um primeiro gesto que inclui detectar a primeira impressão digital na unidade de superfície sensível ao toque 4004 (por exemplo, com a unidade de detecção 4012); e em resposta à detecção do primeiro gesto, realizar a primeira operação (por exemplo, com a unidade de realização 4014).
[000799] Em algumas modalidades, a primeira operação é realizada em resposta à detecção da primeira impressão digital na unidade de superfície sensível ao toque 4004.
[000800] Em algumas modalidades, a primeira operação é realizada em resposta à detecção de uma elevação da primeira impressão digital da unidade de superfície sensível ao toque 4004.
[000801] Em algumas modalidades, o primeiro gesto é um gesto de orientação específica e detectar o gesto de orientação específica inclui detectar a primeira impressão digital na unidade de superfície sensível ao toque 4004 em uma orientação predeterminada.
[000802] Em algumas modalidades, o primeiro gesto é um gesto de localização específica e detectar o gesto de localização específica inclui detectar a primeira impressão digital na unidade de superfície sensível ao toque 4004 em uma localização predeterminada.
[000803] Em algumas modalidades, o primeiro gesto é um gesto de duração específica e detectar o gesto de duração específica inclui detectar a primeira impressão digital na unidade de superfície sensível ao toque 4004 por pelo menos uma quantidade de tempo predeterminada.
[000804] Em algumas modalidades, a interface de usuário respectiva não inclui um controle exibido para realizar a primeira operação.
[000805] Em algumas modalidades, a interface de usuário respectiva é uma interface de usuário de um primeiro aplicativo que não é configurado para realizar a primeira operação e a primeira operação é realizada por um segundo aplicativo diferente do primeiro aplicativo.
[000806] Em algumas modalidades, a interface de usuário respectiva é uma interface de usuário de uma tela de lançamento de aplicativo que não é configurada para realizar a primeira operação e a primeira operação é realizada por um aplicativo respectivo diferente da tela de lançamento de aplicativo.
[000807] Em algumas modalidades, a primeira operação inclui tirar uma foto.
[000808] Em algumas modalidades, a primeira operação inclui gravar um vídeo.
[000809] Em algumas modalidades, a primeira operação inclui habilitar a exibição de uma interface de comunicação.
[000810] Em algumas modalidades, a primeira operação inclui habilitar a exibição de uma interface de câmera.
[000811] Em algumas modalidades, a unidade de processamento 4008 é configurada para, ao habilitar a exibição da interface de câmera: determinar se critérios de captura de mídia foram satisfeitos (por exemplo, com a unidade de determinação 4016); de acordo com uma determinação de que os critérios de captura de mídia foram satisfeitos, começar a capturar uma mídia com uma câmera (por exemplo, com a unidade de inicialização 4018 ou com a unidade de captura 4024); e, de acordo com uma determinação de que os critérios de captura de mídia não foram satisfeitos, renunciar a captura de mídia com uma câmera (por exemplo, com a unidade de captura 4024).
[000812] Em algumas modalidades, os critérios de captura de mídia incluem um critério que é satisfeito quando um contato que corresponde à primeira impressão digital tem uma intensidade acima de um limite de intensidade respectivo.
[000813] Em algumas modalidades, os critérios de captura de mídia incluem um critério que é satisfeito quando um contato que corresponde à primeira impressão digital foi detectado continuamente por mais que um limite de tempo respectivo.
[000814] Em algumas modalidades, a unidade de processamento 4008 é configurada para, em resposta à detecção da primeira impressão digital por pelo menos uma quantidade predefinida de tempo, habilitar uma exibição de uma pré-visualização de câmera que inclui uma pré-visualização da mídia que será capturada por uma câmera (por exemplo, com a unidade de habilitação de exibição 4022).
[000815] Em algumas modalidades, a unidade de processamento 4008 é configurada para: enquanto exibe uma exibição da pré- visualização de câmera, detectar uma entrada que corresponde a uma solicitação para capturar mídia que corresponde à pré-visualização de câmera (por exemplo, com a unidade de detecção 4012); e, em resposta à detecção da entrada que corresponde à solicitação para capturar mídia que corresponde à pré-visualização de câmera: capturar uma imagem parada que corresponde à pré-visualização de câmera (por exemplo, com a unidade de captura 4024), interromper a habilitação da exibição da pré-visualização de câmera (por exemplo, com a uni dade de interrupção 4026) e reabilitar uma exibição da interface de usuário respectiva (por exemplo, com a unidade de habilitação de exibição 4022).
[000816] Em algumas modalidades, a unidade de processamento 4008 é configurada para: enquanto exibe uma exibição da pré- visualização de câmera, capturar uma mídia que corresponde à pré- visualização de câmera (por exemplo, com a unidade de captura 4024); enquanto captura a mídia que corresponde à pré-visualização de câmera, detectar uma entrada que corresponde a uma solicitação para interromper a captura da mídia (por exemplo, com a unidade de detecção 4012); e, em resposta à detecção da entrada que corresponde à solicitação para interromper a captura da mídia: parar de capturar a mídia (por exemplo, com a unidade de interrupção 4026), interromper a habilitação da exibição da pré-visualização de câmera (por exemplo, com a unidade de interrupção 4026) e reabilitar a exibição da interface de usuário respectiva (por exemplo, com a unidade de habilitação de exibição 4022).
[000817] Em algumas modalidades, a unidade de superfície sensível ao toque 4004 é um visor de tela sensível ao toque com um sensor de impressão digital integrado.
[000818] Em algumas modalidades, a primeira impressão digital é uma impressão digital previamente registrada e detectar o primeiro gesto inclui identificar uma impressão digital detectada como a primeira impressão digital com base em uma comparação entre características detectadas da impressão digital detectada e características registradas previamente da primeira impressão digital.
[000819] Em algumas modalidades, a primeira impressão digital é um tipo predefinido de impressão digital e detectar o primeiro gesto inclui identificar uma impressão digital detectada como a primeira impressão digital com base em uma comparação entre recursos da im- pressão digital detectada e recursos associados ao tipo predefinido de impressão digital.
[000820] Em algumas modalidades, a unidade de processamento 4008 é configurada para: associar uma segunda impressão digital diferente da primeira impressão digital com uma segunda operação diferente da primeira operação (por exemplo, com a unidade de associação 4010); habilitar exibição na unidade de exibição 4002 da interface de usuário respectiva (por exemplo, com a unidade de habilitação de exibição 4022) em que a interface de usuário respectiva não inclui uma possibilidade para realizar a segunda operação; enquanto exibe uma exibição da interface de usuário respectiva, detectar um segundo gesto que inclui detectar a segunda impressão digital na unidade de superfície sensível ao toque 4004 (por exemplo, com a unidade de detecção 4012); e, em resposta à detecção do gesto que inclui a segunda impressão digital na unidade de superfície sensível ao toque 4004, realizar a segunda operação (por exemplo, com a unidade de realização 4014).
[000821] Em algumas modalidades, a primeira operação é uma operação associada à captura de fotos paradas e a segunda operação é uma operação associada à captura de vídeo.
[000822] As operações nos métodos de processamento de informações descritas acima são implantadas, opcionalmente, pela execução de um ou mais módulos funcionais no aparelho de processamento de informações como processadores de propósito geral (por exemplo, os descritos acima em relação às Figuras 1A e 3) ou chips de aplicação específica.
[000823] As operações descritas acima com referência às Figuras 39A a 39E são implantadas, opcionalmente, por componentes revelados nas Figuras 1A a 1B ou na Figura 40. Por exemplo, a operação de detecção 3912 e a operação de realização 3928 são implantadas, op- cionalmente, por um classificador de evento 170, reconhecedor de evento 180 e manipulador de evento 190. Um monitor de evento 171 no classificador de evento 170 detecta um contato em visor sensível ao toque 112 e módulo despachador de evento 174 entra as informações de evento para um aplicativo 136-1. Um reconhecedor de evento respectivo 180 de aplicativo 136-1 compara as informações de evento a definições de evento respectivas 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou subevento predefinido como seleção de um objeto em uma interface de usuário. Quando um evento ou sube- vento predefinido respectivo é detectado, um reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. Um manipulador de evento 190 utiliza ou chama opcionalmente um atualizador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, um manipulador de evento 190 acessa um atualizador de GUI respectivo 178 para atualizar o que é exibido pelo aplicativo. De forma similar, será evidente a um versado na técnica como outros processos podem ser implantados com base nos componentes revelados nas Figuras 1A a 1B.
EXIBIÇÃO DE UM CONTROLE RESPECTIVO PARA UMA INTERFACE DE USUÁRIO COM BASE NA DETECÇÃO DE UMA PRIMEIRA IMPRESSÃO DIGITAL ASSOCIADA AO MOVIMENTO DO CONTROLE RESPECTIVO
[000824] Muitos dispositivos eletrônicos têm interfaces de usuário gráficas com um controle respectivo pela interface de usuário. O controle respectivo (por exemplo, uma paleta de cores para um aplicativo de edição de imagem) é exibido na interface de usuário em resposta a uma seleção da barra de ferramentas do usuário ou da janela de menu, por exemplo, com um cursor controlado por um mouse (ou outro dispositivo periférico). O dispositivo descrito abaixo aprimora métodos existentes ao exibir em um visor um controle respectivo para uma interface de usuário em resposta à detecção em uma a superfície sensível ao toque de uma primeira impressão digital associada ao movimento do controle respectivo. A primeira impressão digital corresponde a um seletor de foco em uma primeira localização no visor que não inclui o controle respectivo.
[000825] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, um visor 450) e uma superfície sensível ao toque separada (por exemplo, superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112 e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 41A a 41K e 42A a 42C inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de im-pressão digital integrados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de exibição sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores separados de impressão digital 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, superfície sensível ao toque separada 451 ou sistema de exibição sensível ao toque 112). A menos que especificado o contrário, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 dependendo da configuração do hardware e do software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência da explicação, as modalidades descritas com referência às Figuras 41A a 41K e 42A a 42C serão discutidas com referência à tela sensível ao toque 112 e ao sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2); em tais modalidades, o sele- tor de foco é opcionalmente: um contato respectivo, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um contato respectivo ou de um ponto associado a um contato respectivo) ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112 no lugar de um cursor. Operações análogas são realizadas, opcionalmente, em um dispositivo com visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 em resposta à detecção das entradas descritas nas Figuras 41A a 41K em um sensor de impressão digital integrado 359-1 ou em um sensor de impressão digital separado 359-2 enquanto exibe as interfaces de usuário mostradas nas Figuras 41A a 41K no visor 450.
[000826] As Figuras 41A a 41K ilustram um dispositivo de múltiplas funções portátil 100 que exibe um videogame em uma interface de usuário 4101 da tela sensível ao toque 112. Em algumas modalidades, uma tela sensível ao toque 112 compreende um sensor de impressão digital de forma que um dispositivo 100 é habilitado para detectar uma impressão digital em qualquer posição na tela sensível ao toque 112. As Figuras 41B a 41F e 41H a 41K ilustram adicionalmente um dispositivo 100 que exibe o videogame em um modo de pausa indicado pelo símbolo de pausa 4104 exibido na interface de usuário 4101.
[000827] A Figura 41A ilustra a exibição de um controle respectivo 4102 (por exemplo, um controle direcional, controle digital ou alavanca de comando para controle direcional de um objeto interativo do videogame) para uma interface de usuário 4101 em uma localização anterior 4102-a. Uma localização anterior 4102-a é diferente de uma primei- ra localização 4102-b nas Figuras 41E a 41H. Um controle respectivo 4102 é exibido em uma localização anterior 4102-a antes da detecção de uma primeira impressão digital (por exemplo, um dedo mindinho direito do usuário) associada ao movimento de um controle respectivo 4102 (por exemplo, impressão digital 4112 detectada na Figura 41D). Em algumas modalidades, a primeira impressão digital corresponde a um dedo que não é associado normalmente à manipulação de objetos da interface de usuário (por exemplo, um dedo anular ou mindinho do usuário). A Figura 41A ilustra adicionalmente detectar uma impressão digital 4106 (por exemplo, um dedo indicador direito do usuário) sobre um controle respectivo 4102. Em resposta à detecção de uma impressão digital 4106, um dispositivo 100 realiza operações associadas a um controle respectivo 4102.
[000828] A Figura 41B ilustra detectar uma primeira impressão digital 4108 (por exemplo, um dedo mindinho direito do usuário) associada a um controle respectivo de movimento 4102 em uma primeira localização na tela sensível ao toque 112 enquanto exibe um controle respectivo 4102 na localização anterior 4102-a. A primeira localização é diferente da localização anterior e não inclui um controle respectivo 4102.
[000829] A Figura 41C ilustra detectar uma impressão digital 4110 na tela sensível ao toque 112 enquanto um controle respectivo 4102 não é exibido na tela sensível ao toque 112. Em resposta à detecção de uma impressão digital 4110, um dispositivo 100 renuncia a exibição de um controle respectivo 4102 de acordo com uma determinação de que impressão digital 4110 é uma impressão digital (por exemplo, um dedo indicador direito do usuário) diferente da primeira impressão digital (por exemplo, um dedo mindinho direito do usuário) e não é associada a um controle respectivo de movimento 4102 para uma interface de usuário 4101.
[000830] A Figura 41D ilustra detectar uma primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) associada a um controle respectivo de movimento 4102 para uma interface de usuário 4101 em uma primeira posição 4112-a em uma superfície sensível ao toque 112. A primeira impressão digital 4112 corresponde a um se- letor de foco (por exemplo, um centroide de um contato respectivo associado a uma impressão digital 4112 detectada na tela sensível ao toque 112) em uma primeira localização 4112-a na tela sensível ao toque 112 que não inclui um controle respectivo 4102.
[000831] A Figura 41E ilustra uma exibição de um controle respectivo 4102 em uma primeira localização 4102-a na tela sensível ao toque 112 em resposta à detecção de uma primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) em uma primeira posição 4112-a na Figura 41D.
[000832] A Figura 41F ilustra a detecção de um gesto de arrasto de uma primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) em uma tela sensível ao toque 112 de uma primeira localização 4112-a para uma segunda localização 4112-b. A segunda localização é diferente da primeira localização e não inclui um controle respectivo 4102.
[000833] A Figura 41G ilustra a detecção de elevação de uma primeira impressão digital 4112 de uma localização 4112-a na Figura 41E. A Figura 41G também ilustra a manutenção da exibição de um controle respectivo 4102 em uma primeira localização 4102-b na tela sensível ao toque 112 após a detecção de uma elevação da primeira impressão digital 4112 da localização 4112-a na Figura 41E. A Figura 41G ilustra adicionalmente uma detecção de uma impressão digital 4114 (por exemplo, um dedo indicador direito do usuário) sobre um controle respectivo 4102. Em resposta a uma detecção de uma impressão digital 4114, um dispositivo 100 realiza operações associadas a um controle respectivo 4102.
[000834] A Figura 41H ilustra a detecção de uma impressão digital respectiva 4116 (por exemplo, um dedo médio direito do usuário) em uma segunda localização enquanto exibe um controle respectivo 4102 em uma primeira localização 4102-b na tela sensível ao toque 112. A segunda localização é diferente de uma primeira localização 4102-b e não inclui um controle respectivo 4102.
[000835] A Figura 41I ilustra a detecção de uma impressão digital respectiva 4118 (por exemplo, um dedo mindinho direito do usuário) em uma segunda localização enquanto exibe um controle respectivo 4102 em uma primeira localização 4102-b na tela sensível ao toque 112. A segunda localização é diferente da primeira localização 4102-b e não inclui um controle respectivo 4102.
[000836] A Figura 41J ilustra a interrupção da exibição de um controle respectivo 4102 em uma primeira localização 4102-b e exibir um controle respectivo 4102 em uma segunda localização 4102-c na tela sensível ao toque 112. Um controle respectivo 4102 é exibido em uma segunda localização 4102-c na tela sensível ao toque 112 em resposta a uma detecção de uma impressão digital respectiva 4112 em uma segunda localização 4112-b na Figura 41F ou uma impressão digital 4118 na Figura 41I em que a impressão digital respectiva 4112 ou 4118 é a primeira impressão digital. Por exemplo, quando a impressão digital respectiva 4118 é arrastada para a segunda localização 4112-b na Figura 41F, um controle respectivo 4102 é exibido em uma segunda localização 4102-c na tela sensível ao toque 112. Em outro exemplo, quando o dispositivo detecta um toque da impressão digital res-pectiva 4118 na segunda localização na Figura 41I, um controle respectivo 4102 é exibido na segunda localização 4102-c na tela sensível ao toque 112.
[000837] A Figura 41K ilustra uma manutenção da exibição de um controle respectivo 4102 em uma primeira localização 4102-b na tela sensível ao toque 112 em resposta à detecção de impressão digital respectiva 4116 na segunda localização na Figura 41H e de acordo com uma determinação de que uma impressão digital respectiva 4116 é uma segunda impressão digital (por exemplo, um dedo médio direito do usuário) que é diferente da primeira impressão digital (por exemplo, um dedo mindinho direito do usuário) e não é associado a um controle respectivo de movimento 4102 para uma interface de usuário 4101.
[000838] As Figuras 42A a 42C são fluxogramas que ilustram um método 4200 de exibição de um controle respectivo para uma interface de usuário com base em detecção de uma primeira impressão digital associada ao movimento do controle respectivo de acordo com algumas modalidades. O método 4200 é realizado em um dispositivo eletrônico (por exemplo, um dispositivo 300 da Figura 3 ou um dispositivo de múltiplas funções portátil 100 da Figura 1A) com um visor, uma superfície sensível ao toque e um sensor de impressão digital. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a su-perfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 4200 são, opcionalmente, combinadas e/ou a ordem de algumas operações é, opcionalmente, alterada.
[000839] Conforme descrito abaixo, o método 4200 fornece uma maneira intuitiva de exibir um controle respectivo para uma interface de usuário com base em detecção de uma primeira impressão digital associada ao movimento do controle respectivo. O método reduz o fardo cognitivo em um usuário ao exibir um controle respectivo para uma interface de usuário com base em uma detecção de uma primeira impressão digital associada ao movimento do controle respectivo, o que cria assim uma interface humano-máquina mais eficaz. Para dispositivos eletrônicos operados por bateria, habilitar a um usuário exibir um controle respectivo para uma interface de usuário com base em detec- ção de uma primeira impressão digital associada ao movimento do controle respectivo de forma mais rápida e eficaz conserva energia e aumenta o tempo entre cargas de bateria.
[000840] Um dispositivo eletrônico com um visor, uma superfície sensível ao toque e um sensor de impressão digital exibem (4202) uma interface de usuário no visor. As Figuras 41A a 41K, por exemplo, mostram um dispositivo de múltiplas funções portátil 100 que exibe uma interface de usuário 4101 que inclui um videogame em uma tela sensível ao toque 112.
[000841] Em algumas modalidades, (imediatamente) antes da detecção de uma primeira impressão digital associada ao movimento de um controle respectivo pela interface de usuário, o dispositivo exibe (4204) o controle respectivo em uma localização anterior que é diferente de uma primeira localização e, em resposta à detecção da primeira impressão digital, o dispositivo interrompe a exibição o controle respectivo na localização anterior (por exemplo, o dispositivo move o controle respectivo da localização anterior para uma nova localização em resposta à detecção da primeira impressão digital). A Figura 41A mostra, por exemplo, um dispositivo 100 que exibe um controle respectivo 4102 para uma interface de usuário 4101 em uma localização anterior 4102-a antes da detecção de uma primeira impressão digital (por exemplo, um mindinho direito do usuário) associada a um movimento de interface respectiva 4102. Uma localização anterior 4102-a de um controle respectivo 4102 nas Figuras 41A a 41B é diferente de uma primeira localização 4102-b do controle respectivo 4102 nas Figuras 41E a 41F. A Figura 41B mostra, por exemplo, um dispositivo 100 que detecta uma primeira impressão digital 4108 em uma primeira localização. A Figura 41E mostra, por exemplo, um dispositivo 100 que interrompe a exibição um controle respectivo 4102 em uma localização anterior 4102-a e que exibe um controle respectivo 4102 na primeira lo- calização 4102-b em resposta à detecção da primeira impressão digital 4108 na primeira localização na Figura 41B.
[000842] Em algumas modalidades, quando o controle respectivo é exibido na localização anterior, o dispositivo responde (4206) a entradas que correspondem à localização anterior pela realização de operações associadas ao controle respectivo. Adicionalmente, em algumas modalidades, quando o controle respectivo é exibido na localização anterior, o dispositivo responde às entradas que correspondem à primeira localização pela realização de operações (por exemplo, rolamento, seleção, etc.) que não são associadas ao controle respectivo (ou, opcionalmente pela não realização de quaisquer operações se as entradas não corresponderem a outras operações na interface de usuário). A Figura 41A mostra, por exemplo, um dispositivo 100 que realiza operações associadas a um controle respectivo 4102 em resposta à detecção de impressão digital 4106 (por exemplo, um dedo indicador direito do usuário) sobre um controle respectivo 4102 enquanto um controle respectivo 4102 é exibido em uma localização anterior 4102- a. Em um exemplo, um dispositivo 100 altera uma direção de um objeto interativo do videogame (por exemplo, um veículo 4103) na interface de usuário 4101 de acordo com a localização da impressão digital 4106 sobre um controle respectivo 4102 que corresponde a uma direção para baixo.
[000843] O dispositivo detecta (4208) a primeira impressão digital (predeterminada) associada ao movimento (por exemplo, relocalização no visor) do controle respectivo pela interface de usuário na superfície sensível ao toque onde a primeira impressão digital corresponde a um seletor de foco em uma primeira localização no visor que não inclui o controle respectivo. A Figura 41D mostra, por exemplo, um dispositivo 100 que detecta uma primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) em uma primeira localização 4112-a na tela sensível ao toque 112 que não inclui um controle respectivo 4102. Na Figura 41D, por exemplo, um dispositivo 100 não exibe um controle respectivo 4102 na tela sensível ao toque 112. Em algumas modalidades, o controle respectivo corresponde a um controle escondido para uma interface de usuário (por exemplo, controles direcionais para um videogame, controles de áudio para um aplicativo de reprodução de mídia, uma paleta de cores ou ferramentas de recorte para um aplicativo de edição de imagem, controles de navegação para um aplicativo de navegador da web, etc.).
[000844] Em algumas modalidades, o controle respectivo é (4210) um controle direcional para um videogame (por exemplo, alavanca de comando macia, controle digital virtual/controle direcional/alavanca de comando). Por exemplo, quando o dispositivo detecta contatos que interagem com o controle direcional (e os contatos não incluem a primeira impressão digital), o dispositivo realiza operações correspondentes associadas ao controle direcional como navegar por uma interface de usuário ou alterar a direção de movimento ou vista de um veículo ou personagem em um videogame. As Figuras 41A a 41B e 41E a 41K, por exemplo, mostram um dispositivo 100 que exibe um controle respectivo 4102 que é um controle direcional para o videogame exibido na tela sensível ao toque 112.
[000845] Em resposta à detecção da primeira impressão digital, o dispositivo exibe (4212) o controle respectivo na primeira localização no visor. A Figura 41E mostra, por exemplo, um dispositivo 100 que exibe um controle respectivo 4102 em uma primeira localização 4102b na tela sensível ao toque 112 em resposta à detecção de uma primeira impressão digital 4108 (por exemplo, um dedo mindinho direito do usuário) na primeira localização na Figura 41B ou uma primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) em uma primeira localização 4112-a na Figura 41D.
[000846] Em algumas modalidades, quando o controle respectivo é exibido na primeira localização, o dispositivo responde (4214) às entradas que correspondem à primeira localização pela realização de operações associadas ao controle respectivo. Adicionalmente, em algumas modalidades, quando o controle respectivo é exibido na primeira localização, o dispositivo responde às entradas que correspondem à localização anterior pela realização de operações (por exemplo, rolamento, seleção, etc.) que não são associadas ao controle respectivo (ou, opcionalmente pela não realização de quaisquer operações se as entradas não correspondem a outras operações na interface de usuário). A Figura 41G mostra, por exemplo, um dispositivo 100 que exibe operações associadas a um controle respectivo 4102 em resposta à detecção de impressão digital 4114 (por exemplo, um dedo indicador direito do usuário) sobre um controle respectivo 4102 enquanto um controle respectivo 4102 é exibido em uma primeira localização 4102b. Em um exemplo, um dispositivo 100 altera uma direção de um objeto interativo do videogame (por exemplo, veículo 4103) na interface de usuário 4101 de acordo com a localização de uma impressão digital 4114 sobre um controle respectivo 4102 que corresponde a uma direção esquerda.
[000847] Em algumas modalidades, o controle respectivo não é exibido (4216) no visor (imediatamente) antes da detecção da primeira impressão digital. A Figura 41D mostra, por exemplo, um dispositivo 100 que não exibe um controle respectivo 4102 na tela sensível ao toque 112 antes da detecção da primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) em uma primeira localização 4112-a.
[000848] Em algumas modalidades, o visor é (4218) um visor de tela sensível ao toque e a primeira localização na qual o controle respectivo é exibido corresponde a uma localização da primeira impressão di gital no visor de tela sensível ao toque. As Figuras 41A a 41K mostram, por exemplo, um dispositivo de múltiplas funções portátil 100 com uma tela sensível ao toque 112 que é uma superfície de visor sensível ao toque ou um visor de tela sensível ao toque. Ademais, a Figura 41E mostra, por exemplo, um dispositivo 100 que exibe um controle respectivo 4102 na primeira localização 4102-b que corresponde à localização da localização da primeira impressão digital 4108 (por exemplo, um dedo mindinho direito do usuário) na primeira localização na Figura 41B na tela sensível ao toque 112 ou a primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) na primeira localização 4112-a na Figura 41D na tela sensível ao toque 112.
[000849] Em algumas modalidades, o dispositivo exibe (4220) o controle respectivo na primeira localização no visor em resposta à detecção da primeira impressão digital enquanto o dispositivo está em um modo de operação normal que não é associado à reconfiguração da interface de usuário do dispositivo (por exemplo, o controle respectivo aparece primeiro ou é movido no visor enquanto o dispositivo não está em um modo de reconfiguração separado). A Figura 41G mostra, por exemplo, um dispositivo 100 que exibe um controle respectivo 4102 na primeira localização 4102-b na tela sensível ao toque 112 enquanto um dispositivo 100 está em um modo de operação normal (por exemplo, modo de jogo de videogame) que não é associado à reconfiguração da interface de usuário 4101 do dispositivo 100.
[000850] Em algumas modalidades, o dispositivo detecta (4222) uma elevação da primeira impressão digital e, após a detecção de elevação da primeira impressão digital, o dispositivo mantém (4224) uma exibição do controle respectivo na primeira localização no visor. Por exemplo, o controle respectivo é movido permanentemente ou semiperma- nentemente para a primeira localização até o usuário mover o controle respectivo novamente pela colocação da primeira impressão digital em outra localização na superfície sensível ao toque. A Figura 41G mostra, por exemplo, um dispositivo 100 que detecta uma elevação da primeira impressão digital 4112 (por exemplo, um dedo mindinho direito do usuário) da primeira localização 4112-a na Figura 41E. A Figura 41G mostra adicionalmente, por exemplo, um dispositivo 100 que mantém uma exibição do controle respectivo 4102 na primeira localização 4102-b na tela sensível ao toque 112 após a detecção de elevação da primeira impressão digital 4112 da primeira localização 4112-a na Figura 41E.
[000851] Em algumas modalidades, enquanto exibe o controle respectivo na primeira localização no visor, o dispositivo detecta (4226) uma impressão digital respectiva na superfície sensível ao toque que corresponde a um seletor de foco em uma segunda localização no visor onde a segunda localização é diferente da primeira localização e não inclui o controle respectivo. Em algumas modalidades, quando a impressão digital respectiva é a primeira impressão digital, detectar a primeira impressão digital na segunda localização inclui detectar um gesto de arrasto realizado com a primeira impressão digital que corresponde a um movimento da primeira localização para a segunda localização. Em algumas modalidades, quando a impressão digital respectiva é a primeira impressão digital, a detecção da primeira impressão digital na segunda localização inclui detectar um gesto de toque realizado com a primeira impressão digital em uma localização na superfície sensível ao toque que corresponde à segunda localização no visor.
[000852] A Figura 41F mostra, por exemplo, um dispositivo 100 que detecta um gesto de arrasto de impressão digital respectiva 4112 de uma primeira localização 4112-a para uma segunda localização 4112b que não inclui um controle respectivo 4102 enquanto exibe um con- trole respectivo 4102 em uma primeira localização 4102-b. Nesse exemplo, uma impressão digital respectiva 4112 é a primeira impressão digital (por exemplo, um dedo mindinho direito do usuário). A Figura 41H mostra, por exemplo, um dispositivo 100 que detecta uma impressão digital respectiva 4116 (por exemplo, um dedo médio direito do usuário) em uma segunda localização que não inclui um controle respectivo 4102 e é diferente de uma primeira localização 4112-a de uma primeira impressão digital 4112 na Figura 41D enquanto exibe um controle respectivo 4102 em uma primeira localização 4102-b. Nesse exemplo, uma impressão digital respectiva 4116 é uma segunda impressão digital (por exemplo, o dedo médio direito do usuário) diferente da primeira impressão digital (por exemplo, um dedo mindinho direito do usuário). A Figura 41I mostra, por exemplo, um dispositivo 100 que detecta uma impressão digital respectiva 4118 (por exemplo, um dedo mindinho direito do usuário) em uma segunda localização que não inclui um controle respectivo 4102 e é diferente da primeira localização 4112-a da primeira impressão digital 4112 na Figura 41D enquanto exibe um controle respectivo 4102 na primeira localização 4102-b. Nesse exemplo, uma impressão digital respectiva 4118 é a primeira impressão digital (por exemplo, um dedo mindinho direito do usuário).
[000853] Em algumas modalidades, em resposta à detecção (4228) da impressão digital respectiva e de acordo com uma determinação de que a impressão digital respectiva é a primeira impressão digital (predeterminada) associada ao movimento (por exemplo, relocalização no visor) do controle respectivo pela interface de usuário na superfície sensível ao toque, o dispositivo: interrompe (4230) uma exibição do controle respectivo na primeira localização no visor; e exibe (4232) o controle respectivo na segunda localização no visor (por exemplo, em resposta à detecção de uma entrada subsequente com a primeira im- pressão digital, o controle respectivo é movido para uma localização diferente no visor). A Figura 41J mostra, por exemplo, um dispositivo 100 que interrompe a exibição de um controle respectivo 4102 na primeira localização 4102-b e que exibe o controle respectivo 4102 na segunda localização 4102-c. Nesse exemplo, um dispositivo 100 realiza as operações mencionadas acima em resposta à detecção de impressão digital respectiva 4112 em uma segunda localização 4112-b na Figura 41F ou de uma impressão digital respectiva 4118 na segunda localização na Figura 41I e de acordo com uma determinação de que a impressão digital respectiva 4112 ou 4118 é a primeira impressão digital (por exemplo, um dedo mindinho direito do usuário) associ-ada a um controle respectivo de movimento 4102.
[000854] Em algumas modalidades, em resposta à detecção da impressão digital respectiva e de acordo com uma determinação de que a impressão digital respectiva é uma segunda impressão digital que é diferente da primeira impressão digital e não é associada ao movimento (por exemplo, relocalização no visor) do controle respectivo pela interface de usuário na superfície sensível ao toque, o dispositivo mantém (4234) uma exibição do controle respectivo na primeira localização no visor. O dispositivo também realiza, opcionalmente, uma operação associada à segunda localização no visor que não é uma operação que corresponde ao controle respectivo (por exemplo, se o gesto realizado com a segunda impressão digital for um gesto para interagir com um ícone ou outro elemento de interface de usuário exibido na segunda localização no visor). A Figura 41K mostra, por exemplo, um dispositivo 100 que mantém uma exibição do controle respectivo 4102 na primeira localização 4102-b. Nesse exemplo, dispositivo 100 realiza a operação mencionada acima em resposta à detecção de impressão digital respectiva 4116 na segunda localização na Figura 41H e de acordo com uma determinação de que a impressão digital respectiva 4116 é uma segunda impressão digital (por exemplo, um dedo médio direito do usuário) diferente da primeira impressão digital (por exemplo, um dedo mindinho direito do usuário) e não é associada ao controle respectivo de movimento 4102.
[000855] Deve-se compreender que a ordem em particular na qual as operações nas Figuras 42A a 42C foram descritas é somente exemplificativa e não se destina a indicar que a ordem descrita é a única ordem na qual as operações poderiam ser realizadas. Um versado na técnica reconhecerá várias maneiras de reordenar as operações descritas no presente documento. Adicionalmente, deve-se observar que detalhes de outros processos descritos no presente documento em relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de maneira análoga ao método 4200 descrito acima em relação às Figuras 42A a 42C. Por exemplo, as impressões digitais, objetos da interface de usuário, seletores de foco descritos acima com referência ao método 4200 opcionalmente têm uma ou mais das características das impressões digitais, dos objetos da interface de usuário, dos sele- tores de foco descritos no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por brevidade, esses detalhes não são repetidos aqui.
[000856] De acordo com algumas modalidades, a Figura 43 mostra um diagrama de blocos funcionais de um dispositivo eletrônico 4300 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são implantados, opcionalmente, por hardware, software ou uma combinação de hardware e software para realizar os princípios das várias modalidades descritas. É compreendido por pessoas versadas na técnica que os blocos funcionais descritos na Figura 43 são combinados ou separados, opcional- mente, em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento apoia opcionalmente qualquer combinação ou separação ou definição adicional dos blocos funcionais descritos no presente documento.
[000857] Conforme mostrado na Figura 43, um dispositivo eletrônico 4300 inclui uma unidade de exibição 4302 configurada para exibir uma interface gráfica de usuário, uma unidade de superfície sensível ao toque 4304 configurada para receber um ou mais contatos, uma unidade de sensor de impressão digital 4306; e uma unidade de processamento 4308 acoplada à unidade de exibição 4302, à unidade de superfície sensível ao toque 4304 e à unidade de sensor de impressão digital 4306. Em algumas modalidades, a unidade de processamento 4308 inclui uma unidade de habilitação de exibição 4310, uma unidade de detecção 4312, uma unidade de realização 4314 e uma unidade de determinação 4316.
[000858] A unidade de processamento 4308 é configurada para detectar (por exemplo, com a unidade de detecção 4312) uma primeira impressão digital associada ao movimento de um controle respectivo pela interface de usuário na unidade de superfície sensível ao toque 4304 onde a primeira impressão digital corresponde a um seletor de foco em uma primeira localização na unidade de exibição 4302 que não inclui o controle respectivo. Em resposta à detecção da primeira impressão digital, a unidade de processamento 4308 é configurada para habilitar a exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na primeira localização na unidade de exibição 4302.
[000859] Em algumas modalidades, o controle respectivo não é exibido na unidade de exibição 4302 antes da detecção da primeira impressão digital.
[000860] Em algumas modalidades, a unidade de processamento 4308 é configurada para: habilitar uma exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo em uma localização anterior que é diferente da primeira localização antes da detecção da primeira impressão digital; e, em resposta à detecção da primeira impressão digital, interromper uma exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na localização anterior.
[000861] Em algumas modalidades, a unidade de processamento 4308 é configurada para: quando o controle respectivo é exibido na localização anterior, responder a entradas que correspondem à localização anterior pela realização de (por exemplo, com a unidade de realização 4314) operações associadas ao controle respectivo; e, quando o controle respectivo é exibido na primeira localização, responder a entradas que correspondem à primeira localização pela realização de (por exemplo, com a unidade de realização 4314) operações associadas ao controle respectivo.
[000862] Em algumas modalidades, a unidade de exibição 4302 é uma unidade de exibição de tela sensível ao toque e a primeira localização na qual o controle respectivo é exibido corresponde a uma localização da primeira impressão digital na unidade de exibição de tela sensível ao toque.
[000863] Em algumas modalidades, a unidade de processamento 4308 é configurada adicionalmente para: detectar (por exemplo, com a unidade de detecção 4312) uma elevação da primeira impressão digital; e, após a detecção de elevação da primeira impressão digital, manter uma exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na primeira localização na unidade de exibição 4302.
[000864] Em algumas modalidades, a unidade de processamento 4308 é configurada adicionalmente para: enquanto exibe (por exem- plo, com a unidade de habilitação de exibição 4310) o controle respectivo na primeira localização na unidade de exibição 4302, detectar (por exemplo, com a unidade de detecção 4312) uma impressão digital respectiva na unidade de superfície sensível ao toque 4304 que corresponde a um seletor de foco em uma segunda localização na unidade de exibição 4302 onde a segunda localização é diferente da primeira localização e não inclui o controle respectivo; e, em resposta à detecção da impressão digital respectiva de acordo com uma determinação (por exemplo, com a unidade de determinação 4316) de que a impressão digital respectiva é a primeira impressão digital associada ao movimento do controle respectivo pela interface de usuário na unidade de superfície sensível ao toque 4304: interrompe a exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na primeira localização na unidade de exibição 4302; e habilita a exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na segunda localização na unidade de exibição 4302.
[000865] Em algumas modalidades, a unidade de processamento 4308 é configurada adicionalmente para manter uma exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na primeira localização na unidade de exibição 4302 em resposta à detecção da impressão digital respectiva e de acordo com a determinação (por exemplo, com a unidade de determinação 4316) de que a impressão digital respectiva é uma segunda impressão digital que é diferente da primeira impressão digital e não é associada ao movimento do controle respectivo pela interface de usuário na unidade de superfície sensível ao toque 4304.
[000866] Em algumas modalidades, o controle respectivo é um controle direcional para um videogame.
[000867] Em algumas modalidades, a unidade de processamento 4308 é configurada para habilitar a exibição (por exemplo, com a unidade de habilitação de exibição 4310) do controle respectivo na primeira localização na unidade de exibição 4302 em resposta à detecção da primeira impressão digital enquanto o dispositivo está em um modo de operação normal que não é associado à reconfiguração da interface de usuário do dispositivo.
[000868] As operações nos métodos de processamento de informações descritas acima são implantadas opcionalmente pela execução de um ou mais módulos funcionais no aparelho de processamento de informações como processadores de propósito geral (por exemplo, os descritos acima em relação às Figuras 1A e 3) ou chips de aplicação específica.
[000869] As operações descritas acima com referência às Figuras 42A a 42C são implantadas, opcionalmente, por componentes revelados nas Figuras 1A a 1B ou na Figura 43. Por exemplo, as operações de exibição 4204 e 4212, as operações de detecção 4204 e 4222 e a operação de realização 4210 e 4214 são implantadas, opcionalmente, por um classificador de evento 170, um reconhecedor de evento 180 e um manipulador de evento 190. Um monitor de evento 171 no classificador de evento 170 detecta um contato em um visor sensível ao toque 112 e o módulo despachador de evento 174 entre as informações de evento para um aplicativo 136-1. Um reconhecedor de evento respectivo 180 do aplicativo 136-1 compara as informações de evento às definições de evento respectivas 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou subevento predefinido como uma seleção de um objeto em uma interface de usuário. Quando um evento ou sube- vento predefinido respectivo é detectado, o reconhecedor de evento 180 ativa um manipulador de evento 190 associado à detecção do evento ou subevento. Um manipulador de evento 190 opcionalmente utiliza ou chama um atualizador de dados 176 ou atualizador de objeto 177 para atualizar o estado interno de aplicativo 192. Em algumas modalidades, um manipulador de evento 190 acessa um atualizador de GUI respectivo 178 para atualizar o que é exibido pelo aplicativo. De forma similar, será evidente a um versado na técnica como outros processos podem ser implantados com base nos componentes revelados nas Figuras 1A a 1B.
CONFIGURAÇÃO DE UM DISPOSITIVO ELETRÔNICO COMO UM VISOR AUXILIAR
[000870] Muitos dispositivos eletrônicos têm interfaces de usuário gráficas que exibem conteúdo e permitem ao usuário interagir com o dispositivo. Algumas vezes, o usuário pode querer expandir a interface gráfica de usuário além de um visor integrado no próprio dispositivo ou conectado ao mesmo. Por exemplo, um usuário que opera um computador de mesa ou um laptop com um visor integrado ou externo conecta opcionalmente um segundo dispositivo eletrônico ou visor externo à CPU por um cabo e, então, configura o segundo visor para expandir a interface gráfica de usuário do primeiro visor no segundo visor. De forma similar, um usuário que opera um dispositivo de múltiplas funções portátil eletrônico (por exemplo, um smartphone, computador do tipo "tablet" ou um planejador digital) conecta opcionalmente (por exemplo, através de conexão com fio ou sem fio) o dispositivo portátil a um computador base para configurar mais facilmente o dispositivo, transferir arquivos para dentro ou para fora do dispositivo portátil, etc. Nesse estilo, o tamanho eficaz da interface gráfica de usuário é aumentado, o que aprimora a habilidade do usuário em interagir com o dispositivo. Entretanto, os métodos atuais para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico exigem abrir menus e submenus e/ou múltiplos gestos e pressionamentos de botão para configurar o visor do segundo disposi- tivo, o que pode ser confuso e/ou demorado para o usuário. Conse-quentemente, existe uma necessidade de se fornecer métodos e interfaces de usuário que habilitam o usuário a configurar de forma mais eficaz e conveniente um segundo dispositivo eletrônico como um visor auxiliar para um primeiro dispositivo eletrônico.
[000871] As modalidades descritas abaixo fornecem interfaces de usuário e métodos aprimorados para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico. Mais especificamente, de acordo com algumas modalidades descritas abaixo, são fornecidos métodos e interfaces de usuário quem permitem a um usuário configurar um segundo dispositivo como um visor auxiliar para um primeiro dispositivo apenas pelo toque de um sensor de impressão digital em cada dispositivo. Em algumas modalidades, os métodos e interfaces de usuário correlacionam uma identidade de impressão digital respectiva de um toque no primeiro dispositivo a uma identidade de impressão digital respectiva de um toque no segundo dispositivo e configuram automaticamente o segundo dispositivo como um visor auxiliar para o primeiro dispositivo. Alternativamente, em algumas modalidades, após a detecção da primeira e da segunda impressão digital, o usuário é consultado para confirmar a configuração do segundo dispositivo como um visor auxiliar para o primeiro dispositivo. Em algumas modalidades descritas abaixo, a orientação do toque no primeiro e/ou no segundo dispositivo eletrônico determina a orientação do conteúdo exibido no visor auxiliar. Em algumas modalidades, a identidade do toque de impressão digital no primeiro e/ou no segundo dispositivo determina a direção na qual a interface de usuário do primeiro visor é expandida no visor auxiliar. Por exemplo, em algumas modalidades onde o usuário toca o primeiro dispositivo com a mão esquerda e toca o segundo dispositivo com a mão direita, a inter-face de usuário é expandida para a direita no visor auxiliar e vice ver sa. Vantajosamente, os métodos e interfaces de usuário descritas abaixo simplificam o processo de configuração de um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo pela redução do número de etapas necessárias.
[000872] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, o visor 450) e uma superfície sensível ao toque separada (por exemplo, a superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é um dispositivo de múltiplas funções portátil 100, o visor é uma tela sensível ao toque 112 e a superfície sensível ao toque inclui geradores de saída tátil 167 no visor (Figura 1A). O dispositivo descrito abaixo com referência às Figuras 44A a 44EE e 45A a 45D inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de im-pressão digital integrados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, uma superfície sensível ao toque separada 451 ou um sistema de exibição sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem sensores separados de impressão digital 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, uma superfície sensível ao toque separada 451 ou um sistema de exibição sensível ao toque 112). A menos que especificado o contrário, um sensor de impressão digital 169 descrito abaixo é, opcionalmente, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 dependendo da configuração do hardware e do software do dispositivo que inclui o sensor de impressão digital 169. Para conveniência da explicação, as modalidades descritas com referência às Figuras 44A a 44EE e 45A a 45D serão discutidas com referência ao visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital separado 359-2, entre- tanto, operações análogas são realizadas, opcionalmente, em um dispositivo com um sensor de impressão digital integrado 359-1 em resposta à detecção das entradas descrita nas Figuras 44A a 44EE no sensor de impressão digital integrado 359-1 enquanto exibe as interfaces de usuário mostradas nas Figuras 44A a 44EE no visor 450. Adicionalmente, operações análogas são realizadas, opcionalmente, em um dispositivo com uma tela sensível ao toque 112 em resposta à detecção dos contatos descritos nas Figuras 44A a 44EE em um sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2) enquanto exibe as interfaces de usuário mostradas nas Figuras 44A a 44EE na tela sensível ao toque 112; em tais modalidades, o seletor de foco é opcionalmente: um contato respectivo, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um contato respectivo ou um ponto associado a um contato respectivo) ou um centroide de dois ou mais contatos detectados na tela sensível ao toque 112 no lugar de cursor 4422.
[000873] As Figuras 44A a 44J ilustram dois dispositivos eletrônicos (por exemplo, dispositivos de múltiplas funções 100-1 e 100-2) que têm, cada um, uma tela sensível ao toque 112 com uma resolução espacial que é alta o bastante para detectar características de impressão digital formadas por cristas de impressão digital individuais, o que habilita às mesmas a serem usadas como sensores de impressão digital. Os dispositivos de múltiplas funções 100-1 e 100-2 também são ilustrados com sensores separados de impressão digital 169. Em algumas modalidades, cada um dos dispositivos de múltiplas funções 100-1 e 100-2 tem, de forma independente, uma tela sensível ao toque 112 que pode ser usada como um sensor de impressão digital, um sensor de impressão digital separado 169 ou ambos.
[000874] As Figuras 44A a 44F ilustram várias modalidades onde um primeiro dispositivo de múltiplas funções 100-1 detecta uma primeira impressão digital 4402 e um segundo dispositivo de múltiplas funções 100-2 detecta uma segunda impressão digital 4403 junto com ou após a detecção de uma primeira impressão digital 4402 (por exemplo, as impressões digitais são detectadas simultaneamente, substancialmente simultaneamente ou em proximidade temporal próxima). Um dispositivo de múltiplas funções 100-2 comunica informações para um dispositivo de múltiplas funções 100-1 de que uma segunda impressão digital 4403 foi detectada. Quando critérios predefinidos são satisfeitos pelas impressões digitais 4402 e 4403, o dispositivo de múltiplas funções 100-1 responde ao dispositivo de múltiplas funções 100-2 com informações que habilitam o dispositivo de múltiplas funções 100-2 a ser configurado como um visor auxiliar para um dispositivo de múltiplas funções 100-1. Quando critérios predeterminados não são satisfeitos pela detecção de impressões digitais 4402 e 4403, o dispositivo de múltiplas funções 100-2 não é configurado como um visor auxiliar para um dispositivo de múltiplas funções 100-1.
[000875] As Figuras 44A a 44D ilustram uma modalidade onde os critérios predefinidos incluem um critério de que as impressões digitais 4402 e 4403 detectadas por ambos os dispositivos são registradas para o mesmo usuário. Na Figura 44A, um dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui um mapa 4404-1 dos Estados Unidos enquanto o dispositivo de múltiplas funções 100-2 exibe uma segunda interface de usuário que inclui uma tela de lançamento de aplicativo 4406. Na Figura 44B, o dispositivo de múltiplas funções 100-1 detecta a primeira impressão digital 4402 que corresponde ao dedo indicador esquerdo (LI) de um usuário e o dispositivo de múltiplas funções 100-2 detecta a segunda impressão digital 4403 que corresponde ao dedo indicador direito (RI) de um usuário. O dispositivo de múltiplas funções 100-2 comunica para o dispositivo de múltiplas funções 100-1 que a segunda impressão digital 4403 foi detectada e, opcionalmente, informações adicionais sobre o contato (por exemplo, a identidade da impressão digital).
[000876] Na Figura 44C, onde as impressões digitais 4402 e 4403 correspondem ao mesmo usuário (por exemplo, a impressão digital 4402 é do dedo indicador esquerdo do usuário 1 e a impressão digital 4403 é do dedo indicador direito do usuário 1), a primeira interface de usuário exibida na tela sensível ao toque 112 do dispositivo de múltiplas funções 100-1 é estendida no dispositivo de múltiplas funções 100-2 de forma que o mapa 4404 dos Estados Unidos é exibido em telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos ocidental é exibido como um mapa 4404-1 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e os Estados Unidos oriental é exibida como um mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2) devido aos critérios predefinidos serem satisfeitos (por exemplo, ambas as impressões digitais 4402 e 4403 foram identificadas como pertencendo ao mesmo usuário).
[000877] Na Figura 44D, onde as impressões digitais 4405 e 4407 correspondem a usuários diferentes (por exemplo, a impressão digital 4405 é do dedo indicador esquerdo do usuário 1 e a impressão digital 4407 é do dedo indicador direito do usuário 2), a primeira interface de usuário não é estendida no dispositivo de múltiplas funções 100-2 (por exemplo, a tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 ainda exibe a primeira interface de usuário que inclui o mapa 4404-1 e a tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 ainda exibe a tela de lançamento de aplicativo 4406) devido aos critérios predefinidos não serem satisfeitos (por exemplo, as impressões digitais 4405 e 4407 foram identificadas como pertencendo a usuários diferentes).
[000878] As Figuras 44E a 44F ilustram uma modalidade onde os critérios predefinidos incluem um critério de que a segunda impressão digital (por exemplo, impressões digitais 4411 e 4415 nas Figuras 44E e 44F respectivamente) é detectada dentro de um período de tempo predeterminado após a detecção da primeira impressão digital (por exemplo, impressões digitais 4409 e 4413 nas Figuras 44E e 44F, respectivamente), por exemplo, o segundo contato deve ocorrer dentro de 5 segundos após o primeiro contato ser detectado. Por exemplo, na Figura 44E, o dispositivo de múltiplas funções 100-1 detecta a primeira impressão digital 4409 em um primeiro instante (por exemplo, definido como tempo 0) e o dispositivo de múltiplas funções 100-2 detecta a segunda impressão digital 4411 em um segundo instante 4410 após o primeiro instante e antes de um tempo predeterminado 4408. O dispositivo de múltiplas funções 100-2 comunica para o dispositivo de múltiplas funções 100-1 que a segunda impressão digital 4411 foi detectada e, opcionalmente, informações adicionais sobre o contato (por exemplo, o instante no qual o mesmo foi detectado). A primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 é estendida no dispositivo de múltiplas funções 100-2 de forma que o mapa 4404 dos Estados Unidos é exibido em telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos ocidental é exibido como o mapa 4404-1 na tela sensível ao toque 112 do dispositivo de múltiplas funções 100-1 e os Estados Unidos oriental é exibido como o mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2) devido aos critérios predeterminados serem satisfeitos (por exemplo, a segunda impressão digital 4411 foi detectada dentro de cinco segundos da detecção da primeira impressão digital 4409). Em contraste, na Figura 44F, o dispositivo de múltiplas funções 100-1 detecta a primeira impressão digital 4413 em um primeiro instante (por exemplo, definido como tempo 0) e o dispositivo de múltiplas funções 100-2 detecta a segunda impressão digital 4415 em um segundo instante 4459 após o primeiro instante e após um tempo predeterminado 4408. O dispositivo de múltiplas funções 100-2 comunica para o dispositivo de múltiplas funções 100-1 que a segunda impressão digital 4415 foi detectada e, opcionalmente, informações adicionais sobre o contato (por exemplo, o instante no qual a mesma foi detectada). A primeira interface de usuário não é estendida no dispositivo de múltiplas funções 100-2 (por exemplo, a tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 ainda exibe a primeira interface de usuário que inclui o mapa 4404-1 e a tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 ainda exibe a tela de lançamento de aplicativo 4406) devido aos critérios predefinidos não serem satisfeitos (por exemplo, a segunda impressão digital 4415 não foi detectada dentro de cinco segundos da detecção da primeira impressão digital 4413).
[000879] As Figuras 44G a 44H ilustram várias modalidades onde uma confirmação do usuário da solicitação para configurar o segundo dispositivo como um visor auxiliar é necessária. Nas Figuras 44G a 44H, o dispositivo de múltiplas funções 100-1 e o dispositivo de múltiplas funções 100-2 detectam a impressão digital 4417 e 4419, respectivamente. O dispositivo de múltiplas funções 100-2 comunica para o dispositivo de múltiplas funções 100-1 informações de que a segunda impressão digital 4419 foi detectada. Quando critérios predefinidos são satisfeitos, de outra forma, pela detecção das impressões digitais 4417 e 4419, o usuário do segundo dispositivo de múltiplas funções 100-2 (conforme ilustrado na Figura 44G) e/ou o usuário do primeiro dispositivo de múltiplas funções 100-1 (conforme ilustrado na Figura 44H) é consultado (por exemplo, pela exibição do aviso 4412 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 na Figura 44G ou pela exibição do aviso 4421 na tela sensível ao toque 112-1 no dispositivo de múltiplas funções 100-1 na Figura 44H) para confirmar que o segundo dispositivo de múltiplas funções 100-2 deve ser configurado como um visor auxiliar (por exemplo, o usuário tem de verificar que uma solicitação para conectar o iPhone do Abraham e/ou da Mary Todd foi feita). Após receber uma confirmação da solicitação, a primeira interface de usuário exibida na tela sensível ao toque 112 do dispositivo de múltiplas funções 100-1 é estendida no dispositivo de múltiplas funções 100-2 de forma que o mapa 4404 dos Estados Unidos é exibido nas telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos ocidental é exibido como um mapa 4404-1 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e os Estados Unidos oriental é exibido como um mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 conforme ilustrado nas Figuras 44C e 44E).
[000880] As Figuras 44I a 44J ilustram uma modalidade onde uma orientação de uma impressão digital (por exemplo, a impressão digital 4427 e/ou a impressão digital 4429) determina a orientação do visor do usuário no visor auxiliar. Na Figura 44I, o dispositivo de múltiplas funções 100-1 detecta a primeira impressão digital 4427 que tem uma primeira orientação substancialmente paralela ao eixo geométrico longo do dispositivo. O dispositivo de múltiplas funções 100-2 detecta a segunda impressão digital 4429 que tem uma segunda orientação substancialmente perpendicular ao eixo geométrico longo do dispositivo. O dispositivo de múltiplas funções 100-2 comunica para o dispositivo de múltiplas funções 100-1 informações de que o segundo contato 4429 foi detectado e, opcionalmente, informações adicionais sobre o contato (por exemplo, a orientação do contato). Quando os critérios predefinidos são satisfeitos, de outra forma, pela detecção de impressões digitais 4427 e 4429, a primeira interface de usuário exi- bida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 é estendida na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 em uma orientação de paisagem que corresponde à orientação da segunda impressão digital 4429 em relação ao eixo geométrico longo do dispositivo de forma que o mapa 4404 dos Estados Unidos seja exibido nas telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos ocidental é exibido como o mapa 4404-1 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e os Estados Unidos oriental é exibido as mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2) conforme ilustrado na Figura 44J.
[000881] As Figuras 44K a 44P ilustram três dispositivos eletrônicos (por exemplo, dispositivos de múltiplas funções 100-1, 100-2 e 100-3) que têm, cada um, um sensor de impressão digital 169. Várias modalidades são ilustradas nas Figuras 44K a 44P onde a identidade de uma impressão digital determina a direção na qual a interface de usuário exibida em um primeiro dispositivo eletrônico é expandida no segundo dispositivo eletrônico.
[000882] Em algumas modalidades, conforme ilustrado nas Figuras 44K a 44N, a mão à qual o dedo que corresponde à segunda impressão digital (por exemplo, a impressão digital 4437 nas Figuras 44K a 44L ou a impressão digital 4441 nas Figuras 44M a 44M) pertence determina a direção na qual a interface de usuário é expandida com o visor auxiliar. Por exemplo, na Figura 44K, a impressão digital 4435 que corresponde ao dedo indicador esquerdo (LI) do usuário é detectada pelo sensor de impressão digital 169-1 no primeiro dispositivo de múltiplas funções 100-1. A impressão digital 4437 que corresponde ao dedo indicador direito (RI) do usuário é detectada pelo sensor de impressão digital 169-2 no segundo dispositivo de múltiplas funções 100- 2. Em resposta, conforme ilustrado na Figura 44L, quando os critérios predefinidos são satisfeitos, de outra forma, pela detecção de impressões digitais 4435 e 4437, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 é estendida para a direita na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 de forma que o mapa 4404 dos Estados Unidos é exibido nas telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos central é exibido como um mapa 4404-1 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e o litoral oriental dos Estados Unidos é exibido como o mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2) devido ao dedo indicador direito estar localizado na mão direita do usuário. De forma similar, conforme ilustrado na Figura 44M, a impressão digital 4439 que corresponde ao dedo indicador direito (RI) do usuário é detectada pelo sensor de impressão digital 169-1 no primeiro dispositivo de múltiplas funções 100-1. A impressão digital 4441 que corresponde ao dedo indicador esquerdo (LI) do usuário é detectada pelo sensor de impressão digital 169-3 no segundo dispositivo de múltiplas funções 100-3. Em resposta, conforme ilustrado na Figura 44N, quando critérios pre- definidos são satisfeitos, de outra forma, pela detecção de impressões digitais 4439 e 4441, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 é estendida para a esquerda na tela sensível ao toque 112-3 do dispositivo de múltiplas funções 100-3 de forma que o mapa 4404 dos Estados Unidos é exibido nas telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos central é exibido como o mapa 4404-1 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e a costa oeste dos Estados Unidos é exibida como o mapa 4404-3 na tela sensível ao toque 112-3 do dispositivo de múltiplas funções 100-3) devido ao dedo indicador esquerdo estar localizado na mão esquerda do usuário.
[000883] Em algumas modalidades, conforme ilustrado nas Figuras 44O a 44P, a ordem nas mãos do usuário do dedo que corresponde à segunda impressão digital (por exemplo, a impressão digital 4444) relativa ao dedo que corresponde à primeira impressão digital (por exemplo, a impressão digital 4443) determina a direção na qual a interface de usuário é expandida com o visor auxiliar. Por exemplo, na Figura 440, a impressão digital 4443 que corresponde ao dedo anular direito (RR) do usuário é detectada por um sensor de impressão digital 169-1 no primeiro dispositivo de múltiplas funções 100-1. A impressão digital 4444 que corresponde ao dedo indicador direito (RI) do usuário é detectada por um sensor de impressão digital 169-2 no segundo dis-positivo de múltiplas funções 100-2. Em resposta, conforme ilustrado na Figura 44P, quando os critérios predefinidos são satisfeitos, de outra forma, pela detecção de impressões digitais 4443 e 4444, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 é estendida para a esquerda na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 de forma que o mapa 4404 dos Estados Unidos é exibido nas telas sensíveis ao toque 112 de ambos os dispositivos de múltiplas funções (por exemplo, os Estados Unidos central é exibido como o mapa 44041 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 e a costa oeste dos Estados Unidos é exibida como o mapa 4404-2 na tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2) devido ao dedo indicador direito estar localizado à esquerda do usuário do dedo anular direito nas mãos do usuário.
[000884] As Figuras 44Q a 44EE ilustram dois dispositivos eletrônicos (por exemplo, dispositivos de múltiplas funções 100-1 e 100-2) que têm cada um uma tela sensível ao toque 112 com uma resolução es- pacial que é alta o bastante para detectar características de impressão digital formadas por cristas de impressão digital individuais, o que habilita os mesmos a serem usados como sensores de impressão digital. Os dispositivos de múltiplas funções 100-1 e 100-2 também são ilustrados com sensores separados de impressão digital 169. Em algumas modalidades, cada um dos dispositivos de múltiplas funções 100-1 e 100-2 tem, de forma independente, uma tela sensível ao toque 112 que pode ser usada como um sensor de impressão digital, um sensor de impressão digital separado 169 ou ambos. Nas Figuras 44Q a 44T, várias modalidades são ilustradas onde o segundo dispositivo de múltiplas funções 100-2, enquanto é configurado como um visor auxiliar for primeiro dispositivo de múltiplas funções 100-1, exibe um conjunto de elementos de interface de usuário associado a um aplicativo que está ativo no primeiro dispositivo de múltiplas funções 100-1.
[000885] Na Figura 44Q, o dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui o mapa 4404-1 dos Estados Unidos que corresponde a um aplicativo de exibição de foto ativo. O dispositivo de múltiplas funções 100-2 exibe uma segunda interface de usuário que inclui a tela de lançamento de aplicativo 4406. Após detecção de impressões digitais qualificadas 4445 e 4446 (por exemplo, impressões digitais que satisfazem aos critérios de visor auxiliar predefinidos), o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1. Conforme ilustrado na Figura 44R, enquanto é configurado como um visor auxiliar, uma tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 exibe elementos de interface de usuário 4414, 4416 e 4447 que são associados ao aplicativo de exibição de foto ativo no primeiro dispositivo de múltiplas funções 1001 (por exemplo, barras de ferramenta 4414 e 4447 e um menu suspenso 4416).
[000886] Em algumas modalidades, conforme ilustrado nas Figuras 44S a 44T, os elementos de interface de usuário exibidos no visor auxiliar são controles para realizar operações no aplicativo ativo no primeiro visor. Na Figura 44S, o segundo dispositivo de múltiplas funções 100-2, configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1 detecta um contato 4430 em uma posição na tela sensível ao toque 112-2 que corresponde a um controle para exibir álbuns de fotos (por exemplo, o elemento de menu de interface de usuário 4414-b) no aplicativo de exibição de foto ativo no dispositivo de múltiplas funções 100-1. Em resposta à detecção de contato 4430 no segundo dispositivo de múltiplas funções 100-2, a interface de usuário exibida na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1 é alterada da exibição do mapa 4404-1 dos Estados Unidos para a exibição de ícones de lançamento 4432 para álbuns de fotos (por exemplo, ícones que representam álbuns de fotos "Flores" 4432-1, "Espaço Sideral" 4432-2, "Férias" 4432-3 e "Inverno" 4432-4) conforme ilustrado na Figura 44T (por exemplo, o modo do aplicativo de exibição de foto é alterado da exibição de localizações onde foram tiradas fotos para exibir álbuns de fotos compilados por um usuário). Adicionalmente, em resposta à detecção de contato 4430 no segundo dispositivo de múltiplas funções 100-2, a tela sensível ao toque 112-2 do dispositivo de múltiplas funções 100-2 configurada como um visor auxiliar para o dispositivo de múltiplas funções 100-1 exibe um menu suspenso 4448 que corresponde a controles para realizar funções relacionadas aos álbuns de fotos representados por ícones de lançamento 4432 exibidos na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1.
[000887] Em algumas modalidades, conforme ilustrado nas Figuras 44U a 44V, os elementos de interface de usuário exibidos no visor auxiliar incluem uma porção de uma área de trabalho que foi expandida a partir do visor do primeiro dispositivo. Na Figura 44U, o dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui a área de trabalho 4417-1 de um aplicativo de processamento de textos ativo. O dispositivo de múltiplas funções 100-2 exibe uma segunda interface de usuário que inclui a tela de lançamento de aplicativo 4406. Após detecção de impressões digitais qualificadas 4449 e 4450 (por exemplo, impressões digitais que satisfazem aos critérios de visor auxiliar predefinidos), um segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar for primeiro dispositivo de múltiplas funções 100-1. Conforme ilustrado na Figura 44V, a primeira interface de usuário é expandida com o visor auxiliar para criar uma área de trabalho contínua 4417 que transpõe telas sensíveis ao toque 112 dos dispositivos de múltiplas funções 100-1 e 100-2. Por exemplo, quando o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar, a palavra "ago" (por exemplo, o objeto de interface de usuário 4418-1), exibida na segunda linha do texto 4418 na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 na Figura 44U se move na linha 1 da área de trabalho 4417-2 (por exemplo, a porção de área de trabalho contínua 4417 exibida no visor auxiliar) na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 na Figura 44V.
[000888] Em algumas modalidades, conforme ilustrado nas Figuras 44W a 44Y, enquanto o segundo dispositivo eletrônico é configurado como um visor auxiliar para o primeiro dispositivo eletrônico, entradas que correspondem a interações com elementos de interface de usuário são recebidas pelo segundo dispositivo e operações associadas a um aplicativo ativo são realizadas no primeiro dispositivo. Por exemplo, na Figura 44W, o dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui o mapa 4404-1 dos Estados Unidos que corresponde a um aplicativo de exibição de foto ativo. O dis- positivo de múltiplas funções 100-2 exibe uma segunda interface de usuário que inclui a tela de lançamento de aplicativo 4406. Após detecção de impressões digitais qualificadas 4451 e 4452 (por exemplo, impressões digitais que satisfazem os critérios de visor auxiliar prede- finidos), o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1. Conforme ilustrado na Figura 44X, enquanto é configurado como um visor auxiliar, a tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 exibe a interface de usuário 4420 que inclui a mesma visualização dos Estados Unidos (por exemplo, como o mapa 4453-2) conforme exibido na tela sensível ao toque 1121 do primeiro dispositivo de múltiplas funções 100-1 (por exemplo, ao invés de estender a exibição do mapa 4404-1 no primeiro dispositivo de múltiplas funções 100-1, o segundo dispositivo de múltiplas funções 100-2 espelha a exibição do primeiro dispositivo de múltiplas funções 100-1). O segundo dispositivo de múltiplas funções 100-2 detecta um gesto que inclui um movimento 4426 de contato 4424 que corresponde ao seletor de foco 4422 exibido na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1 da posição 4424-a na Figura 44X até a posição 4424-b na Figura 44Y. Em resposta, o primeiro dispositivo de múltiplas funções 100-1 exibe um movimento do seletor de foco 4422 da posição 4422-a na Figura 44X até a posição 4422-b na Figura 44Y.
[000889] Em algumas modalidades, conforme ilustrado nas Figuras 44Z a 44BB, enquanto o segundo dispositivo eletrônico é configurado como um visor auxiliar para o primeiro dispositivo eletrônico, dados operacionais do segundo dispositivo que especificam operações que correspondem a interações com elementos de interface de usuário no visor auxiliar associados a um aplicativo ativo no primeiro dispositivo são recebidos e realizados pelo primeiro dispositivo. Por exemplo, na Figura 44Z, o dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui o teclado 4428-1 que corresponde a um aplicativo de piano ativo. Um dispositivo de múltiplas funções 1002 exibe uma segunda interface de usuário que inclui a tela de lançamento de aplicativo 4406. Após detecção de impressões digitais qualificadas 4455 e 4456 (por exemplo, impressões digitais que satisfazem aos critérios de visor auxiliar predefinidos), o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1. Conforme ilustrado na Figura 44AA, enquanto é configurado como um visor auxiliar, a tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 exibe uma extensão do teclado 4428 (por exemplo, o teclado 4428-2 que corresponde a uma segunda oitava de tons no teclado). Na Figura 44BB, o segundo dispositivo de múltiplas funções 100-2 detecta um contato 4430 em uma posição na tela sensível ao toque 1122 que corresponde à exibição da tecla de piano 4457 (por exemplo, a tecla "E"). O segundo dispositivo de múltiplas funções 100-2 processa o contato 4430 para determinar que uma operação que inclui gerar um som em uma altura que corresponde à letra "E" 4457 deve ser realizada. O primeiro dispositivo de múltiplas funções 100-1 recebe uma comunicação do segundo dispositivo de múltiplas funções 100-2 que inclui dados operacionais relacionados a gerar um som na altura que corresponde à letra "E" 4457 e gera um som 4429 de acordo com os dados operacionais recebidos do segundo dispositivo de múltiplas fun-ções 100-2. Em algumas modalidades, ao invés de enviar a comunicação para o primeiro dispositivo de múltiplas funções 100-1, o segundo dispositivo de múltiplas funções 100-2 gera um som na altura que corresponde à letra "E" 4457.
[000890] Em algumas modalidades, conforme ilustrado nas Figuras 44CC- a 44EE, enquanto o segundo dispositivo eletrônico é configura- do como um visor auxiliar para o primeiro dispositivo eletrônico, gestos correspondentes realizados em superfícies sensíveis ao toque (por exemplo, telas sensíveis ao toque 112) de cada dispositivo respectivo fazem com que um objeto de interface de usuário associado a um aplicativo ativo no primeiro dispositivo se mova entre o visor do primeiro dispositivo e o visor do segundo dispositivo. Por exemplo, na Figura 44CC, o dispositivo de múltiplas funções 100-1 exibe uma primeira interface de usuário que inclui ícones de lançamento 4432 para álbuns de fotos (por exemplo, ícones que representam os álbuns de fotos "Flores" 4432-1, "Espaço Sideral" 4432-2, "Férias" 4432-3 e "Inverno" 4432-4) que correspondem a um aplicativo de exibição de foto ativo. O dispositivo de múltiplas funções 100-2 exibe uma segunda interface de usuário que inclui uma tela de lançamento de aplicativo 4406. Após detecção de impressões digitais qualificadas 4460 e 4462 (por exemplo, impressões digitais que satisfazem aos critérios de visor auxiliar predefinidos), o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1. Conforme ilustrado na Figura 44DD, a primeira interface de usuário é expandida com o visor auxiliar para exibir ícones de lançamento 4432 para álbuns de fotos adicionais (por exemplo, ícones que representam os álbuns de fotos "Deserto" 4432-5 e "Casamento" 4432-6) na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2. O primeiro dispositivo de múltiplas funções 100-1 detecta um primeiro gesto que inclui o movimento 4438 do contato 4436 na tela sensível ao toque 112-1 da posição 4436-a na Figura 44DD que corresponde à exibição do ícone de lançamento 4432-4 até a posição 4436-b na Figura 44EE. O segundo dispositivo de múltiplas funções 100-2 detecta um segundo gesto que inclui o movimento 4442 do contato 4440 na tela sensível ao toque 112-2 da posição 4440-a até a posição 4440-b na Figura 44EE. Em resposta, o visor do ícone de lançamento 4432-4 é movido da posição 4436-a na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1 na Figura 44DD até a posição 4440-b na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 na Figura 44EE.
[000891] As Figuras 45A a 45D são fluxogramas que ilustram um método 4500 de configuração de um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico de acordo com algumas modalidades. O método 4500 é realizado em um dispositivo eletrônico (por exemplo, um dispositivo 300 da Figura 3 ou um dispositivo de múltiplas funções portátil 100 da Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela sensível ao toque e a superfície sensível ao toque é no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 4500 são combinadas, opcionalmente, e/ou a ordem de algumas operações é alterada, opcionalmente.
[000892] Conforme descrito abaixo, o método 4500 fornece uma forma intuitiva para configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico. O método reduz o fardo cognitivo em um usuário ao configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico, o que cria assim uma interface humano-máquina mais eficaz. Para dispositivos eletrônicos operados por bateria, habilitar um usuário a configurar um segundo dispositivo eletrônico como um visor auxiliar de um primeiro dispositivo eletrônico de forma mais rápida e eficaz conserva energia e aumenta o tempo entre cargas de bateria.
[000893] Em algumas modalidades, um primeiro dispositivo eletrônico com um sensor de impressão digital e um visor detecta (4502) uma primeira impressão digital em um sensor de impressão digital de um primeiro dispositivo eletrônico em um primeiro instante onde a primeira impressão digital é registrada para um usuário respectivo. Por exemplo, as Figuras 44B, 44D a 44K, 44M, 440, 44Q, 44U, 44W, 44Z e 44CC ilustram várias modalidades onde o dispositivo de múltiplas funções 100-1 detecta uma primeira impressão digital (por exemplo, a impressão digital 4402, 4405, 4409, 4413, 4417, 4423, 4427, 4431, 4435, 4439, 4443, 4445, 4449, 4451, 4455 ou 4460) no sensor de impressão digital 169-1 ou na tela sensível ao toque 112-1 que tem uma resolução espacial que é alta o bastante para detectar características de impressão digital formadas por cristas de impressão digital individuais, o que permite que a mesma seja usada como um sensor de impressão digital.
[000894] O primeiro dispositivo eletrônico recebe (4504) uma comunicação de um segundo dispositivo eletrônico distinto do primeiro dispositivo eletrônico que inclui informações que indicam que uma segunda impressão digital foi detectada em um sensor de impressão digital do segundo dispositivo em um segundo instante. Por exemplo, as Figuras 44B, 44D a 44K, 44M, 44O, 44Q, 44U, 44W, 44Z e 44CC ilustram várias modalidades onde o dispositivo de múltiplas funções 100-2 ou 100-3 detecta a segunda impressão digital (por exemplo, impressão digital 4403, 4407, 4411, 4415, 4419, 4425, 4429, 4433, 4437, 4441, 4444, 4446, 4450, 4452, 4456, ou 4462) no sensor de impressão digital 169-2 ou 169-3 ou na tela sensível ao toque 112-2 ou 112-3 e comunica as informações para o dispositivo de múltiplas funções 100-1 de que a segunda impressão digital foi detectada e, opcionalmente, informações caracterizantes adicionais sobre o contato (por exemplo, uma identidade da impressão digital, uma hora que a impressão digital foi detectada ou uma orientação da impressão digital).
[000895] Em resposta (4506) à detecção da primeira impressão digital e o recebimento da comunicação a partir do segundo dispositivo eletrônico: o primeiro dispositivo eletrônico determina (4508) se crité- rios de visor auxiliar predefinidos foram satisfeitos onde os critérios de visor auxiliar incluem um critério que é satisfeito quando a segunda impressão digital for registrada para o usuário respectivo. Por exemplo, conforme ilustrado na Figura 44C, devido às impressões digitais 4402 e 4403 serem registradas ao mesmo usuário (por exemplo, usuário "1"), o critério de visor auxiliar é satisfeito. Em contraste, conforme ilustrado na Figura 44D, devido às impressões digitais 4405 e 4407 serem registradas para usuários diferentes (por exemplo, usuários "1" e "2", respectivamente), o critério de visor auxiliar não é satisfeito.
[000896] Em algumas modalidades, os critérios de visor auxiliar incluem (4510) um critério que é satisfeito quando o primeiro instante está dentro de um tempo predefinido do segundo instante. Por exemplo, o segundo dispositivo é usado como um visor auxiliar quando a primeira impressão digital e a segunda impressão digital são detectadas simultaneamente ou substancialmente simultaneamente no primeiro e no segundo dispositivos (por exemplo, dentro de 0,5, 1,0, 2 ou 5 segundos entre si). Por exemplo, conforme ilustrado na Figura 44E, devido à segunda impressão digital 4411 ser detectada em um instante 4410 (por exemplo, três e segundos e meio após a detecção da primeira impressão digital 4409) dentro do tempo predeterminado 4408 (por exemplo, cinco segundos após a detecção da primeira impressão digital 4409), o critério de visor auxiliar é satisfeito. Em contraste, conforme ilustrado na Figura 44F, devido à segunda impressão digital 4415 ocorrer em um instante 4459 (por exemplo, seis segundos e meio após a detecção da primeira impressão digital 4413) não estar dentro do tempo predeterminado 4408 (por exemplo, cinco segundos após a detecção da primeira impressão digital 4413), o critério de visor auxiliar não é satisfeito.
[000897] Em algumas modalidades, os critérios de visor auxiliar incluem (4512) um critério que é satisfeito quando o primeiro dispositivo recebe uma confirmação de que a configuração do segundo dispositivo como um visor auxiliar foi solicitada. Em algumas modalidades, conforme ilustrado nas Figuras 44G a 44H, a configuração do segundo dispositivo (por exemplo, dispositivo de múltiplas funções 100-2) como o visor auxiliar inclui uma seleção de "aprovar conexão", "aprovar", "conectar" ou uma seleção afirmativa similar em um ou em ambos os dispositivos (por exemplo, o aviso "CONNECT" exibido nos objetos da interface de usuário 4412 e 4421 nas Figuras 44G e 44H, respectivamente) e/ou inserir um código de segurança ou uma senha predefinida em um ou em ambos os dispositivos (por exemplo, dispositivo de múltiplas funções 100-1 e/ou dispositivo de múltiplas funções 100-2). Em contraste, em algumas modalidades, conforme ilustrado na série de Figuras 44A a 44C, o segundo dispositivo (por exemplo, o dispositivo de múltiplas funções 100-2) é configurado como um visor auxiliar para o primeiro dispositivo sem solicitar qualquer autenticação adicional realizada antes da configuração do segundo dispositivo como um dispositivo auxiliar para o primeiro dispositivo (por exemplo, a configuração acontece automaticamente quando as duas impressões digitais 4402 e 4403 são detectadas).
[000898] De acordo com uma determinação de que os critérios de visor auxiliar são satisfeitos, o primeiro dispositivo eletrônico envia (4514) uma resposta para o segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico. Por exemplo, as Figuras 44C, 44E, 44J, 44L, 44N, 44P, 44R, 44V, 44X, 44AA e 44DD ilustram várias modalidades onde, em resposta à satisfação dos critérios de visor auxiliar, o primeiro dispositivo de múltiplas funções 100-1 enviou uma resposta que habilitou o segundo dispositivo de múltiplas funções 100-2 ou 100-3 a ser configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1.
[000899] Em algumas modalidades, uma orientação de uma interface de usuário exibido no visor do primeiro dispositivo é determinada (4516) de acordo com a orientação da primeira impressão digital em relação a um eixo geométrico predefinido do visor do primeiro dispositivo e uma orientação de uma interface de usuário exibida no visor do segundo dispositivo é determinada de acordo com a orientação da segunda impressão digital em relação a um eixo geométrico predefinido do visor do segundo dispositivo. Por exemplo, a interface de usuário exibida no primeiro dispositivo e a interface de usuário exibida no segundo dispositivo são orientadas de forma que as mesmas sejam alinhadas, cada uma, com a impressão digital detectada nos dispositivos correspondentes (por exemplo, as interfaces de usuário são orientadas de forma que um "cima" da interface de usuário no visor corresponde ao "cima" da impressão digital correspondente nos sensores de impressão digital). Dessa forma, em algumas modalidades, conforme ilustrado nas Figuras 44I a 44J, quando um eixo geométrico vertical da impressão digital é substancialmente paralelo a um eixo geométrico vertical predefinido de um dispositivo respectivo (por exemplo, onde o eixo geométrico vertical do primeiro contato 4427 é substancialmente paralelo ao eixo geométrico longo do primeiro dispositivo de múltiplas funções 100-1 na Figura 44I), então a interface de usuário é alinhada de forma que o fundo da interface de usuário seja ao longo de uma borda de fundo do dispositivo respectivo em relação ao eixo geométrico vertical predefinido (por exemplo, a interface de usuário que exibe o mapa 4404-1 dos Estados Unidos na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1 é exibida em uma orientação de retrato na Figura 44J), enquanto que, quando um eixo geométrico vertical da impressão digital é substancialmente perpendicular ao eixo geométrico vertical predefinido de um dispositivo respectivo (por exemplo, onde o eixo geométrico vertical do segundo contato 4433 é substancialmente perpendicular ao eixo geométrico longo do segundo dispositivo de múltiplas funções 100-2 na Figura 44I), então a interface de usuário é alinhada de forma que o fundo da interface de usuário seja ao longo de uma borda lateral do dispositivo respectivo em relação ao eixo geométrico vertical predefinido (por exemplo, a interface de usuário que exibe o mapa 4404-2 dos Estados Unidos na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 é exibida em uma orientação de paisagem na Figura 44J).
[000900] Em algumas modalidades, o primeiro dispositivo eletrônico determina (4518) uma direção para estender uma interface de usuário exibida no visor do primeiro dispositivo com o visor auxiliar de acordo com pelo menos uma dentre uma identidade da primeira impressão digital e uma identidade da segunda impressão digital. Por exemplo, quando uma impressão digital de uma mão direita de um usuário é detectada no sensor de impressão digital do primeiro dispositivo (por exemplo, a impressão digital 4439 no primeiro dispositivo de múltiplas funções 100-1 corresponde ao dedo indicador direito do usuário na Figura 44M) e/ou uma impressão digital de uma mão esquerda do usuário é detectada no sensor de impressão digital do segundo dispositivo (por exemplo, a impressão digital 4441 no segundo dispositivo de múltiplas funções 100-3 corresponde ao dedo indicador esquerdo do usuário na Figura 44M), a interface de usuário do primeiro dispositivo é estendida para a esquerda no visor do segundo dispositivo (por exemplo, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 na Figura 44M é estendida no dispositivo de múltiplas funções 100-3 na Figura 44N de forma que a costa oeste dos Estados Unidos é exibida como um mapa 4404-3 na tela sensível ao toque 112-3 do segundo dispositivo de múltiplas funções 100-3 e os Estados Unidos central é exibido como um mapa 4404-1 na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1). De forma similar, quando uma impressão digital da mão esquerda do usuário é detectada no sensor de impressão digital do primeiro dispositivo (por exemplo, a impressão digital 4435 no primeiro dispositivo de múltiplas funções 100-1 corresponde ao dedo indicador esquerdo do usuário na Figura 44K) e/ou a impressão digital da mão direita do usuário é detectada no sensor de impressão digital do segundo dispositivo (por exemplo, a impressão digital 4437 no segundo dispositivo de múltiplas funções 100-2 corresponde ao dedo indicador direito do usuário na Figura 44K), a interface de usuário do primeiro dispositivo é estendida para a direita no visor do segundo dispositivo (por exemplo, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 na Figura 44K é estendida no dispositivo de múltiplas funções 100-2 na Figura 44L de forma que o litoral oriental dos Estados Unidos é exibido como o mapa 4404-2 na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 e os Estados Unidos central é exibido como o mapa 4401-1 na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1). Dessa forma, em algumas modalidades, assume-se que o dispositivo que detecta impressões digitais da mão esquerda do usuário está à esquerda do dispositivo que detecta impressões digitais da mão direita do usuário, de forma que objetos da interface de usuário que supostamente estão no lado esquerdo da interface de usuário são exibidos no dispositivo que detectou impressões digitais da mão esquerda do usuário enquanto objetos da interface de usuário que supostamente estão no lado direito da interface de usuário são exibidos no dispositivo que detectou impressões digitais da mão direita do usuário.
[000901] Em algumas modalidades, a ordem nas mãos do usuário do dedo que corresponde à segunda impressão digital em relação ao dedo que corresponde à primeira impressão digital determina a direção na qual a interface de usuário é expandida com o visor auxiliar. Por exemplo, quando uma segunda impressão digital (por exemplo, a impressão digital 4444 detectada no segundo dispositivo de múltiplas funções 100-2 na Figura 44O) que corresponde a um segundo dedo (por exemplo, o dedo indicador direito (RI) do usuário) localizado à esquerda do de um primeiro dedo (por exemplo, o dedo anular direito (RR) do usuário) que corresponde a uma primeira impressão digital (por exemplo, a impressão digital 4443 detectada no primeiro dispositivo de múltiplas funções 100-1 na Figura 44O), a interface de usuário do primeiro dispositivo é estendida para a esquerda no visor do segundo dispositivo (por exemplo, a primeira interface de usuário exibida na tela sensível ao toque 112-1 do dispositivo de múltiplas funções 100-1 na Figura 44O é estendida no dispositivo de múltiplas funções 100-2 na Figura 44P de forma que a costa oeste dos Estados Unidos seja exibida como o mapa 4404-2 na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 e os Estados Unidos central seja exibido como o mapa 4404-1 na tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1).
[000902] Em algumas modalidades, onde a primeira impressão digital e a segunda impressão digital são detectadas (4420) enquanto um primeiro aplicativo é um aplicativo ativo no primeiro dispositivo (por exemplo, onde um aplicativo de exibição de foto está ativo conforme mostrado nas Figuras 44Q, 44W e 44CC; onde um aplicativo de processamento de textos está ativo conforme mostrado na Figura 44U; e onde um aplicativo de piano está ativo conforme mostrado na Figura 44Z no primeiro dispositivo de múltiplas funções 100-1) e após enviar uma resposta para o segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico: o primeiro dispositivo configura (4522) o segundo dispositivo eletrônico como um visor auxiliar para o primeiro dispositivo (por exemplo, o segundo dispositivo de múltiplas funções 100-2 é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1 nas Figuras 44R, 44V, 44X, 44AA e 44DD).
[000903] Enquanto o segundo dispositivo eletrônico é configurado como um visor auxiliar para o primeiro dispositivo, o primeiro dispositivo envia (4524) instruções para o segundo dispositivo que habilitam o segundo dispositivo a exibir um conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo (por exemplo, barras de menu 4414 e 4447 e um menu suspenso 4416 na Figura 44R; um texto 4418 na Figura 44V; um mapa 4404-2 dos Estados Unidos na Figura 44X; um teclado de piano 4428-2 na Figura 44AA; e ícones que representam os álbuns de fotos "Deserto" 4432-5 e "Casamento" 4432-6 na Figura 44DD).
[000904] Em algumas modalidades, o conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo incluem (4526) um ou mais controles para realizar operações no primeiro aplicativo (por exemplo, os um ou mais elementos de interface de usuário incluem: um menu, um elemento de controle ou outro objeto de interface de usuário associado ao primeiro aplicativo). Por exemplo, o uso do visor do segundo dispositivo como um visor auxiliar inclui colocar um ou mais dos controles pela interface de usuário exibida no visor do primeiro dispositivo no visor do segundo dispositivo (por exemplo, as barras de menu 4414 e 4447 e o menu suspenso 4416 na Figura 44R). Dessa forma, menus adicionais, paletas ou outros controles podem ser exibidos no visor auxiliar para reduzir ou eliminar poluição do visor primário (por exemplo, a interface de usuário do primeiro aplicativo que é exibida no visor do primeiro dispositivo).
[000905] Em algumas modalidades, o conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo in- cluem (4528) uma porção de uma área de trabalho que é uma continuação de uma área de trabalho exibida no visor do primeiro dispositivo (por exemplo, os um ou mais elementos de interface de usuário incluem: um corpo do documento, canvas de aplicativo ou outra área de trabalho virtual que é propagada sobre a exibição do primeiro e do segundo dispositivo). Por exemplo, usar o visor do segundo dispositivo como um visor auxiliar inclui propagar uma área de trabalho para o primeiro aplicativo sobre o visor do primeiro dispositivo e o visor do segundo dispositivo (por exemplo, a área de trabalho 4417-1 é expandida da tela sensível ao toque 112-1 do primeiro dispositivo de múltiplas funções 100-1 na Figura 44U na tela sensível ao toque 112-2 do segundo dispositivo de múltiplas funções 100-2 como a área de trabalho 4417-2 da área de trabalho contínua 4417 na Figura 44V).
[000906] Em algumas modalidades, enquanto o segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo, o primeiro dispositivo recebe (4530) dados de entrada indicativos entradas detectadas pelo segundo dispositivo onde as entradas correspondem a interações com um ou mais dentre os elementos de interface de usuário associados ao primeiro aplicativo que são exibidos no visor do segundo dispositivo; e o primeiro dispositivo realiza (4532) operações associadas ao primeiro aplicativo de acordo com os dados de entrada. Por exemplo, o primeiro dispositivo envia informações de exibição para o segundo dispositivo e recebe dados de entrada (por exemplo, coordenadas de pontos de toque como um contato 4424 na Figura 44X e/ou um gesto que inclui um movimento 4426 do contato 4424 da posição 4424-a na Figura 44X até a posição 4424-b na Figura 44Y) indicativo da interação do usuário com a interface de usuário exibida no visor do segundo dispositivo; e, em resposta, o primeiro dispositivo realiza uma operação associada a um programa ativo de acordo com o primeiro aplicativo (por exemplo, o primeiro dispositivo de múlti- plas funções 100-1 move o seletor de foco 4422 da posição 4422-a na Figura 44X até a posição 4422-b na Figura 44Y de acordo com os dados de gesto fornecidos pelo segundo dispositivo de múltiplas funções 100-2). Dessa forma, em algumas modalidades, o segundo dispositivo atua como um touchpad auxiliar ou como uma tela sensível ao toque para o primeiro dispositivo.
[000907] Em algumas modalidades, enquanto segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo, o primeiro dispositivo recebe (4534) os dados de operação do segundo dispositivo eletrônico que especifica uma ou mais operações que correspondem às interações com um ou mais dos elementos de interface de usuário associados ao primeiro aplicativo que são exibidos no visor do segundo dispositivo; e realiza (4536) a uma ou mais operações. Dessa forma, em algumas modalidades, algum processamento de aplicativo é feito em cada um dos dispositivos (por exemplo, o primeiro dispositivo e o segundo dispositivo têm, cada um, cópias do mesmo aplicativo), os dois aplicativos produzem, cada um, respostas aos gestos adequados à porção da interface de usuário que é exibida e os dois aplicativos compartilham informações. Por exemplo, para um teclado musical (por exemplo, teclado de piano 4428 na Figura 44BB) que é disperso no visor do primeiro dispositivo e o visor do segundo dispositivo (por exemplo, como os teclados 4428-1 e 4428-2 exibidos nos dispositivos de múltiplas funções 100-1 e 100-2, respectivamente, nas Figuras 44AA a 44BB), em vez de enviar os pontos de toque para o primeiro dispositivo eletrônico (por exemplo, as coordenadas do contato 4430 na Figura 44BB), o segundo dispositivo (por exemplo, o dispositivo de múltiplas funções 100-2 na Figura 44BB) exibe metade das teclas do teclado musical (por exemplo, que inclui a tecla "E" 4457 na Figura 44BB) e envia as informações para o primeiro dispositivo que indica uma nota a reproduzir que corresponde a uma tecla que foi ati- vada pelo usuário (por exemplo, o segundo dispositivo de múltiplas funções 100-2 determina que o contato 4430 deva ativar a tecla "E" 4457 e enviar as informações para o primeiro dispositivo de múltiplas funções 100-1 para reproduzir um som que tem altura "E"). Como outro exemplo, para um teclado de texto separado, em vez de enviar os pontos de toque para o primeiro dispositivo eletrônico, o segundo dispositivo eletrônico envia as letras que correspondem às teclas que foram ativadas pelo usuário. Realizando-se parte do processamento no segundo dispositivo, a carga de processamento no primeiro dispositivo é diminuída, aprimorando, desse modo, o desempenho do aplicativo.
[000908] Em algumas modalidades, enquanto o segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo, o primeiro dispositivo detecta (4538) um primeiro gesto em uma superfície sensível ao toque do primeiro dispositivo (por exemplo, o primeiro gesto corresponde a uma primeira localização em um visor sensível ao toque do primeiro dispositivo) e recebe (4540) uma comunicação do segundo dispositivo indicativa de um segundo gesto detectado em uma superfície sensível ao toque do segundo dispositivo (por exemplo, o segundo gesto corresponde a uma segunda localização em um visor sensível ao toque do segundo dispositivo). Em resposta à detecção do primeiro gesto e recepção do indicativo de comunicação do segundo gesto, o primeiro dispositivo move (4542) um objetivo de interface de usuário (por exemplo, um arquivo, um ícone, um menu ou um controle) associado ao primeiro aplicativo entre o visor do primeiro dispositivo (por exemplo, uma primeira localização no visor do primeiro dispositivo) e o visor do segundo dispositivo (por exemplo, uma se-gunda localização no visor do segundo dispositivo). Por exemplo, o primeiro dispositivo detecta um gesto de pinçamento na superfície sensível ao toque do primeiro dispositivo em uma primeira localização que corresponde a um primeiro objeto de interface de usuário e o se gundo dispositivo detecta um gesto de despinçamento na superfície sensível ao toque do segundo dispositivo em uma segunda localização e em resposta à detecção dos gestos de pinçamento e de despinça- mento, o primeiro objeto de interface de usuário é movido da primeira localização para a segunda localização (por exemplo, o primeiro dispositivo interrompe a exibição do primeiro objeto de interface de usuário e o segundo dispositivo inicia a exibição do primeiro objeto de interface de usuário). Como outro exemplo, o primeiro dispositivo (por exemplo, o primeiro dispositivo de múltiplas funções 100-1 na Figura 44DD) detecta uma primeira porção de um gesto de arrasto na primeira superfície sensível ao toque (por exemplo, um gesto de arrasto que inclui o movimento 4438 de contato 4436 da posição 4436-a na Figura 44DD para a posição 4436-b na tela de toque 112-1 na Figura 44EE) que inicia em uma primeira localização (por exemplo, posição 4436-a na Figura 44DD) que corresponde a um primeiro objeto de interface de usuário (por exemplo, o ícone 4432-4 que representa o álbum de fotos "Inverno" na Figura 44DD) e o segundo dispositivo (por exemplo, o dispositivo de múltiplas funções 100-2) detecta uma segunda porção do gesto de arrasto na segunda superfície sensível ao toque (por exemplo, um gesto de arrasto que inclui o movimento 4442 de contato 4440 da posição 4440-a para posição 4440-b na tela de toque 112-2 na Figura 44EE) que termina (por exemplo, com elevação do contato) em uma segunda localização (por exemplo, a posição 4440-b na Figura 44EE), e em resposta à primeira e à segunda porções do gesto de arrasto, o primeiro objeto de interface de usuário é movido da primeira localização para a segunda localização (por exemplo, o primeiro dispositivo interrompe a exibição do ícone 4432-4 que representa o álbum de fotos "Inverno" e o segundo dispositivo inicia a exibição do ícone 4432-4 que representa o álbum de fotos "Inverno", conforme ilustrado na Figura 44EE).
[000909] De acordo com uma determinação de que os critérios de exibição auxiliares não foram satisfeitos, o primeiro dispositivo renuncia (4544) o envio da resposta para o segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como o visor auxiliar para o primeiro dispositivo eletrônico. Por exemplo, na Figura 44D, os critérios de exibição auxiliar não foram satisfeitos devido ao fato de que a primeira impressão digital 4405 e a segunda impressão digital 4407 não estão registradas para o mesmo usuário (por exemplo, a impressão digital 4405 corresponde ao usuário "1" e a impressão digital 4407 corresponde ao usuário "2") e, dessa forma, o segundo dispositivo de múltiplas funções 100-2 não é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 1001. De modo similar, na Figura 44F, os critérios de exibição auxiliar não são satisfeitos devido ao fato de que a segunda impressão digital 4415 não foi detectada dentro do tempo predeterminado 4408 após a detecção da primeira impressão digital 4413 (por exemplo, a impressão digital 4415 foi detectada mais de 5 segundos após a impressão digital 4413 ser detectada) e, dessa forma, o segundo dispositivo de múltiplas funções 100-2 não é configurado como um visor auxiliar para o primeiro dispositivo de múltiplas funções 100-1.
[000910] Deve-se compreender que a ordem específica na qual as operações nas Figuras 45A a 45D foram descritas é meramente exemplificativa e não é destinada a indicar que a ordem descrita é a única ordem na qual as operações podem ser realizadas. Um indivíduo de habilidade comum na técnica reconhecerá várias maneiras para reordenar as operações descritas no presente documento. Adicionalmente, deve-se observar que os detalhes de outros processos aqui descritos com relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 4500 descrito aci- ma com relação às Figuras 45A a 45D. Por exemplo, as impressões digitais, os contatos, os gestos, os objetos de interface de usuário e os seletores de foco descritos acima com referência ao método 4500 têm opcionalmente uma ou mais das características das impressões digitais, dos contatos, dos gestos, dos objetos de interface de usuário e dos seletores de foco descritos no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questão de brevidade, aqueles detalhes não são repetidos aqui.
[000911] De acordo com algumas modalidades, a Figura 46 mostra um diagrama de blocos funcional de um dispositivo eletrônico 4600 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são implantados, opcionalmente, através de hardware, software, ou uma combinação de hardware e de software para executar todos os princípios das várias modalidades descritas. É entendido, por indivíduos versados na técnica, que os blocos funcionais descritos na Figura 46 são combinados ou separados, opcionalmente, em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento apoia opcionalmente qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000912] Conforme mostrado na Figura 46, um dispositivo eletrônico 4600 inclui uma unidade de exibição 4602 configurada para exibir uma interface gráfica de usuário, opcionalmente, uma unidade de superfície sensível ao toque 4604, uma unidade de sensor de impressão digital 4606; e uma unidade de processamento 4608 acoplada à unidade de exibição 4602, à unidade de superfície sensível ao toque 4604 e à unidade de sensor de impressão digital 4606. Em algumas modalidades, a unidade de processamento 4608 inclui uma unidade de detecção 4610, uma unidade de recepção 4612, uma unidade de determinação 4614, uma unidade de envio 4616, uma unidade de habilitação de exibição 4618 para habilitar a exibição das informações na unidade de exibição 4602, uma unidade de configuração 4620, uma unidade de realização 4622 e uma unidade de movimento 4624.
[000913] A unidade de processamento 4608 é configurada para detectar uma primeira impressão digital na unidade de sensor de impressão digital do primeiro dispositivo eletrônico 4600 em um primeiro instante (por exemplo, com a unidade de detecção 4610), em que a primeira impressão digital é registrada a um usuário respectivo. A unidade de processamento 4608 também é configurada para receber uma comunicação de um segundo dispositivo eletrônico (por exemplo, com a unidade de recepção 4612), distinta do primeiro dispositivo eletrônico 4600, que inclui as informações que indicam que uma segunda impressão digital foi detectada em uma unidade de sensor de impressão digital do segundo dispositivo em um segundo instante. Em resposta à detecção da primeira impressão digital e recepção da comunicação do segundo dispositivo eletrônico, a unidade de processamento 4608 é configurada para determinar se os critérios de exibição auxiliar prede- finidos foram satisfeitos (por exemplo, com a unidade de determinação 4614), em que os critérios de exibição auxiliar incluem um critério que é satisfeito quando a segunda impressão digital é registrada ao usuário respectivo. De acordo com uma determinação que os critérios de exibição auxiliar são satisfeitos, a unidade de processamento 4608 é configurada para enviar uma resposta ao segundo dispositivo eletrônico (por exemplo, com a unidade de envio 4616) que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico 4600. De acordo com uma determinação que os critérios de exibição auxiliar não são satisfeitos, a unidade de processamento 4608 é configurada para renunciar o envio da resposta para o segundo dispositivo eletrônico (por exemplo, com a unidade de envio 4616) que habilita o segundo dispositivo eletrônico a ser configurado como o visor auxiliar para o primeiro dispositivo eletrônico 4600.
[000914] Em algumas modalidades, os critérios de exibição auxiliar incluem um critério que é satisfeito quando o primeiro instante está dentro de um tempo predeterminado do segundo instante.
[000915] Em algumas modalidades, os critérios de exibição auxiliar incluem um critério que é satisfeito quando o primeiro dispositivo recebe uma confirmação de que a configuração do segundo dispositivo como um visor auxiliar foi solicitado (por exemplo, com a unidade de recepção 4612).
[000916] Em algumas modalidades, uma orientação de uma interface de usuário exibida na unidade de exibição 4602 do primeiro dispositivo 4600 é determinada de acordo com a orientação da primeira impressão digital em relação a um eixo predefinido da unidade de exibição 4602 do primeiro dispositivo 4600 (por exemplo, com a unidade de determinação 4614) e uma orientação de uma interface de usuário exibida na unidade de exibição do segundo dispositivo é determinada de acordo com a orientação da segunda impressão digital em relação a um eixo predeterminado da unidade de exibição do segundo dispositivo (por exemplo, com a unidade de determinação).
[000917] Em algumas modalidades, a unidade de processamento 4608 é configurada adicionalmente para determinar uma direção para estender a interface de usuário do primeiro dispositivo 4600 com o visor auxiliar de acordo com pelo menos uma dentre uma identidade da primeira impressão digital e uma identidade da segunda impressão digital (por exemplo, com a unidade de determinação 4614).
[000918] Em algumas modalidades, a primeira impressão digital e a segunda impressão digital são detectadas enquanto um primeiro aplicativo é um aplicativo ativo no primeiro dispositivo 4600; e após enviar uma resposta ao segundo dispositivo eletrônico que habilita o segundo dispositivo eletrônico a ser configurado como um visor auxiliar para o primeiro dispositivo eletrônico 4600 (por exemplo, com a unidade de envio 4616), a unidade de processamento 4608 é configurada adicionalmente para configurar o segundo dispositivo eletrônico como um visor auxiliar para o primeiro dispositivo 4600 (por exemplo, com a unidade de configuração 4620) e enquanto o segundo dispositivo eletrônico é configurado como um visor auxiliar para o primeiro dispositivo 4600, a unidade de processamento 4608 é configurada adicionalmente para enviar as instruções para o segundo dispositivo (por exemplo, com a unidade de envio 4616) que habilita o segundo dispositivo a exibir um conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo.
[000919] Em algumas modalidades, em que o conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo inclui um ou mais controles para realizar as operações no primeiro aplicativo.
[000920] Em algumas modalidades, em que o conjunto de um ou mais elementos de interface de usuário associados ao primeiro aplicativo inclui uma porção de uma área de trabalho que é uma continuação de uma área de trabalho exibida na unidade de exibição 4602 do primeiro dispositivo 4600.
[000921] Em algumas modalidades, enquanto o segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo 4600, a unidade de processamento 4608 é configurada adicionalmente para receber os dados de entrada indicativos das entradas detectadas pelo segundo dispositivo (por exemplo, com a unidade de recepção 4612), em que as entradas correspondem às interações com um ou mais dos elementos de interface de usuário associados ao primeiro aplicativo que são exibidos na unidade de exibição 4602 do se gundo dispositivo e a unidade de processamento 4608 é configurada adicionalmente para realizar as operações associadas ao primeiro aplicativo de acordo com os dados de entrada (por exemplo, com a unidade de realização 4622).
[000922] Em algumas modalidades, enquanto o segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo 4600, a unidade de processamento 4608 é configurada adicionalmente para receber os dados de operação do segundo dispositivo eletrônico que especifica uma ou mais operações que correspondem às interações com um ou mais dos elementos de interface de usuário associados ao primeiro aplicativo que são exibidos na unidade de exibição do segundo dispositivo (por exemplo, com a unidade de recepção 4612) e a unidade de processamento 4608 é configurada adicional-mente para realizar uma ou mais operações (por exemplo, com a unidade de realização 4622).
[000923] Em algumas modalidades, enquanto o segundo dispositivo eletrônico é configurado como o visor auxiliar para o primeiro dispositivo 4600, a unidade de processamento 4608 é configurada adicionalmente para detectar um primeiro gesto em uma unidade de superfície sensível ao toque 4604 do primeiro dispositivo 4600 (por exemplo, com a unidade de detecção 4610). A unidade de processamento 4608 é configurada adicionalmente para receber uma comunicação do segundo dispositivo indicativa de um segundo gesto detectado em uma unidade de superfície sensível ao toque do segundo dispositivo (por exemplo, com a unidade de recepção 4612) e em resposta para detectar o primeiro gesto e receber a comunicação indicativa do segundo gesto, a unidade de processamento 4608 é configurada adicionalmente para mover um objeto de interface de usuário associado ao primeiro aplicativo entre a unidade de exibição 4602 do primeiro dispositivo 4600 e a unidade de exibição do segundo dispositivo (por exemplo, com a unidade de movimento 4624).
[000924] As operações nos métodos de processamento de informações descritos acima são implantadas, opcionalmente, rodando-se um ou mais módulos funcionais no aparelho de processamento de informações como processadores de uso geral (por exemplo, conforme descrito acima com relação às Figuras 1A e 3) ou chips de aplicação específica.
[000925] As operações descritas com referência às Figuras 45A a 45D são implantadas, opcionalmente, através dos componentes retratados nas Figuras 1A a 1B ou na Figura 46. Por exemplo, as operações de detecção 4502 e 4538, as operações de recepção 4504, 4530, 4534 e 4540, as operações de determinação 4508, 4516 e 4518, as operações de envio 4514 e 4524, a operação de renúncia 4544, a operação de configuração 4522, as operações de realização 4532 e 4536 e a operação de movimento 4542 são implantadas, opcionalmente, através de classificador de eventos 170, o reconhecedor de eventos 180 e um manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112 e o módulo despachante de eventos 174 entrega as informações de eventos para o aplicativo 136-1. Um reconhecedor de eventos respectivo 180 do aplicativo 136-1 compara as informações de eventos às definições de eventos respectivas 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou subevento predefinido, como a seleção de um objeto em uma interface de usuário. Quando um evento ou subevento predefinido respectivo é detectado, o reconhecedor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou subevento. O manipulador de eventos 190 utiliza ou chama, opcionalmente, o atualizador de dados 176 ou o atualizador de objetos 177 para a atualização do estado interno do aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um atua- lizador de GUI respectivo 178 para atualizar o que é exibido através do aplicativo. De modo similar, pode ser claro para uma pessoa de habilidade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B.
ALTERAÇÃO DE PARÂMETROS DE FORMAÇÃO DE FEIXE COM BASE NA ORIENTAÇÃO DE IMPRESSÃO DIGITAL
[000926] Muitos dispositivos eletrônicos habilitam a configuração de elementos de áudio com base nos dados de sensor de proximidade. Por exemplo, com base nas informações de um sensor de proximidade, um dispositivo de telefone móvel pode comutar entre um modo receptor e um modo viva-voz. O dispositivo descrito a seguir aprimora os métodos existentes utilizando-se uma alteração detectada na orientação de uma impressão digital para selecionar um conjunto de parâmetros de formação de feixe de uma pluralidade de parâmetros de formação de feixe de modo a operar de modo mais eficiente um conjunto de um ou mais elementos de áudio.
[000927] Enquanto uma primeira impressão digital é detectada em uma primeira orientação em um sensor de impressão digital, o dispositivo opera um conjunto de um ou mais elementos de áudio de acordo com um primeiro conjunto de parâmetros de formação de feixe. Então, o dispositivo detecta uma impressão digital subsequente que tem uma segunda orientação diferente da primeira orientação no sensor de impressão digital. A impressão digital subsequente é selecionada dentre um conjunto que consiste na primeira impressão digital com uma orientação alterada e em uma segunda impressão digital distinta da primeira impressão digital. Finalmente, em resposta à detecção da impressão digital subsequente que tem a segunda orientação no sensor de impressão digital, o dispositivo opera o conjunto de um ou mais elementos de áudio de acordo com um segundo conjunto de parâme- tros de formação de feixe diferente do primeiro conjunto de parâmetros de formação de feixe.
[000928] Em algumas modalidades, o dispositivo é um dispositivo eletrônico com um visor separado (por exemplo, o visor 450) e uma superfície sensível ao toque separada (por exemplo, a superfície sensível ao toque 451). Em algumas modalidades, o dispositivo é o dispositivo portátil de múltiplas funções 100, o visor é a tela de toque 112 e a superfície sensível ao toque inclui geradores de saída táteis 167 no visor (Figura 1A). O dispositivo descrito a seguir com referência às Figuras 47A a 47L e 48A a 48B inclui um ou mais sensores de impressão digital 169. Em algumas modalidades, o um ou mais sensores de impressão digital incluem um ou mais sensores de impressão digital integrados 359-1 (Figura 4B) que são integrados na superfície sensível ao toque (por exemplo, a superfície sensível ao toque 451 separada ou o sistema de visor sensível ao toque 112). Em algumas modalidades, o um ou mais sensores de impressão digital incluem os sensores de impressão digital separados 359-2 (Figura 4B) que são separados da superfície sensível ao toque (por exemplo, a superfície sensível ao toque separada 451 ou o sistema de visor sensível ao toque 112). A menos que especificado de outro modo, um sensor de impressão digital 169 descrito a seguir é, opcionalmente, um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2, dependendo da configuração do hardware e software do dispositivo que incluem o sensor de impressão digital 169. Por questão de conveniência de explicação, as modalidades descritas com referência às Figuras 47A a 47L e 48A a 48B serão discutidas com referência à tela de toque 112 e ao sensor de impressão digital 169 (por exemplo, um sensor de impressão digital integrado 359-1 ou um sensor de im-pressão digital separado 359-2); em tais modalidades, o seletor de foco é, opcionalmente: um contato respectivo, um ponto representativo que corresponde a um contato (por exemplo, um centroide de um contato respectivo ou um ponto associado a um contato respectivo) ou um centroide de dois ou mais contatos detectados na tela de toque 112, no lugar de um cursor. As operações análogas são, opcionalmente, realizadas em um dispositivo com visor 450, uma superfície sensível ao toque separada 451 e um sensor de impressão digital integrado 359-1 ou um sensor de impressão digital separado 359-2 em resposta à detecção das entradas descritas nas Figuras 47A a 47L no sensor de impressão digital integrado 359-1 ou em um sensor de impressão digital separado 359-2, enquanto exibe a interface de usuários mostrada nas Figuras 47A a 47L no visor 450.
[000929] As Figuras 47A a 47C ilustram um dispositivo portátil de múltiplas funções 100 que opera em um modo de geração de áudio. Enquanto no modo de geração de áudio, o dispositivo portátil de múltiplas funções 100 gera o áudio através do alto-falante 111. Um reprodutor de mídia (por exemplo, o aplicativo iTunes da Apple, Inc.) é exibido na interface de usuário 4701 da tela de toque 112 nas Figuras 47A a 47C. O reprodutor de mídia ilustrado nas Figuras 47A a 47C está reproduzindo, por exemplo, um arquivo de áudio ou transmissão contínua de áudio. As Figuras 47A a 47C ilustram adicionalmente o eixo geométrico de impressão digital 4704 que indica o ângulo de uma impressão digital respectiva e o eixo geométrico de sensor de impressão digital 4706 que indica o ângulo de sensor de impressão digital 169. As Figuras 47A a 47C são similares em todos os aspectos exceto a orientação da impressão digital respectiva; dessa forma, apenas as diferenças entre as Figuras 47A a 47C serão discutidas por questão de brevidade.
[000930] A Figura 47A ilustra uma primeira impressão digital 4702 em uma primeira orientação sobre o sensor de impressão digital 169, que é integrado ao botão de início 204 do dispositivo 100 (por exem- plo, o sensor de impressão digital integrado 359-1). A impressão digital 4702 é, por exemplo, um polegar direito do usuário. A Figura 47A ilustra o ângulo de impressão digital 4702 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 90 graus. Dessa forma, na Figura 47A, o ângulo de primeira impressão digital 4702 em relação ao eixo geométrico do sensor de impressão digital 169 é de 0 grau.
[000931] A Figura 47B ilustra a primeira impressão digital 4702 em uma segunda orientação sobre o sensor de impressão digital 169. A Figura 47B ilustra o ângulo de impressão digital 4702 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 135 graus. Dessa forma, na Figura 47B, o ângulo de primeira impressão digital 4702 em relação ao eixo geométrico do sensor de impressão digital 169 é de 45 graus.
[000932] A Figura 47C ilustra a primeira impressão digital 4702 em uma terceira orientação sobre o sensor de impressão digital 169. A Figura 47C ilustra o ângulo de impressão digital 4702 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 180 graus. Dessa forma, na Figura 47C, o ângulo de primeira impressão digital 4702 em relação ao eixo geométrico do sensor de impressão digital 169 é de 90 graus.
[000933] As Figuras 47D a 47F ilustram um dispositivo portátil de múltiplas funções 100 que opera em um modo de captura de áudio. Enquanto em modo de captura de áudio, o dispositivo portátil de múltiplas funções 100 captura o áudio através do microfone 113. As Figuras 47D a 47F ilustram, por exemplo, o aplicativo de Gravador (Voice Memos) da Apple, Inc. que grava (ou captura) sinais de áudio para re- produção ou transmissão subsequente. As Figuras 47D a 47F são similares em todos os aspectos exceto a orientação da impressão digital respectiva; dessa forma, apenas as diferenças entre as Figuras 47D a 47F serão discutidas por questão de brevidade.
[000934] A Figura 47D ilustra uma primeira impressão digital 4708 em uma primeira orientação sobre sensor de impressão digital 169, que é integrado ao botão de início 204 do dispositivo 100 (por exemplo, o sensor de impressão digital integrado 359-1). A impressão digital 4708 é, por exemplo, um polegar esquerdo do usuário. A Figura 47D ilustra o ângulo de impressão digital 4708 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4708 em 90 graus. Dessa forma, na Figura 47D, o ângulo de primeira impressão digital 4708 em relação ao eixo geométrico do sensor de impressão digital 169 é de 0 grau.
[000935] A Figura 47E ilustra a primeira impressão digital 4708 em uma segunda orientação sobre o sensor de impressão digital 169. A Figura 47E ilustra o ângulo de impressão digital 4708 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 45 graus. Dessa forma, na Figura 47E, o ângulo de primeira impressão digital 4708 em relação ao eixo geométrico do sensor de impressão digital 169 é de 45 graus.
[000936] A Figura 47F ilustra a primeira impressão digital 4708 em uma terceira orientação sobre o sensor de impressão digital 169. A Figura 47F ilustra o ângulo de impressão digital 4708 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 0 grau. Dessa forma, na Figura 47F, o ângulo de primeira impressão digital 4708 em relação ao eixo geométrico do sensor de impressão digital 169 é de 90 graus.
[000937] As Figuras 47G a 47I ilustram um dispositivo portátil de múltiplas funções 100 que opera em um modo de telefone alto-falante. Uma pluralidade de botões é exibida na interface de usuário 4701 da tela de toque 112 que inclui um botão de mudo, um botão de exibição de teclado numérico, um botão de ativação de alto-falante 4712, um botão de adicionar chamada, um botão de ativação de FaceTime, um botão exibição de contatos e um botão de término de chamada. Nas Figuras 47G a 47I, o botão de alto-falante 4712 que corresponde ao modo de telefone alto-falante é ativado. Enquanto no modo de telefone alto-falante, o dispositivo portátil de múltiplas funções 100 captura o áudio através do microfone 113 e gera o áudio através do alto-falante 111. As Figuras 47G a 47I são similares em todos os aspectos exceto a orientação da impressão digital respectiva; dessa forma, apenas as diferenças entre as Figuras 47G a 47I serão discutidas por questão de brevidade.
[000938] A Figura 47G ilustra uma primeira impressão digital 4710 em uma primeira orientação sobre o sensor de impressão digital 169, que é integrado no botão de início 204 do dispositivo 100. A impressão digital 4710 é, por exemplo, um polegar direito do usuário. A Figura 47G ilustra o ângulo de impressão digital 4710 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 90 graus. Dessa forma, na Figura 47G, o ângulo de primeira impressão digital 4710 em relação ao eixo geométrico do sensor de impressão digital 169 é de 0 grau.
[000939] A Figura 47H ilustra a primeira impressão digital 4710 em uma segunda orientação sobre o sensor de impressão digital 169. A Figura 47H ilustra o ângulo de impressão digital 4710 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sen sor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 135 graus. Dessa forma, na Figura 47H, o ângulo de primeira impressão digital 4710 em relação ao eixo geométrico do sensor de impressão digital 169 é de 45 graus.
[000940] A Figura 471 ilustra a primeira impressão digital 4710 em uma terceira orientação sobre o sensor de impressão digital 169. A Figura 471 ilustra o ângulo de impressão digital 4710 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4710 em 180 graus. Dessa forma, na Figura 471, o ângulo de primeira impressão digital 4710 em relação ao eixo geométrico do sensor de impressão digital 169 é de 90 graus.
[000941] As Figuras 47J a 47L ilustram um dispositivo portátil de múltiplas funções 100 que operam em um modo de videoconferência ou de conversa com vídeo (por exemplo, aplicativo FaceTime da Apple, Inc.). As Figuras 47J a 47L ilustram a exibição de um participante de conversa com vídeo na tela de toque 112. Ademais, uma câmera voltada para frente (não mostrada) habilita a captura de vídeo em relação ao lado do dispositivo 100 associado à tela de toque 112 é configurada para capturar o vídeo de um usuário de modo a transmitir o vídeo para o participante de conversa. Enquanto em modo de conversa com vídeo, o dispositivo portátil de múltiplas funções 100 captura o áudio através do microfone 113, captura o vídeo através da câmera voltada para frente (não mostrada) e gera o áudio através do alto- falante 111. As Figuras 47J a 47L são similares em todos os aspectos exceto a orientação da(s) impressão(ões) digital(ais) respectiva(s); dessa forma, apenas as diferenças entre as Figuras 47J a 47L serão discutidas por questão de brevidade.
[000942] A Figura 47J ilustra uma primeira impressão digital 4714 em uma primeira orientação sobre o sensor de impressão digital 169, que é integrado no botão de início 204 do dispositivo 100. A impressão digital 4714 é, por exemplo, um polegar direito do usuário. A Figura 47J ilustra o ângulo de impressão digital 4714 através do eixo geométrico de impressão digital 4704 em 90 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 90 graus. Dessa forma, na Figura 47J, o ângulo de primeira impressão digital 4714 em relação ao eixo geométrico do sensor de impressão digital 169 é de 0 grau.
[000943] A Figura 47K ilustra a segunda impressão digital 4716 em uma segunda orientação sobre o sensor de impressão digital 169. A impressão digital 4716 é, por exemplo, um dedo indicador direito do usuário. A Figura 47K ilustra o ângulo de impressão digital 4716 através do eixo geométrico de impressão digital 4704 em 135 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4706 em 90 graus. Dessa forma, na Figura 47K, o ângulo de segunda impressão digital 4716 em relação ao eixo geométrico do sensor de impressão digital 169 é de 45 graus.
[000944] A Figura 47L ilustra a segunda impressão digital 4716 em uma terceira orientação sobre o sensor de impressão digital 169. A Figura 47L ilustra o ângulo de impressão digital 4716 através do eixo geométrico de impressão digital 4704 em 180 graus e o ângulo de sensor de impressão digital 169 através do eixo geométrico de sensor de impressão digital 4710 em 90 graus. Dessa forma, na Figura 47L, o ângulo da segunda impressão digital 4716 em relação ao eixo geométrico do sensor de impressão digital 169 é de 90 graus.
[000945] As Figuras 48A a 48B são fluxogramas que ilustram um método 4800 de alteração dos parâmetros de formação de feixe com base na orientação de impressão digital de acordo com algumas modalidades. O método 4800 é realizado em um dispositivo eletrônico (por exemplo, o dispositivo 300, Figura 3, ou o dispositivo portátil de múltiplas funções 100, Figura 1A) com um visor e uma superfície sensível ao toque. Em algumas modalidades, o visor é um visor de tela de toque e a superfície sensível ao toque está no visor. Em algumas modalidades, o visor é separado da superfície sensível ao toque. Algumas operações no método 4800 são combinadas, opcionalmente, e/ou a ordem de partes operações é alterada, opcionalmente.
[000946] Conforme descrito abaixo, o método 4800 fornece uma maneira intuitiva de alterar os parâmetros de formação de feixe com base na orientação de impressão digital. O método reduz a carga cognitiva em um usuário quando se altera os parâmetros de formação de feixe, criando, desse modo, uma interface humano-máquina mais eficaz. Para os dispositivos eletrônicos operados por bateria, habilitar um usuário a alterar os parâmetros de formação de feixe com base na orientação de impressão digital de modo mais rápido e mais eficiente conserva potência e aumenta o tempo entre as cargas de bateria.
[000947] Enquanto uma primeira impressão digital é detectada em uma primeira orientação em um sensor de impressão digital, o dispositivo opera (4802) um conjunto de um ou mais elementos de áudio de acordo com um primeiro conjunto de parâmetros de formação de feixe. A Figura 47A mostra, por exemplo, uma primeira impressão digital 4702 em uma primeira orientação (por exemplo, um ângulo relativo de 0 grau ao eixo geométrico de sensor de impressão digital 4706) no sensor de impressão digital 169. A Figura 47A mostra, por exemplo, o dispositivo 100 que opera o alto-falante 111 (por exemplo, um dentre um conjunto de um ou mais elementos de áudio de dispositivo 100) de acordo com um primeiro conjunto de parâmetros de formação de feixe enquanto a primeira impressão digital 4702 está em um ângulo de 0 grau em relação ao eixo geométrico de sensor de impressão digital 4706.
[000948] Em algumas modalidades, o conjunto de um ou mais ele- mentos de áudio inclui (4804) uma pluralidade de alto-falantes. Por exemplo, a alteração nos parâmetros de formação de feixe altera os instantes nos quais o áudio é gerado pelos alto-falantes de modo a produzir a interferência construtiva que amplia o som dos alto-falantes em uma localização predefinida, ao longo de uma trajetória predefinida ou dentro de uma região predefinida em relação aos alto-falantes. As Figuras 47A a 47C mostram, por exemplo, o dispositivo 100 que opera o alto-falante 111 (por exemplo, um dentre uma pluralidade de alto- falantes) para gerar o som que corresponde a um arquivo de áudio ou transmissão contínua de áudio, selecionado por um usuário através de um reprodutor de mídia (por exemplo, aplicativo iTunes da Apple, Inc.) exibido na tela de toque 112.
[000949] Em algumas modalidades, o conjunto de um ou mais elementos de áudio inclui (4806) uma pluralidade de microfones. Por exemplo, a alteração nos parâmetros de formação de feixe altera os instantes nos quais o som recebido pelos microfones é processado de modo a produzir a interferência construtiva que amplia o som recebido pelos microfones que vem de uma localização predefinida, juntamente com uma trajetória predefinida ou dentro de uma região predefinida em relação aos microfones. As Figuras 47D a 47F mostram, por exemplo, o dispositivo 100 que opera o microfone 111 (por exemplo, um dentre uma pluralidade de microfones) para capturar o som enquanto em um modo de gravação de áudio (por exemplo, através do aplicativo Gravador (Voice Memos) da Apple, Inc.).
[000950] Em algumas modalidades, o conjunto de um ou mais elementos de áudio inclui (4808) um ou mais microfones e um ou mais alto-falantes. As Figuras 47G a 47I mostram, por exemplo, o dispositivo 100 que opera o alto-falante 111 (por exemplo, um dentre uma pluralidade de alto-falantes) e o microfone 113 (por exemplo, um dentre uma pluralidade de microfones) para gerar e capturar o som enquanto em um modo de telefone alto-falante. As Figuras 47J a 47L mostram, por exemplo, o dispositivo 100 que opera o alto-falante 111 (por exemplo, um dentre uma pluralidade de alto-falantes) para gerar o som e o microfone 113 (por exemplo, um dentre uma pluralidade de microfones) para capturar o som enquanto em um modo de conversa com vídeo (por exemplo, através do aplicativo FaceTime da Apple, Inc.).
[000951] O dispositivo detecta (4810) uma impressão digital subsequente que tem uma segunda orientação diferente da primeira orientação no sensor de impressão digital, em que a impressão digital subsequente é selecionada dentre o conjunto que consiste na primeira impressão digital com uma orientação alterada e uma segunda impressão digital distinta da primeira impressão digital.
[000952] A Figura 47B mostra, por exemplo, o dispositivo 100 que detecta uma impressão digital subsequente 4702 que tem uma segunda orientação (por exemplo, um ângulo de 45 graus em relação ao eixo geométrico de sensor de impressão digital 4706) no sensor de impressão digital 169 diferente da primeira orientação na Figura 47A (por exemplo, um ângulo de 0 grau em relação ao eixo geométrico de sensor de impressão digital 4706). A impressão digital subsequente 4702 na Figura 47B é primeira impressão digital 4702 na Figura 47A com uma orientação alterada (por exemplo, um ângulo de 45 graus conforme oposto em um ângulo de 0 grau em relação ao eixo geométrico de sensor de impressão digital 4706). Nesse exemplo, a impressão digital subsequente 4702 é o polegar direito do usuário. De acordo com algumas modalidades, a impressão digital subsequente 4702 corresponde, entretanto, a um entre dois cenários: (1) contato contínuo do polegar direito do usuário com o sensor de impressão digital 169 entre a primeira orientação na Figura 47A e a segunda orientação na Figura 47B ou (2) após a detecção do polegar direito do usuário na primeira orientação na Figura 47A, a elevação do polegar direito do usuário e a disposição do polegar direito do usuário na segunda orientação na Figura 47B.
[000953] A Figura 47K mostra, por exemplo, o dispositivo 100 que detecta uma impressão digital subsequente 4716 que tem uma segunda orientação (por exemplo, um ângulo de 45 graus em relação ao eixo geométrico de sensor de impressão digital 4706) no sensor de impressão digital 169 diferente da primeira orientação na Figura 47J (por exemplo, um ângulo de 0 grau em relação ao eixo geométrico de sensor de impressão digital 4706). A impressão digital subsequente 4716 na Figura 47K é uma segunda impressão digital distinta da primeira impressão digital 4714 na Figura 47J. Nesse exemplo, a impressão digital 4714 detectada no sensor de impressão digital 169 na Figura 47J é um polegar direito de usuário e a impressão digital 4716 detectada no sensor de impressão digital 169 na Figura 47K é um dedo indicador do usuário. Dessa forma, nesse exemplo, após a detecção do polegar direito do usuário na Figura 47J, o polegar direito do usuário foi elevado do sensor de impressão digital 169 e, subsequentemente, o dedo indicador do usuário é detectado no sensor de impressão digital 169 na Figura 47K.
[000954] Em resposta a detecção da impressão digital subsequente que tem a segunda orientação no sensor de impressão digital o dispositivo opera (4812) o conjunto de um ou mais elementos de áudio de acordo com um segundo conjunto de parâmetros de formação de feixe diferente do primeiro conjunto de parâmetros de formação de feixe. Em algumas modalidades, a alteração nos parâmetros de formação de feixe altera a interferência construtiva e destrutiva do áudio recebi- do/gerado por uma pluralidade de elementos de áudio (por exemplo, alto-falantes ou microfones) de modo a estender a faixa de efeito do elemento de áudio. A Figura 47B mostra, por exemplo, uma impressão digital subsequente 4702 em uma segunda orientação (por exemplo, um ângulo de 45 graus em relação ao eixo geométrico de sensor de impressão digital 4706) no sensor de impressão digital 169. A Figura 47B mostra, por exemplo, o dispositivo 100 que opera o alto-falante 111 (por exemplo, um dentre um conjunto de um ou mais elementos de áudio de dispositivo 100) de acordo com um segundo conjunto de parâmetros de formação de feixe enquanto a impressão digital subsequente 4702 está no ângulo de 45 graus em relação ao eixo geométrico de sensor de impressão digital 4706.
[000955] Em algumas modalidades, em resposta à detecção da alteração na orientação da impressão digital no sensor de impressão digital, o dispositivo seleciona (4814) o segundo conjunto dos parâmetros de formação de feixe de uma pluralidade de conjuntos dos parâmetros de formação de feixe predefinidos associados às orientações de impressão digital correspondentes. Por exemplo, um primeiro conjunto de parâmetros de formação de feixe é otimizado para situações nas quais a impressão digital está em 0 grau no sensor de impressão digital (por exemplo, um eixo da impressão digital está alinhado com um eixo predefinido do sensor de impressão digital), um segundo conjunto de parâmetros de formação de feixe é otimizado para situações nas quais o ângulo da impressão digital é de 90 graus no sensor de impressão digital em relação ao eixo predefinido do sensor de impressão digital, etc. Em algumas modalidades, os parâmetros de formação de feixe são armazenados no dispositivo, e os parâmetros de formação de feixe são recuperados do armazenamento em resposta à detecção de alteração na orientação. Em algumas modalidades, os parâmetros de formação de feixe são gerados pelo dispositivo conforme necessário. Em algumas modalidades, a pluralidade de conjuntos de parâmetros de formação de feixe predefinidos corresponde às orientações de impressão digital em intervalos regularmente separados, como 15 graus, 30 graus ou 45 graus. Por exemplo, quando um ângulo da im- pressão digital é de 45 graus no sensor de impressão digital em relação ao eixo predefinido do sensor de impressão digital, o dispositivo combina as contribuições dos diferentes conjuntos de parâmetros de linha de base de formação de feixe (por exemplo, um conjunto de parâmetros de formação de feixe de 30 graus e um conjunto de parâmetros de formação de feixe de 60 graus) de acordo com um ângulo da impressão digital no sensor de impressão digital.
[000956] Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam (4816) uma alteração na possível localização da boca de um usuário (4818) do dispositivo em relação ao elemento de áudio do dispositivo (por exemplo, a alteração na formação de feixe captura o som do usuário mais eficazmente). As Figuras 47D a 47F mostram, por exemplo, o dispositivo 100 que compensa uma alteração na possível localização da boca de um usuário de dispositivo 100 em relação ao microfone 113 enquanto captura o som em um modo de gravação de som alterando-se os parâmetros de formação de feixe de acordo com uma alteração na orientação da im-pressão digital no sensor de impressão digital 169.
[000957] Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam (4816) uma alteração na possível localização de uma orelha de um usuário (4820) do dispositivo em relação ao elemento de áudio do dispositivo (por exemplo, a alteração na formação de feixe entrega o som ao usuário mais eficazmente). As Figuras 47A a 47C mostram, por exemplo, o dispositivo 100 que compensa uma alteração na possível localização da orelha de um usuário de dispositivo 100 em relação ao alto-falante 111 enquanto gera o som no modo de reprodução de mídia alterando-se os parâmetros de formação de feixe de acordo com uma alteração na orientação da impressão digital no sensor de impressão digital 169.
[000958] Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam (4816) uma alteração na possível localização de uma mão de um usuário (4822) do dispositivo em relação ao elemento de áudio do dispositivo (por exemplo, a alteração na formação de feixe captura o som do usuário e/ou entrega o som ao usuário de modo mais eficaz se uma mão estiver propensa a estar bloqueando pelo menos uma parte de uma trajetória entre o elemento de áudio e a orelha/boca do usuário). As Figuras 47G a 47I mostram, por exemplo, o dispositivo 100 que compensa uma alteração na possível localização da mão de um usuário do dispositivo 100 em relação ao alto-falante 111 e ao microfone 113 enquanto gera e captura o som no modo de telefone alto-falante alterando-se os parâmetros de formação de feixe de acordo com uma alteração na orientação da impressão digital no sensor de impressão digital 169.
[000959] Deve-se compreender que a ordem específica na qual as operações nas Figuras 48A a 48B foram descritas é meramente exemplificativa e não é destinada a indicar que a ordem descrita é a única ordem na qual as operações podem ser realizadas. Um indivíduo de habilidade comum na técnica irá recolher várias maneiras para reordenar as operações descritas no presente documento. Adicionalmente, deve-se observar que os detalhes de outros processos aqui descritos com relação a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]) também são aplicáveis de uma maneira análoga ao método 4800 descrito aci-ma com relação às Figuras 48A a 48B. Por exemplo, as impressões digitais descritas acima com referência ao método 4800 têm, opcionalmente, uma ou mais das características das impressões digitais descritas no presente documento com referência a outros métodos descritos no presente documento (por exemplo, aqueles listados no parágrafo [00123]). Por questão de brevidade, aqueles detalhes não são repetidos aqui.
[000960] De acordo com algumas modalidades, a Figura 49 mostra um diagrama de blocos funcional de um dispositivo eletrônico 4900 configurado de acordo com os princípios das várias modalidades descritas. Os blocos funcionais do dispositivo são implantados, opcionalmente, através de hardware, software, ou uma combinação de hardware e de software para executar todos os princípios das várias modalidades descritas. É entendido, por indivíduos versados na técnica, que os blocos funcionais descritos na Figura 49 são combinados ou separados, opcionalmente, em sub-blocos para implantar os princípios das várias modalidades descritas. Portanto, a descrição no presente documento apoia opcionalmente qualquer combinação ou separação possível ou definição adicional dos blocos funcionais descritos no presente documento.
[000961] Conforme mostrado na Figura 49, um dispositivo eletrônico 4900 inclui uma unidade de exibição 4902 configurada para exibir um ou mais objetos de interface de usuário; uma unidade de sensor de impressão digital 4904; um conjunto de uma ou mais unidades de áudio 4906 configuradas para gerar e/ou capturar sinais de áudio; e uma unidade de processamento 4908 acoplada à unidade de exibição 4902, a unidade de sensor de impressão digital 4904 e o conjunto de uma ou mais unidades de áudio 4906. Em algumas modalidades, a unidade de processamento 4908 inclui uma unidade de operação 4910, uma unidade de detecção 4912 e uma unidade de seleção 4914.
[000962] Enquanto uma primeira impressão digital é detectada (por exemplo, com a unidade de detecção 4912) em uma primeira orientação na unidade de sensor de impressão digital 4904, a unidade de processamento 4908 será configurada para operar (por exemplo, com a unidade de operação 4910) o conjunto de uma ou mais unidades de áudio 4906 de acordo com um primeiro conjunto de parâmetros de formação de feixe. A unidade de processamento 4908 é configurada adicionalmente para: detectar (por exemplo, com a unidade de detecção 4912) uma impressão digital subsequente que tem uma segunda orientação diferente da primeira orientação na unidade de sensor de impressão digital 4904, em que a impressão digital subsequente é selecionada dentre um conjunto que consiste na primeira impressão digital com uma orientação alterada e uma segunda impressão digital distinta da primeira impressão digital; e em resposta à detecção da impressão digital subsequente que tem a segunda orientação na unidade de sensor de impressão digital 4904, operar (por exemplo, com a uni-dade de operação 4910) o conjunto de uma ou mais unidades de áudio 4906 de acordo com um segundo conjunto de parâmetros de formação de feixe diferente do primeiro conjunto de parâmetros de formação de feixe.
[000963] Em algumas modalidades, o conjunto de uma ou mais unidades de áudio 4906 inclui uma pluralidade de alto-falantes. Em algumas modalidades, o conjunto de uma ou mais unidades de áudio 4906 inclui uma pluralidade de microfones. Em algumas modalidades, o conjunto de uma ou mais unidades de áudio 4906 inclui um ou mais microfones e um ou mais alto-falantes.
[000964] Em algumas modalidades, a unidade de processamento 4908 é configurada adicionalmente para selecionar (por exemplo, com a unidade de seleção 4914) o segundo conjunto de parâmetros de formação de feixe de uma pluralidade de conjuntos de parâmetros de formação de feixe predefinidos associados às orientações de impressão digital correspondentes em resposta à detecção (por exemplo, com a unidade de detecção 4912) da impressão digital subsequente que tem a segunda orientação na unidade de sensor de impressão digital 4904.
[000965] Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam uma alteração na possível localização da boca de um usuário do dispositivo em relação a uma ou mais unidades de áudio 4906. Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam uma alteração na possível localização da orelha de um usuário do dispositivo em relação a uma ou mais unidades de áudio 4906. Em algumas modalidades, as diferenças entre o primeiro conjunto de parâmetros de formação de feixe e o segundo conjunto de parâmetros de formação de feixe compensam uma alteração na possível localização da mão de um usuário do dispositivo em relação a uma ou mais unidades de áudio 4906.
[000966] As operações nos métodos de processamento de informações descritos acima são implantadas, opcionalmente, rodando-se um ou mais módulos funcionais no aparelho de processamento de informações como processadores de uso geral (por exemplo, conforme descrito acima com relação às Figuras 1A e 3) ou chips de aplicação específica.
[000967] As operações descritas acima com referência às Figuras 48A a 48B são implantadas, opcionalmente, através de componentes retratados nas Figuras 1A a 1B ou na Figura 49. Por exemplo, as operações de operação 4802 e 4812, a operação de detecção 4810 e a operação de seleção 4814 são implantadas, opcionalmente, através de classificador de eventos 170, reconhecedor de eventos 180 e manipulador de eventos 190. O monitor de eventos 171 no classificador de eventos 170 detecta um contato no visor sensível ao toque 112 e o módulo despachante de eventos 174 entrega as informações de eventos para o aplicativo 136-1. Um reconhecedor de eventos respectivo 180 do aplicativo 136-1 compara as informações de eventos às definições de eventos respectivas 186 e determina se um primeiro contato em uma primeira localização na superfície sensível ao toque corresponde a um evento ou subevento predefinido, como a seleção de um objeto em uma interface de usuário. Quando um evento ou subevento predefinido respectivo é detectado, o reconhecedor de eventos 180 ativa um manipulador de eventos 190 associado à detecção do evento ou subevento. O manipulador de eventos 190 utiliza ou chama, opcionalmente, o atualizador de dados 176 ou o atualizador de objetos 177 para a atualização do estado interno do aplicativo 192. Em algumas modalidades, o manipulador de eventos 190 acessa um atualizador de GUI respectivo 178 para atualizar o que é exibido através do aplicativo. De modo similar, pode ser claro para uma pessoa de habilidade comum na técnica como outros processos podem ser implantados com base nos componentes retratados nas Figuras 1A a 1B.
[000968] A descrição supracitada foi descrita, para propósito de explicação, com referência às modalidades específicas. Entretanto, as discussões ilustrativas acima não são destinadas a serem exaustivas ou limitarem a invenção às formas precisas reveladas. Muitas modificações e variações são possíveis em vista dos ensinamentos acima. As modalidades foram escolhidas e descritas a fim de explicar melhor os princípios da invenção e suas aplicações práticas, para habilitar, desse modo, outros versados na técnica a usarem melhor a invenção e as várias modalidades descritas com várias modificações conforme forem adequadas ao uso específico contemplado.

Claims (15)

1. Método, compreendendo as etapas de: em um dispositivo eletrônico com um sensor de impressão digital (169) e um visor (502): enquanto uma ou mais funções do dispositivo são restritas e uma interface de usuário restrita é exibida no visor (502), detectar uma impressão digital no sensor de impressão digital (169); em resposta à detecção da impressão digital no sensor de impressão digital (169), de acordo com a determinação de que a impressão digital corresponde a dados de impressão digital autorizados, remover as restrições das uma ou mais funções do dispositivo e exibir, no visor (502), uma indicação de que as uma ou mais funções do dispositivo não estão mais restritas; e enquanto as uma ou mais funções do dispositivo não estiverem restritas: exibir (602), no visor (502), uma interface de usuário para um respectivo aplicativo, incluindo a exibição de uma primeira parte do respectivo aplicativo e uma segunda parte do respectivo aplicativo diferente da primeira parte; detectar (604), durante a exibição da interface de usuário para o respectivo aplicativo no visor (502), o movimento de uma impressão digital no sensor de impressão digital (169); em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169): navegar, de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção (512), através de conteúdo no respectivo aplicativo em uma direção determinada de acordo com a primeira direção; navegar, de acordo com uma determinação de que o movimento da impressão digital é em uma segunda direção oposta à pri- meira direção, através do conteúdo no respectivo aplicativo em uma direção determinada de acordo com a segunda direção; caracterizado pelo fato de que compreende ainda: de acordo com uma determinação de que o movimento da impressão digital está em uma terceira direção (516) diferente da primeira direção (512) e da segunda direção: deixar de exibir a primeira parte do respectivo aplicativo enquanto mantém a exibição da segunda parte do respectivo aplicativo; e exibir uma interface de usuário de sistema que é diferente da interface de usuário para o respectivo aplicativo no visor (502) enquanto mantém exibição da segunda parte do respectivo aplicativo.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a primeira direção (512) é perpendicular à terceira direção (516).
3. Método, de acordo com qualquer uma das reivindicações 1 e 2, caracterizado pelo fato de que: a interface de usuário de sistema é uma interface de usuário de múltiplas tarefas que inclui representações de uma pluralidade de aplicativos atualmente abertos.
4. Método, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que inclui: detectar (638), durante a exibição da interface de usuário de sistema de acordo com a determinação de que o movimento da impressão digital está na terceira direção (516), o movimento da impressão digital no sensor de impressão digital (169) na primeira direção (512); e navegar (640), em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169) na primeira direção (512), através da interface de usuário de sistema.
5. Método, de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que inclui: detectar (638), durante a exibição da interface de usuário de sistema de acordo com a determinação de que o movimento da impressão digital está na terceira direção (516), o movimento da impressão digital no sensor de impressão digital (169) em uma quarta direção; e interromper (644), em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169) na quarta direção, a exibição da interface de usuário de sistema.
6. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que navegar através da interface de usuário para o respectivo aplicativo inclui navegar através da interface de usuário para o respectivo aplicativo a uma taxa de acordo com um deslocamento da impressão digital no sensor de impressão digital (169).
7. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que navegar através da interface de usuário para o respectivo aplicativo inclui navegar através da interface de usuário para o respectivo aplicativo em uma quantidade determinada de acordo com um deslocamento da impressão digital no sensor de impressão digital (169).
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que o sensor de impressão digital (169) é separado do visor (502).
9. Método, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que: o dispositivo inclui uma superfície sensível ao toque (451); e o sensor de impressão digital (169) é separado da superfície sensível ao toque (451).
10. Método, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que inclui: detectar (630), enquanto a interface de usuário de sistema é exibida, a ativação de um botão (204); e interromper (632), em resposta à detecção da ativação do botão (204), a exibição da interface de usuário de sistema.
11. Método, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que inclui: detectar (634), enquanto a interface de usuário para o respectivo aplicativo é exibida, uma ativação dupla do botão (204); e exibir (636), em resposta à detecção da ativação dupla do botão (204), a interface de usuário de sistema no visor (502).
12. Dispositivo eletrônico, compreendendo: um sensor de impressão digital (169); e um visor (502); um ou mais processadores (120); memória (102); e um ou mais programas, em que o um ou mais programas são armazenados na memória e configurados para serem executados pelos um ou mais processadores (120), em que os um ou mais programas incluem instruções para: enquanto uma ou mais funções do dispositivo são restritas e uma interface de usuário restrita é exibida no visor (502), detectar uma impressão digital no sensor de impressão digital (169); em resposta à detecção da impressão digital no sensor de impressão digital (169), de acordo com a determinação de que a impressão digital corresponde a dados de impressão digital autorizados, remover as restrições das uma ou mais funções do dispositivo e exibir, no visor (502), uma indicação de que as uma ou mais funções do dispositivo não estão mais restritas; e enquanto as uma ou mais funções do dispositivo não estiverem restritas: exibir (602), no visor (502), uma interface de usuário para um respectivo aplicativo, incluindo a exibição de uma primeira parte do respectivo aplicativo e uma segunda parte do respectivo aplicativo diferente da primeira parte; detectar (604), durante a exibição da interface de usuário para o respectivo aplicativo no visor (502), o movimento de uma impressão digital no sensor de impressão digital (169); em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169): navegar, de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção (512), através de conteúdo no respectivo aplicativo em uma direção determinada de acordo com a primeira direção; navegar, de acordo com uma determinação de que o movimento da impressão digital é em uma segunda direção que é oposta à primeira direção, através do conteúdo no respectivo aplicativo em uma direção determinada de acordo com a segunda direção; caracterizado pelo fato de que compreende ainda: de acordo com uma determinação de que o movimento da impressão digital está em uma terceira direção (516) diferente da primeira direção (512) e da segunda direção: deixar de exibir a primeira parte do respectivo aplicativo enquanto mantém a exibição da segunda parte do respectivo aplicativo; e exibir uma interface de usuário de sistema que é diferente da interface de usuário para o respectivo aplicativo no visor (502) enquanto mantém exibição da segunda parte do respectivo aplicativo.
13. Meio de armazenamento legível por computador que armazena um ou mais programas, sendo que o um ou mais programas compreendem instruções que, quando executadas por um dispositivo eletrônico com um sensor de impressão digital (169) e um visor (502), fazem o dispositivo: enquanto uma ou mais funções do dispositivo são restritas e uma interface de usuário restrita é exibida no visor (502), detectar uma impressão digital no sensor de impressão digital (169); em resposta à detecção da impressão digital no sensor de impressão digital (169), de acordo com a determinação de que a impressão digital corresponde a dados de impressão digital autorizados, remover as restrições das uma ou mais funções do dispositivo e exibir, no visor (502), uma indicação de que as uma ou mais funções do dispositivo não estão mais restritas; e enquanto as uma ou mais funções do dispositivo não estiverem restritas: exibir (602), no visor (502), uma interface de usuário para um respectivo aplicativo, incluindo a exibição de uma primeira parte do respectivo aplicativo e uma segunda parte do respectivo aplicativo diferente da primeira parte; detectar (604), durante a exibição da interface de usuário para o respectivo aplicativo no visor (502), o movimento de uma impressão digital no sensor de impressão digital (169); em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169): navegar, de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção (512), através de conteúdo no respectivo aplicativo em uma direção determinada de acordo com a primeira direção; navegar, de acordo com uma determinação de que o movimento da impressão digital é em uma segunda direção que é oposta à primeira direção, através do conteúdo no respectivo aplicativo em uma direção determinada de acordo com a segunda direção; caracterizado pelo fato de que compreende ainda: de acordo com uma determinação de que o movimento da impressão digital está em uma terceira direção (516) diferente da primeira direção (512) e da segunda direção: deixar de exibir a primeira parte do respectivo aplicativo enquanto mantém a exibição da segunda parte do respectivo aplicativo; e exibir uma interface de usuário de sistema que é diferente da interface de usuário para o respectivo aplicativo no visor (502) enquanto mantém exibição da segunda parte do respectivo aplicativo.
14. Dispositivo eletrônico, compreendendo: um sensor de impressão digital (169); um visor (502); meios para, enquanto uma ou mais funções do dispositivo são restritas e uma interface de usuário restrita é exibida no visor (502), detectar uma impressão digital no sensor de impressão digital (169); meios para, em resposta à detecção da impressão digital no sensor de impressão digital (169), de acordo com a determinação de que a impressão digital corresponde a dados de impressão digital autorizados, remover as restrições das uma ou mais funções do dispositivo e exibir, no visor (502), uma indicação de que as uma ou mais funções do dispositivo não estão mais restritas; e meios para, enquanto as uma ou mais funções do dispositivo não estiverem restritas: exibir (602), no visor (502), uma interface de usuário para um respectivo aplicativo, incluindo a exibição de uma primeira parte do respectivo aplicativo e uma segunda parte do respectivo aplicativo diferente da primeira parte; meios para detectar (604), durante a exibição da interface de usuário para o respectivo aplicativo no visor (502), o movimento de uma impressão digital no sensor de impressão digital (169); meios para, em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169): navegar, de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção (512), através de conteúdo no respectivo aplicativo em uma direção determinada de acordo com a primeira direção; navegar, de acordo com uma determinação de que o movimento da impressão digital é em uma segunda direção que é oposta à primeira direção, através do conteúdo no respectivo aplicativo em uma direção determinada de acordo com a segunda direção; caracterizado pelo fato de que compreende ainda: de acordo com uma determinação de que o movimento da impressão digital está em uma terceira direção (516) diferente da primeira direção (512) e da segunda direção: deixar de exibir a primeira parte do respectivo aplicativo enquanto mantém a exibição da segunda parte do respectivo aplicativo; e exibir uma interface de usuário de sistema que é diferente da interface de usuário para o respectivo aplicativo no visor (502) enquanto mantém exibição da segunda parte do respectivo aplicativo.
15. Aparelho de processamento de informações para uso em um dispositivo eletrônico com um sensor de impressão digital (169) e um visor (502), compreendendo: meios para, enquanto uma ou mais funções do dispositivo são restritas e uma interface de usuário restrita é exibida no visor (502), detectar uma impressão digital no sensor de impressão digital (169); meios para, em resposta à detecção da impressão digital no sensor de impressão digital (169), de acordo com a determinação de que a impressão digital corresponde a dados de impressão digital autorizados, remover as restrições das uma ou mais funções do dispo- sitivo e exibir, no visor (502), uma indicação de que as uma ou mais funções do dispositivo não estão mais restritas; e meios para, enquanto as uma ou mais funções do dispositivo não estiverem restritas: exibir (602), no visor (502), uma interface de usuário para um respectivo aplicativo, incluindo a exibição de uma primeira parte do respectivo aplicativo e uma segunda parte do respectivo aplicativo diferente da primeira parte; meios para detectar (604), durante a exibição da interface de usuário para o respectivo aplicativo no visor (502), o movimento de uma impressão digital no sensor de impressão digital (169); meios para, em resposta à detecção de movimento da impressão digital no sensor de impressão digital (169): navegar, de acordo com uma determinação de que o movimento da impressão digital está em uma primeira direção (512), através de conteúdo no respectivo aplicativo em uma direção determinada de acordo com a primeira direção; navegar, de acordo com uma determinação de que o movimento da impressão digital é em uma segunda direção que é oposta à primeira direção, através do conteúdo no respectivo aplicativo em uma direção determinada de acordo com a segunda direção; caracterizado pelo fato de que compreende ainda: de acordo com uma determinação de que o movimento da impressão digital está em uma terceira direção (516) diferente da primeira direção (512) e da segunda direção: deixar de exibir a primeira parte do respectivo aplicativo enquanto mantém a exibição da segunda parte do respectivo aplicativo; e exibir uma interface de usuário de sistema que é diferente da interface de usuário para o respectivo aplicativo no visor (502) enquanto mantém exibição da segunda parte do respectivo aplicativo.
BR112014028774-0A 2012-05-18 2013-05-20 Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações BR112014028774B1 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261649207P 2012-05-18 2012-05-18
US61/649,207 2012-05-18
US201261667926P 2012-07-03 2012-07-03
US61/667,926 2012-07-03
US201361794710P 2013-03-15 2013-03-15
US61/794,710 2013-03-15
PCT/US2013/041868 WO2013173838A2 (en) 2012-05-18 2013-05-20 Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Publications (2)

Publication Number Publication Date
BR112014028774A2 BR112014028774A2 (pt) 2017-06-27
BR112014028774B1 true BR112014028774B1 (pt) 2022-05-10

Family

ID=48576561

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014028774-0A BR112014028774B1 (pt) 2012-05-18 2013-05-20 Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações

Country Status (9)

Country Link
US (2) US11209961B2 (pt)
EP (1) EP2850510A2 (pt)
JP (4) JP6023879B2 (pt)
KR (1) KR101710771B1 (pt)
CN (4) CN106133748B (pt)
AU (4) AU2013262488A1 (pt)
BR (1) BR112014028774B1 (pt)
HK (1) HK1206452A1 (pt)
WO (1) WO2013173838A2 (pt)

Families Citing this family (373)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0864145A4 (en) * 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
KR102559017B1 (ko) 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US10251735B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
US10254852B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
USD775655S1 (en) * 2009-08-19 2017-01-03 Fadi Ibsies Display screen with graphical user interface for dental software
USD852838S1 (en) 2009-08-19 2019-07-02 Fadi Ibsies Display screen with transitional graphical user interface for dental software
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US8626530B1 (en) * 2010-08-27 2014-01-07 Walgreen Co. System and method for express refill
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US10275153B2 (en) * 2011-05-19 2019-04-30 Will John Temple Multidirectional button, key, and keyboard
KR101678271B1 (ko) 2011-06-05 2016-11-21 애플 인크. 다수의 애플리케이션들로부터 수신된 통지들을 디스플레이하기 위한 시스템들 및 방법들
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US9268991B2 (en) * 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10168814B2 (en) 2012-12-14 2019-01-01 Apple Inc. Force sensing based on capacitance changes
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
KR101435482B1 (ko) * 2012-12-17 2014-08-28 크루셜텍 (주) 지문 인식을 이용한 애플리케이션 실행 방법, 장치 및 컴퓨터 판독 가능 기록 매체
TWI540492B (zh) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 電子裝置以及電子裝置控制方法
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
EP3564806B1 (en) 2012-12-29 2024-02-21 Apple Inc. Device, method and graphical user interface for determining whether to scroll or select contents
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR101755625B1 (ko) * 2013-01-07 2017-07-07 삼성전자주식회사 디스플레이 장치, 그의 ui 표시 방법 및 컴퓨터 판독가능 기록매체
KR101713784B1 (ko) * 2013-01-07 2017-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20150113169A (ko) 2013-02-08 2015-10-07 애플 인크. 용량성 감지에 기초한 힘 결정
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
US9851828B2 (en) 2013-03-15 2017-12-26 Apple Inc. Touch force deflection sensor
US20140283141A1 (en) 2013-03-15 2014-09-18 Apple Inc. Switching a Mobile Device from Operating in a Primary Access Mode to a Secondary Access Mode
WO2014157897A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for switching tasks
US10229258B2 (en) * 2013-03-27 2019-03-12 Samsung Electronics Co., Ltd. Method and device for providing security content
US20140359757A1 (en) * 2013-06-03 2014-12-04 Qualcomm Incorporated User authentication biometrics in mobile devices
FI20135621L (fi) * 2013-06-04 2014-12-05 Berggram Dev Oy Ristikkoon perustuva käyttöliittymä sointuesitystä varten kosketusnäyttölaitteessa
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US20140380198A1 (en) * 2013-06-24 2014-12-25 Xiaomi Inc. Method, device, and terminal apparatus for processing session based on gesture
US9846526B2 (en) * 2013-06-28 2017-12-19 Verizon and Redbox Digital Entertainment Services, LLC Multi-user collaboration tracking methods and systems
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
CN104461335A (zh) * 2013-09-25 2015-03-25 联想(北京)有限公司 一种数据处理方法及电子设备
WO2015047372A1 (en) 2013-09-30 2015-04-02 Pearl Capital Developments Llc Magnetic actuators for haptic response
US20150127505A1 (en) * 2013-10-11 2015-05-07 Capital One Financial Corporation System and method for generating and transforming data presentation
US9602576B2 (en) * 2013-10-16 2017-03-21 Empire Technology Development Llc Control redistribution among multiple devices
KR102158211B1 (ko) * 2013-10-18 2020-09-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10586028B2 (en) * 2013-10-21 2020-03-10 Purdue Research Foundation Customized biometric data capture for improved security
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
KR102217858B1 (ko) * 2013-11-13 2021-02-19 삼성전자주식회사 지문 인증 방법과 이를 수행하는 지문 인증 장치 및 이동 단말기
US20160019360A1 (en) 2013-12-04 2016-01-21 Apple Inc. Wellness aggregator
US10276001B2 (en) 2013-12-10 2019-04-30 Apple Inc. Band attachment mechanism with haptic response
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management
USD755809S1 (en) * 2013-12-30 2016-05-10 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9536130B2 (en) * 2013-12-30 2017-01-03 Google Technology Holdings LLC Electronic device with a fingerprint reader and method for operating the same
TWI539318B (zh) * 2013-12-31 2016-06-21 茂丞科技股份有限公司 具有多功能感測器的電子裝置及運作方法
US20150202533A1 (en) * 2014-01-21 2015-07-23 Nvidia Corporation Mapping touchscreen gestures to ergonomic controls across application scenes
US20150205464A1 (en) * 2014-01-22 2015-07-23 Microsoft Corporation Updating a user interface to a service
KR102187219B1 (ko) * 2014-01-22 2020-12-04 삼성전자주식회사 지문 센서를 이용하여 제어 기능을 제공하기 위한 전자 장치 및 방법
EP3072040B1 (en) 2014-02-12 2021-12-29 Apple Inc. Force determination employing sheet sensor and capacitive array
KR102177150B1 (ko) * 2014-02-19 2020-11-10 삼성전자 주식회사 지문인식 장치 및 방법
US9122349B1 (en) 2014-03-19 2015-09-01 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
WO2015143011A1 (en) 2014-03-19 2015-09-24 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
DE102014116099B4 (de) * 2014-04-03 2020-01-02 Egis Technology Inc. Vorrichtung und Verfahren für TFT-Fingerabdruck-Sensor
WO2015163843A1 (en) 2014-04-21 2015-10-29 Rinand Solutions Llc Mitigating noise in capacitive sensor
DE112014006608B4 (de) 2014-04-21 2024-01-25 Apple Inc. Verfahren, Systeme und elektronische Vorrichtungen zum Bestimmen der Kräfteaufteilung für Multi-Touch-Eingabevorrichtungen elektronischer Vorrichtungen
US10845982B2 (en) * 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US10064060B2 (en) * 2014-05-05 2018-08-28 Apple Inc. Fingerprint activation of a panic mode of operation for a mobile device
US9990483B2 (en) 2014-05-07 2018-06-05 Qualcomm Incorporated Dynamic activation of user profiles based on biometric identification
CN108090760B (zh) * 2014-05-29 2022-04-29 苹果公司 用于支付的用户接口
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
JP6328797B2 (ja) 2014-05-30 2018-05-23 アップル インコーポレイテッド 1つのデバイスの使用から別のデバイスの使用への移行
US9811707B2 (en) * 2014-06-04 2017-11-07 Lenovo (Singapore) Pte. Ltd. Fingerprint reader on a portion of a device for changing the configuration of the device
USD762711S1 (en) * 2014-06-06 2016-08-02 Le Shi Internet Information Technology Corp. Beijing Display screen with an animated graphical user interface
USD762234S1 (en) * 2014-06-06 2016-07-26 Le Shi Zhi Electronic Technology (Tianjin) Limited Display screen with an animated graphical user interface
US10867149B2 (en) * 2014-06-12 2020-12-15 Verizon Media Inc. User identification through an external device on a per touch basis on touch sensitive devices
CN105260043A (zh) * 2014-06-13 2016-01-20 宸鸿科技(厦门)有限公司 具有指纹识别功能的触控面板
CN105468187A (zh) * 2014-06-18 2016-04-06 宸鸿科技(厦门)有限公司 具有指纹识别功能的触控面板
JP2016006613A (ja) 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR102264808B1 (ko) * 2014-06-23 2021-06-14 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
US20150379160A1 (en) * 2014-06-29 2015-12-31 Yaniv AVRAHAM Apparatus and methods for transferring focus control and related return content within a graphical user interface
CN105278799B (zh) * 2014-07-02 2020-04-07 腾讯科技(深圳)有限公司 界面切换方法及装置
TWI549504B (zh) * 2014-08-11 2016-09-11 宏碁股份有限公司 影像擷取裝置及其自動對焦補償方法
US9740839B2 (en) 2014-08-13 2017-08-22 Google Technology Holdings LLC Computing device chording authentication and control
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
CN104199602B (zh) * 2014-08-26 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking
US20160063644A1 (en) * 2014-08-29 2016-03-03 Hrb Innovations, Inc. Computer program, method, and system for detecting fraudulently filed tax returns
US9864979B2 (en) * 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
US9465930B2 (en) 2014-08-29 2016-10-11 Dropbox, Inc. Fingerprint gestures
WO2016036671A2 (en) 2014-09-02 2016-03-10 Apple Inc. Haptic notifications
USD766267S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
DE202015006141U1 (de) 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
KR101776098B1 (ko) 2014-09-02 2017-09-07 애플 인크. 신체적 활동 및 운동 모니터
USD766325S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD762663S1 (en) * 2014-09-02 2016-08-02 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN104202486A (zh) * 2014-09-26 2014-12-10 上海华勤通讯技术有限公司 移动终端及其屏幕解锁方法
EP3202159B1 (en) 2014-09-30 2020-08-05 Apple Inc. Loudspeaker with reduced audio coloration caused by reflections from a surface
JP6531109B2 (ja) * 2014-09-30 2019-06-12 アルプスアルパイン株式会社 操作装置
USRE49437E1 (en) 2014-09-30 2023-02-28 Apple Inc. Audio driver and power supply unit architecture
US20160098087A1 (en) * 2014-10-07 2016-04-07 Schneider Electric Buildings, Llc Systems and methods for gesture recognition
CN104331653A (zh) * 2014-10-20 2015-02-04 深圳市汇顶科技股份有限公司 指纹解密方法及装置
US9349034B2 (en) * 2014-10-28 2016-05-24 Rovi Guides, Inc. Methods and systems for invoking functions based on whether a partial print or an entire print is detected
US9721141B2 (en) * 2014-10-30 2017-08-01 Polar Electro Oy Wrist-worn apparatus control with fingerprint data
WO2016073640A1 (en) * 2014-11-06 2016-05-12 Alibaba Group Holding Limited Method and system for controlling display direction of content
CN105630345B (zh) 2014-11-06 2019-02-19 阿里巴巴集团控股有限公司 一种控制显示方向的方法和设备
US9588643B2 (en) * 2014-12-18 2017-03-07 Apple Inc. Electronic devices with hand detection circuitry
CN105807981A (zh) * 2014-12-31 2016-07-27 中兴通讯股份有限公司 一种用户终端及其工作方法
US10878715B2 (en) * 2015-02-05 2020-12-29 Type A+ LLC Finger recognition system and method for use in typing
KR102338864B1 (ko) 2015-02-12 2021-12-13 삼성전자주식회사 전자 장치 및 전자 장치에서의 지문 등록 방법
EP3249568B1 (en) * 2015-02-15 2020-06-17 Huawei Technologies Co., Ltd. Method and apparatus for displaying application and picture, and electronic device
US9329831B1 (en) * 2015-02-25 2016-05-03 Sonos, Inc. Playback expansion
US9940502B2 (en) 2015-02-27 2018-04-10 Idex Asa Pre-match prediction for pattern testing
US10528789B2 (en) 2015-02-27 2020-01-07 Idex Asa Dynamic match statistics in pattern matching
US10157306B2 (en) 2015-02-27 2018-12-18 Idex Asa Curve matching and prequalification
JP2016162331A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 情報処理装置
US10006937B2 (en) 2015-03-06 2018-06-26 Apple Inc. Capacitive sensors for electronic devices and methods of forming the same
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9542037B2 (en) * 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
CN106155504B (zh) * 2015-03-26 2019-09-10 小米科技有限责任公司 模组唤醒方法及装置
US9927892B2 (en) 2015-03-27 2018-03-27 International Business Machines Corporation Multiple touch selection control
EP3252590B1 (en) * 2015-03-31 2021-03-31 Huawei Technologies Co. Ltd. Method for adjusting adjustable parameter of device, and device
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
KR102093196B1 (ko) * 2015-04-16 2020-04-14 삼성전자주식회사 지문 인식 기반 조작 방법 및 장치
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
KR102396514B1 (ko) * 2015-04-29 2022-05-11 삼성전자주식회사 지문 정보 처리 방법 및 이를 지원하는 전자 장치
KR102348486B1 (ko) * 2015-04-29 2022-01-07 삼성전자 주식회사 전자 장치
US9753622B2 (en) 2015-05-06 2017-09-05 James L. Moran Customized interactive computing environment
TWI575464B (zh) * 2015-06-04 2017-03-21 指紋卡公司 用於基於指紋的導移的方法及系統
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US10271084B2 (en) * 2015-06-07 2019-04-23 Apple Inc. Video recording and replay
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) * 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
AU2016231472B1 (en) * 2015-06-07 2016-11-10 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
WO2016204528A1 (ko) * 2015-06-16 2016-12-22 남기원 스마트 간편 결제장치 및 그 시스템
KR102342267B1 (ko) * 2015-06-22 2021-12-22 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 변경방법
JP6140773B2 (ja) * 2015-06-26 2017-05-31 京セラ株式会社 電子機器及び電子機器の動作方法
US10600219B2 (en) 2015-06-26 2020-03-24 Idex Asa Pattern mapping
CN104915063B (zh) * 2015-06-29 2018-09-04 努比亚技术有限公司 控制智能终端的方法和装置
KR102508147B1 (ko) 2015-07-01 2023-03-09 엘지전자 주식회사 디스플레이 장치 및 제어 방법
EP3115932A1 (en) 2015-07-07 2017-01-11 Idex Asa Image reconstruction
TWI547884B (zh) * 2015-07-09 2016-09-01 金佶科技股份有限公司 指紋辨識模組
US9544701B1 (en) 2015-07-19 2017-01-10 Sonos, Inc. Base properties in a media playback system
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
US9715301B2 (en) 2015-08-04 2017-07-25 Apple Inc. Proximity edge sensing
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11343101B2 (en) * 2015-08-11 2022-05-24 Vescel, Llc Authentication through verification of an evolving identity credential
WO2017028277A1 (zh) 2015-08-19 2017-02-23 华为技术有限公司 指纹识别方法及移动终端
EP4321088A3 (en) 2015-08-20 2024-04-24 Apple Inc. Exercise-based watch face
CN105045519B (zh) * 2015-08-27 2018-06-26 广东欧珀移动通信有限公司 一种用户终端的屏幕控制方法及用户终端
US10001965B1 (en) 2015-09-03 2018-06-19 Sonos, Inc. Playback system join with base
US11099650B1 (en) 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
US10566888B2 (en) 2015-09-08 2020-02-18 Apple Inc. Linear actuators for use in electronic devices
USD786907S1 (en) * 2015-09-08 2017-05-16 Apple Inc. Display screen or portion thereof with graphical user interface
US20170076366A1 (en) * 2015-09-11 2017-03-16 Bank Of America Corporation Universal tokenization system
US10249002B2 (en) 2015-09-11 2019-04-02 Bank Of America Corporation System for dynamic visualization of individualized consumption across shared resource allocation structure
KR101781909B1 (ko) * 2015-09-15 2017-09-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102399764B1 (ko) * 2015-09-22 2022-05-19 삼성전자 주식회사 전자 장치 및 촬영 방법
CN106547338A (zh) * 2015-09-22 2017-03-29 小米科技有限责任公司 指令生成方法及装置
CN114896015A (zh) 2015-09-23 2022-08-12 尹特根埃克斯有限公司 实时帮助的系统和方法
KR20180062454A (ko) * 2015-09-25 2018-06-08 엘지전자 주식회사 단말 장치 및 단말 장치의 제어 방법
KR101677392B1 (ko) * 2015-09-25 2016-11-17 엘지전자 주식회사 결제 기능을 가지는 이동 단말기
US10331873B1 (en) 2015-10-09 2019-06-25 United Services Automobile Association (“USAA”) Graphical event-based password system
CN114675771A (zh) * 2015-10-29 2022-06-28 创新先进技术有限公司 一种服务调用方法及装置
US9639620B1 (en) 2015-11-13 2017-05-02 Thunder Power Hong Kong Ltd. Vehicle fingerprint bookmark
US9701202B2 (en) 2015-11-13 2017-07-11 Thunder Power New Energy Vehicle Development Company Limited Vehicle fingerprint bookmark
US20180356945A1 (en) * 2015-11-24 2018-12-13 California Labs, Inc. Counter-top device and services for displaying, navigating, and sharing collections of media
US9851806B2 (en) 2015-11-24 2017-12-26 International Business Machines Corporation Gesture recognition and control based on finger differentiation
US11017066B2 (en) 2015-12-29 2021-05-25 Huawei Technologies Co., Ltd. Method for associating application program with biometric feature, apparatus, and mobile terminal
CN105677220A (zh) * 2015-12-31 2016-06-15 联想(北京)有限公司 一种信息处理方法及电子设备
CN106951754B (zh) * 2016-01-06 2018-08-31 阿里巴巴集团控股有限公司 一种信息图像显示方法及装置
KR102509018B1 (ko) 2016-01-11 2023-03-14 삼성디스플레이 주식회사 표시 장치 및 그의 구동방법
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10387710B2 (en) 2016-03-07 2019-08-20 Microsoft Technology Licensing, Llc Image sensing with a waveguide display
US10043050B2 (en) 2016-03-07 2018-08-07 Microsoft Technology Licensing, Llc Image sensing with a display
AT518250B1 (de) * 2016-03-17 2017-09-15 Bernecker + Rainer Industrie-Elektronik Ges M B H Touchscreen
KR20170109408A (ko) * 2016-03-21 2017-09-29 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10007343B2 (en) 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
TWI622893B (zh) * 2016-04-11 2018-05-01 宏碁股份有限公司 電子裝置、及其控制方法與製造方法
CN105868608B (zh) 2016-04-12 2018-01-23 广东欧珀移动通信有限公司 一种指纹解锁的方法及终端
US10298789B2 (en) * 2016-05-11 2019-05-21 Kabushiki Kaisha Toshiba System and method for field customization of multifunction peripherals
USD795907S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
USD795908S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10346599B2 (en) 2016-05-31 2019-07-09 Google Llc Multi-function button for computing devices
KR102561736B1 (ko) * 2016-06-01 2023-08-02 삼성전자주식회사 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US20170364158A1 (en) * 2016-06-20 2017-12-21 Apple Inc. Localized and/or Encapsulated Haptic Actuators and Elements
CN107590373A (zh) * 2016-07-06 2018-01-16 成都锐成芯微科技股份有限公司 移动终端指纹识别系统及方法
CN106201273A (zh) * 2016-07-27 2016-12-07 维沃移动通信有限公司 一种移动终端控制方法及移动终端
WO2018027501A1 (zh) * 2016-08-08 2018-02-15 北京小米移动软件有限公司 终端、触控响应方法及装置
WO2018027857A1 (zh) * 2016-08-11 2018-02-15 张焰焰 匹配文本格式时的信息推送方法和文本系统
WO2018027856A1 (zh) * 2016-08-11 2018-02-15 张焰焰 根据指纹匹配文本格式的方法和文本系统
FR3055158B1 (fr) * 2016-08-19 2019-11-08 Ontracks Systeme d'aide a la navigation visuelle et lateralisee
CN109085921A (zh) * 2016-09-06 2018-12-25 苹果公司 用于提供触觉反馈的设备、方法和图形用户界面
WO2018048632A1 (en) * 2016-09-06 2018-03-15 Apple Inc. Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US10466891B2 (en) 2016-09-12 2019-11-05 Apple Inc. Special lock mode user interface
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
US10771890B2 (en) * 2016-09-23 2020-09-08 Apple Inc. Annular support structure
CN114675774A (zh) * 2016-09-23 2022-06-28 苹果公司 用于对文本进行注释的设备、方法和图形用户界面
JP6078684B1 (ja) * 2016-09-30 2017-02-08 グリー株式会社 プログラム、制御方法、および情報処理装置
US10055818B2 (en) 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
KR102578253B1 (ko) 2016-10-21 2023-09-12 삼성전자 주식회사 전자 장치 및 전자 장치의 지문 정보 획득 방법
EP3531241A4 (en) 2016-10-24 2019-11-20 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2018088861A1 (en) * 2016-11-11 2018-05-17 Samsung Electronics Co., Ltd. Method and electronic device for providing multi-level security
US10402161B2 (en) 2016-11-13 2019-09-03 Honda Motor Co., Ltd. Human-vehicle interaction
KR102616793B1 (ko) 2016-11-15 2023-12-26 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
US10599823B2 (en) * 2016-11-18 2020-03-24 Invensense, Inc. Systems and methods for coordinating applications with a user interface
CN106778156A (zh) * 2016-11-23 2017-05-31 苏州新捷毅贸易有限公司 具有密码组合的指纹锁设置方法及指纹解锁方法
KR102564267B1 (ko) 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법
CN106775084B (zh) 2016-12-16 2019-04-16 Oppo广东移动通信有限公司 一种触摸屏的防误触方法、装置及移动终端
JP6434480B2 (ja) 2016-12-19 2018-12-05 ファナック株式会社 制御装置
CN108475179B (zh) * 2016-12-27 2020-10-23 华为技术有限公司 指纹采集方法、指纹采集器件和终端
USD831053S1 (en) * 2016-12-30 2018-10-16 Lyft, Inc. Display screen with animated graphical user interface
CN109196503B (zh) * 2017-01-09 2022-03-25 英华达(上海)科技有限公司 鼠标、触控板、输入套装以及移动设备
CN108304085B (zh) * 2017-01-11 2021-01-01 神盾股份有限公司 判断手指位移方向的方法和电子装置
US20180206120A1 (en) * 2017-01-16 2018-07-19 International Business Machines Corporation Indicating actual person sending a message based on physical validation
CN108319886B (zh) * 2017-01-17 2020-07-21 北京小米移动软件有限公司 指纹识别方法及装置
US20180200623A1 (en) * 2017-01-19 2018-07-19 Machine Zone, Inc. System and method for controlling game play using fingerprint recognition
KR102070407B1 (ko) * 2017-01-31 2020-01-28 삼성전자주식회사 전자장치 및 이를 사용하여 디스플레이에 연동된 생체 센서의 제어 방법
US10904435B2 (en) 2017-02-03 2021-01-26 Hewlett-Packard Development Company, L.P. Biometrics to launch a camera application
US10546109B2 (en) * 2017-02-14 2020-01-28 Qualcomm Incorporated Smart touchscreen display
CN108664177B (zh) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 一种基于指纹识别开启应用的方法和装置
KR102365678B1 (ko) * 2017-03-29 2022-02-21 삼성전자주식회사 외부 장치를 이용한 화면 출력 방법 및 이를 지원하는 전자 장치
KR102331464B1 (ko) * 2017-04-18 2021-11-29 삼성전자주식회사 디스플레이 영역에 형성된 생체 정보 센싱 영역을 이용한 생체 정보 획득 방법 및 이를 지원하는 전자 장치
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
WO2018207953A1 (ko) * 2017-05-08 2018-11-15 (주)인스타페이 터치 입력에 기반한 프로세스 처리 방법 및 시스템
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
US10365814B2 (en) * 2017-05-16 2019-07-30 Apple Inc. Devices, methods, and graphical user interfaces for providing a home button replacement
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
CN111694484B (zh) * 2017-05-16 2023-07-07 苹果公司 用于在用户界面之间导航的设备、方法和图形用户界面
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
CN110651268B (zh) 2017-05-23 2023-10-17 指纹卡安娜卡敦知识产权有限公司 认证用户的方法和电子设备
US10614279B2 (en) * 2017-06-02 2020-04-07 Samsung Electronics Co., Ltd. Apparatus and method for driving fingerprint sensing array provided in touchscreen, and driver integrated circuit for driving the touchscreen including the fingerprint sensing array
US10951043B2 (en) * 2017-06-04 2021-03-16 Apple Inc. Multi-device charging user interface
US10360428B2 (en) 2017-06-28 2019-07-23 Synaptics Incorporated Fingerprint sensor to support wake on finger and navigation
SE1750836A1 (en) * 2017-06-28 2018-12-29 Fingerprint Cards Ab Fingerprint sensor module comprising antenna and method for manufacturing a fingerprint sensor module
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
CN107395889B (zh) * 2017-07-28 2020-01-21 Oppo广东移动通信有限公司 降低移动终端功耗的方法、装置、存储介质及移动终端
WO2019024041A1 (en) * 2017-08-03 2019-02-07 Tencent Technology (Shenzhen) Company Limited DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING GAME CONTROLS
WO2019050212A1 (ko) 2017-09-07 2019-03-14 삼성전자 주식회사 지문을 인식하기 방법, 전자 장치 및 저장 매체
CN107918563A (zh) 2017-09-30 2018-04-17 华为技术有限公司 一种复制和粘贴的方法、数据处理装置和用户设备
SE1751288A1 (en) * 2017-10-17 2019-04-18 Fingerprint Cards Ab Method of controlling an electronic device
CN107861824A (zh) * 2017-11-30 2018-03-30 努比亚技术有限公司 一种文本处理方法、移动终端以及计算机可读存储介质
US10852836B2 (en) * 2017-11-30 2020-12-01 Microsoft Technology Licensing, Llc Visual transformation using a motion profile
USD845337S1 (en) * 2017-12-01 2019-04-09 Nasdaq, Inc. Display screen or portion thereof with animated graphical user interface
WO2019119431A1 (zh) * 2017-12-22 2019-06-27 深圳前海达闼云端智能科技有限公司 人机交互方法、装置、终端设备及计算机可读存储介质
JP2018045729A (ja) * 2017-12-25 2018-03-22 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
KR102543104B1 (ko) * 2018-01-18 2023-06-14 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN108334228B (zh) * 2018-01-30 2021-03-16 厦门天马微电子有限公司 触控屏及其驱动方法、触控装置
US11132106B2 (en) * 2018-03-13 2021-09-28 Vmware, Inc. User-specific applications for shared devices
CN108647032B (zh) * 2018-03-29 2022-03-01 珠海市魅族科技有限公司 应用加载方法及装置、计算机装置和计算机可读存储介质
CN108549518B (zh) * 2018-04-17 2020-09-25 Oppo广东移动通信有限公司 一种音乐信息显示的方法、装置及终端设备
CN108628644A (zh) * 2018-04-19 2018-10-09 维沃移动通信有限公司 一种应用的启动方法、装置和移动终端
US10733468B2 (en) * 2018-04-23 2020-08-04 Novatek Microelectronics Corp. Finger stability detecting method and fingerprint sensing device
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11893228B2 (en) 2018-06-03 2024-02-06 Apple Inc. Devices and methods for interacting with an application switching user interface
DK180316B1 (en) * 2018-06-03 2020-11-06 Apple Inc Devices and methods for interacting with an application switching user interface
US10956029B1 (en) 2018-06-08 2021-03-23 Facebook, Inc. Gesture-based context switching between applications
CN112313623A (zh) 2018-06-25 2021-02-02 华为技术有限公司 一种终端的用户界面显示方法和终端
US10656827B2 (en) 2018-06-29 2020-05-19 Synaptics Incorporated Sensor device scanning techniques to determine fast and/or slow motions
US10990260B2 (en) 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
CN109284060A (zh) * 2018-08-30 2019-01-29 Oppo(重庆)智能科技有限公司 显示控制方法及相关装置
CN110199249B (zh) * 2018-09-13 2022-11-04 京东方科技集团股份有限公司 集成指纹检测触控显示设备以及指纹检测、触控和图像显示的集成方法
US10953307B2 (en) 2018-09-28 2021-03-23 Apple Inc. Swim tracking and notifications for wearable devices
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
USD998631S1 (en) 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD916135S1 (en) 2018-10-11 2021-04-13 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD999246S1 (en) 2018-10-11 2023-09-19 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD917564S1 (en) 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with graphical user interface
US11406286B2 (en) 2018-10-11 2022-08-09 Masimo Corporation Patient monitoring device with improved user interface
USD998630S1 (en) * 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD917550S1 (en) * 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with a graphical user interface
CN111124236B (zh) 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
US10965863B2 (en) * 2018-11-01 2021-03-30 Lenovo (Singapore) Pte. Ltd. Changing settings based on a fingerprint
CN109542315B (zh) * 2018-11-22 2021-05-25 维沃移动通信有限公司 移动终端的控制方法及系统
US11770579B2 (en) 2018-12-21 2023-09-26 Streamlayer, Inc. Method and system for providing interactive content delivery and audience engagement
USD997952S1 (en) 2018-12-21 2023-09-05 Streamlayer, Inc. Display screen with transitional graphical user interface
USD947233S1 (en) 2018-12-21 2022-03-29 Streamlayer, Inc. Display screen or portion thereof with transitional graphical user interface
CN109683766B (zh) * 2018-12-28 2021-08-03 努比亚技术有限公司 交互界面控制方法、移动终端及计算机可读存储介质
CN109675308A (zh) * 2019-01-10 2019-04-26 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN111488761B (zh) 2019-01-25 2024-04-26 北京小米移动软件有限公司 指纹识别方法、装置、电子设备和计算机可读存储介质
CN111695382B (zh) * 2019-03-14 2024-02-13 北京小米移动软件有限公司 指纹采集区域确定方法和指纹采集区域确定装置
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
US11646591B2 (en) 2019-05-09 2023-05-09 Apple Inc. Indication for protective charging mode
CN110351424A (zh) 2019-05-30 2019-10-18 华为技术有限公司 手势交互方法和终端
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11620103B2 (en) 2019-05-31 2023-04-04 Apple Inc. User interfaces for audio media control
AU2020288139B2 (en) * 2019-06-01 2023-02-16 Apple Inc. Multi-modal activity tracking user interface
EP3981170A1 (en) 2019-06-07 2022-04-13 Sonos, Inc. Automatically allocating audio portions to playback devices
USD922402S1 (en) * 2019-07-10 2021-06-15 CyCarrier Technology Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD919635S1 (en) * 2019-07-10 2021-05-18 Cycraft Singapore Pte. Ltd. Display screen or portion thereof with graphical user interface
KR102248984B1 (ko) * 2019-07-24 2021-05-07 어보브반도체 주식회사 고감도 터치 센서
US11551466B2 (en) 2019-08-21 2023-01-10 Novatek Microelectronics Corp. Control circuit and related method for controlling display panel
US11783622B2 (en) 2019-09-18 2023-10-10 Sony Group Corporation Fingerprint authentication device and fingerprint authentication method
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
CN110795012A (zh) * 2019-10-31 2020-02-14 华为技术有限公司 电子设备的控制方法、电子设备以及计算机可读存储介质
US11023124B1 (en) * 2019-12-18 2021-06-01 Motorola Mobility Llc Processing user input received during a display orientation change of a mobile device
USD949188S1 (en) * 2020-01-07 2022-04-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US20230073831A1 (en) * 2020-02-03 2023-03-09 Sony Group Corporation Electronic device, information processing method, and program
KR20210103317A (ko) 2020-02-13 2021-08-23 삼성전자주식회사 지문-터치 복합 센서 및 이를 포함하는 전자 장치
DK181076B1 (en) 2020-02-14 2022-11-25 Apple Inc USER INTERFACES FOR TRAINING CONTENT
US11418713B2 (en) * 2020-04-02 2022-08-16 Qualcomm Incorporated Input based launch sequences for a camera application
US11556095B2 (en) 2020-04-15 2023-01-17 Apple Inc. Modular sensing assembly for an electronic device
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11163970B1 (en) * 2020-06-16 2021-11-02 Google Llc Optical fingerprint system with varying integration times across pixels
DE102020003923B3 (de) * 2020-06-30 2021-11-04 Daimler Ag Bedieneinheit mit einer berührungssensitiven Bedienfläche
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
USD1030772S1 (en) * 2020-09-11 2024-06-11 Google Llc Display screen or portion thereof with a transitional graphical user interface
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11491909B2 (en) * 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles
USD1028999S1 (en) 2020-09-17 2024-05-28 Streamlayer, Inc. Display screen with transitional graphical user interface
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
JP7266566B2 (ja) * 2020-10-29 2023-04-28 株式会社三菱Ufj銀行 プログラム
KR20230135126A (ko) * 2021-01-22 2023-09-22 오키드 사운드 테크놀로지스 엘엘씨 초음파 센서를 구비한 시스템
CN112799578B (zh) * 2021-01-26 2022-06-17 挂号网(杭州)科技有限公司 键盘绘制方法、装置、电子设备和存储介质
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US20220368548A1 (en) 2021-05-15 2022-11-17 Apple Inc. Shared-content session user interfaces
WO2022245669A1 (en) 2021-05-15 2022-11-24 Apple Inc. User interfaces for group workouts
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
US11561612B1 (en) * 2021-08-10 2023-01-24 Synaptics Incorporated AR/VR navigation with authentication using an integrated scrollwheel and fingerprint sensor user input apparatus
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device
US11704928B1 (en) * 2022-02-17 2023-07-18 Qualcomm Incorporated Force-based finger detection for fingerprint sensor systems
WO2023157648A1 (ja) * 2022-02-18 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11896871B2 (en) 2022-06-05 2024-02-13 Apple Inc. User interfaces for physical activity information
US11977729B2 (en) 2022-06-05 2024-05-07 Apple Inc. Physical activity information user interfaces

Family Cites Families (635)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ055999A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (npage01)
US4353056A (en) 1980-06-05 1982-10-05 Siemens Corporation Capacitive fingerprint sensor
US4805222A (en) 1985-12-23 1989-02-14 International Bioaccess Systems Corporation Method and apparatus for verifying an individual's identity
DE3880695T2 (de) 1987-10-02 1993-09-23 Daya Ranjit Senanayake System und verfahren zur persoenlichen identifizierung.
US4993068A (en) 1989-11-27 1991-02-12 Motorola, Inc. Unforgeable personal identification system
GB2244164A (en) 1990-05-18 1991-11-20 Philips Electronic Associated Fingerprint sensing
JPH04158434A (ja) 1990-10-23 1992-06-01 Toshiba Corp ディスプレイ装置のポインティングデバイス
US5131038A (en) 1990-11-07 1992-07-14 Motorola, Inc. Portable authentification system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5280527A (en) 1992-04-14 1994-01-18 Kamahira Safe Co., Inc. Biometric token for authorizing access to a host system
EP0593386A3 (en) 1992-10-16 1996-07-31 Ibm Method and apparatus for accessing touch screen desktop objects via fingerprint recognition
JP2813728B2 (ja) 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション ズーム/パン機能付パーソナル通信機
US5526428A (en) 1993-12-29 1996-06-11 International Business Machines Corporation Access control apparatus and method
US5469506A (en) 1994-06-27 1995-11-21 Pitney Bowes Inc. Apparatus for verifying an identification card and identifying a person by means of a biometric characteristic
US5659626A (en) 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
US7613659B1 (en) 1994-11-28 2009-11-03 Yt Acquisition Corporation System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse
US5615277A (en) 1994-11-28 1997-03-25 Hoffman; Ned Tokenless security system for authorizing access to a secured computer system
US6154879A (en) 1994-11-28 2000-11-28 Smarttouch, Inc. Tokenless biometric ATM access system
US6269348B1 (en) 1994-11-28 2001-07-31 Veristar Corporation Tokenless biometric electronic debit and credit transactions
US6950810B2 (en) 1994-11-28 2005-09-27 Indivos Corporation Tokenless biometric electronic financial transactions via a third party identicator
US5805719A (en) 1994-11-28 1998-09-08 Smarttouch Tokenless identification of individuals
US5870723A (en) 1994-11-28 1999-02-09 Pare, Jr.; David Ferrin Tokenless biometric transaction authorization method and system
US5613012A (en) 1994-11-28 1997-03-18 Smarttouch, Llc. Tokenless identification system for authorization of electronic transactions and electronic transmissions
US6366682B1 (en) 1994-11-28 2002-04-02 Indivos Corporation Tokenless electronic transaction system
US5591949A (en) 1995-01-06 1997-01-07 Bernstein; Robert J. Automatic portable account controller for remotely arranging for payment of debt to a vendor
US5838306A (en) 1995-05-05 1998-11-17 Dell U.S.A., L.P. Mouse with security feature
US5724492A (en) * 1995-06-08 1998-03-03 Microsoft Corporation Systems and method for displaying control objects including a plurality of panels
JP3316725B2 (ja) 1995-07-06 2002-08-19 三菱電機株式会社 顔画像撮像装置
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
CH690048A5 (fr) 1995-11-28 2000-03-31 C Sam S A En Formation C O Jue Dispositif de sécurité commandant l'accès à un ordinateur ou à un terminal de réseau.
US5857028A (en) 1996-01-11 1999-01-05 Frieling; Edward Computer access control by finger anatomy and comprehension testing
US5828773A (en) 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
US5963679A (en) 1996-01-26 1999-10-05 Harris Corporation Electric field fingerprint sensor apparatus and related methods
AUPN802296A0 (en) * 1996-02-12 1996-03-07 Fingerscan Pty Limited An input device for controlling a pointer on the screen of a computer
GB2312040A (en) 1996-04-13 1997-10-15 Xerox Corp A computer mouse
US5933134A (en) 1996-06-25 1999-08-03 International Business Machines Corporation Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
JP3711633B2 (ja) 1996-06-27 2005-11-02 カシオ計算機株式会社 タッチパネル制御装置
US6219793B1 (en) 1996-09-11 2001-04-17 Hush, Inc. Method of using fingerprints to authenticate wireless communications
US6181803B1 (en) 1996-09-30 2001-01-30 Intel Corporation Apparatus and method for securely processing biometric information to control access to a node
US6367017B1 (en) 1996-11-07 2002-04-02 Litronic Inc. Apparatus and method for providing and authentication system
US6268788B1 (en) 1996-11-07 2001-07-31 Litronic Inc. Apparatus and method for providing an authentication system based on biometrics
US6901382B1 (en) 1996-11-27 2005-05-31 Diebold, Incorporated Automated banking machine and system
US6598023B1 (en) 1996-11-27 2003-07-22 Diebold, Incorporated Automated banking machine system using internet address customer input
US6498861B1 (en) 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US6111517A (en) 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US5952998A (en) 1997-01-15 1999-09-14 Compaq Computer Corporation Transparent touchpad with flat panel display for personal computers
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH10269358A (ja) 1997-03-25 1998-10-09 Sony Corp 物体認識装置
US6901154B2 (en) 1997-04-16 2005-05-31 Activcard Ireland Limited Method of detecting authorised biometric information sensor
US6193153B1 (en) 1997-04-16 2001-02-27 Francis Lambert Method and apparatus for non-intrusive biometric capture
US5920640A (en) 1997-05-16 1999-07-06 Harris Corporation Fingerprint sensor and token reader and associated methods
US5991408A (en) 1997-05-16 1999-11-23 Veridicom, Inc. Identification and security using biometric measurements
CA2208179A1 (en) 1997-06-18 1998-12-18 Roland S. Walch Pointing device with optical fingerprint recognition and tracking capability
KR19990009965A (ko) 1997-07-14 1999-02-05 정명식 타자 패턴을 이용한 사용자 인증 방법
GB2329497B (en) 1997-09-19 2001-01-31 Ibm Method for controlling access to electronically provided services and system for implementing such method
US6611681B2 (en) 1997-09-26 2003-08-26 Daniel A. Henderson Method and apparatus for an improved call interrupt feature in a cordless telephone answering device
US6037882A (en) 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
US5974150A (en) 1997-09-30 1999-10-26 Tracer Detection Technology Corp. System and method for authentication of goods
US6084968A (en) 1997-10-29 2000-07-04 Motorola, Inc. Security token and method for wireless applications
US20020097145A1 (en) 1997-11-06 2002-07-25 David M. Tumey Integrated vehicle security system utilizing facial image verification
EP0950229B1 (de) 1997-11-07 2001-01-24 Swisscom AG Verfahren, system und vorrichtungen zur bestimmung der authentizität von personen
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
US6501846B1 (en) 1997-11-25 2002-12-31 Ethentica, Inc. Method and system for computer access and cursor control using a relief object image generator
US6490680B1 (en) 1997-12-04 2002-12-03 Tecsec Incorporated Access control and authorization system
GB9725571D0 (en) 1997-12-04 1998-02-04 Philips Electronics Nv Electronic apparatus comprising fingerprint sensing devices
JPH11175478A (ja) 1997-12-10 1999-07-02 Nec Corp 本人認証システム
US6041410A (en) 1997-12-22 2000-03-21 Trw Inc. Personal identification fob
US6038666A (en) 1997-12-22 2000-03-14 Trw Inc. Remote identity verification technique using a personal identification device
JPH11185016A (ja) 1997-12-24 1999-07-09 Sharp Corp 情報処理装置
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
JPH11242745A (ja) 1998-02-25 1999-09-07 Victor Co Of Japan Ltd 顔画像の計測・処理方法
US6181328B1 (en) 1998-03-02 2001-01-30 International Business Machines Corporation Method and system for calibrating touch screen sensitivities according to particular physical characteristics associated with a user
US6141436A (en) 1998-03-25 2000-10-31 Motorola, Inc. Portable communication device having a fingerprint identification system
US6618806B1 (en) 1998-04-01 2003-09-09 Saflink Corporation System and method for authenticating users in a computer network
US6167517A (en) 1998-04-09 2000-12-26 Oracle Corporation Trusted biometric client authentication
US6880750B2 (en) 1998-04-17 2005-04-19 Randolph M. Pentel Remote ordering device
US20010044906A1 (en) 1998-04-21 2001-11-22 Dimitri Kanevsky Random visual patterns used to obtain secured access
CN1109466C (zh) 1998-04-23 2003-05-21 西门子公司 具有扩充的用户识别功能的无线电设备
US6484260B1 (en) 1998-04-24 2002-11-19 Identix, Inc. Personal identification system
DE69938344T2 (de) * 1998-05-07 2009-01-22 Nuance Communications Israel Ltd. Handgeschriebene und sprach-kontrolle von fahrzeugkomponenten
US6353889B1 (en) 1998-05-13 2002-03-05 Mytec Technologies Inc. Portable device and method for accessing data key actuated devices
US6400836B2 (en) 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
EP1080415B1 (en) 1998-05-21 2017-01-18 Equifax Inc. System and method for authentication of network users
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6870946B1 (en) 1998-08-06 2005-03-22 Secugen Corporation Compact optical fingerprint capturing and recognition system
US6636973B1 (en) 1998-09-08 2003-10-21 Hewlett-Packard Development Company, L.P. Secure and dynamic biometrics-based token generation for access control and authentication
JP2000090052A (ja) 1998-09-10 2000-03-31 Toshiba Corp コンピュータ装置
US6292173B1 (en) 1998-09-11 2001-09-18 Stmicroelectronics S.R.L. Touchpad computer input system and method
US6950539B2 (en) 1998-09-16 2005-09-27 Digital Persona Configurable multi-function touchpad device
JP2000090273A (ja) 1998-09-16 2000-03-31 Nec Corp 指紋識別を用いた情報処理装置および情報処理方法
US6256022B1 (en) 1998-11-06 2001-07-03 Stmicroelectronics S.R.L. Low-cost semiconductor user input device
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
GB2344670B (en) 1998-12-12 2003-09-03 Ibm System, apparatus and method for controlling access
JP2000339097A (ja) 1998-12-16 2000-12-08 Sony Corp 情報処理装置およびその制御方法、並びに記録媒体
US6560612B1 (en) 1998-12-16 2003-05-06 Sony Corporation Information processing apparatus, controlling method and program medium
US6317835B1 (en) 1998-12-23 2001-11-13 Radiant Systems, Inc. Method and system for entry of encrypted and non-encrypted information on a touch screen
US6671808B1 (en) 1999-01-15 2003-12-30 Rainbow Technologies, Inc. USB-compliant personal key
US6317834B1 (en) 1999-01-29 2001-11-13 International Business Machines Corporation Biometric authentication system with encrypted models
US6028950A (en) 1999-02-10 2000-02-22 The National Registry, Inc. Fingerprint controlled set-top box
JP2000250862A (ja) 1999-03-03 2000-09-14 Toshiba Corp プロセス監視制御システム
US6898577B1 (en) 1999-03-18 2005-05-24 Oracle International Corporation Methods and systems for single sign-on authentication in a multi-vendor e-commerce environment and directory-authenticated bank drafts
US6529885B1 (en) 1999-03-18 2003-03-04 Oracle Corporation Methods and systems for carrying out directory-authenticated electronic transactions including contingency-dependent payments via secure electronic bank drafts
JP2000276245A (ja) 1999-03-23 2000-10-06 Matsushita Electric Ind Co Ltd 端末装置の操作者自動判別認識方法及び装置
JP2000276445A (ja) 1999-03-23 2000-10-06 Nec Corp バイオメトリクス識別を用いた認証方法、装置、認証実行機、認証プログラムを記録した記録媒体
JP3663075B2 (ja) 1999-04-05 2005-06-22 シャープ株式会社 情報処理装置
US7039221B1 (en) 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US6615264B1 (en) 1999-04-09 2003-09-02 Sun Microsystems, Inc. Method and apparatus for remotely administered authentication and access control
US6337919B1 (en) 1999-04-28 2002-01-08 Intel Corporation Fingerprint detecting mouse
JP2000315118A (ja) 1999-05-06 2000-11-14 Canon Inc 情報処理装置、情報処理装置制御方法、情報処理装置制御プログラムを格納した記憶媒体
US6282304B1 (en) 1999-05-14 2001-08-28 Biolink Technologies International, Inc. Biometric system for biometric input, comparison, authentication and access control and method therefor
US8438487B1 (en) * 1999-05-24 2013-05-07 Catherine Lin-Hendel Method and system for one-click navigation and browsing of electronic media and their category structure as well as tracking the navigation and browsing thereof
US6957768B1 (en) 1999-05-25 2005-10-25 Silverbrook Research Pty Ltd Computer system control via interface surface
JP2001014051A (ja) 1999-06-25 2001-01-19 Matsushita Electric Ind Co Ltd ユーザー認証装置
US6886104B1 (en) 1999-06-25 2005-04-26 Cross Match Technologies Rechargeable mobile hand-held fingerprint scanner with a data and power communication interface
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6681034B1 (en) 1999-07-15 2004-01-20 Precise Biometrics Method and system for fingerprint template matching
US6609198B1 (en) 1999-08-05 2003-08-19 Sun Microsystems, Inc. Log-on service providing credential level change without loss of session continuity
US6719200B1 (en) 1999-08-06 2004-04-13 Precise Biometrics Ab Checking of right to access
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
JP2001092554A (ja) 1999-09-21 2001-04-06 Seiko Instruments Inc 情報処理装置
US6728881B1 (en) 1999-10-01 2004-04-27 The United States Of America As Represented By The Secretary Of The Army Fingerprint and signature identification and authorization card and pen
US7030860B1 (en) 1999-10-08 2006-04-18 Synaptics Incorporated Flexible transparent touch sensing system for electronic devices
EP2264896A3 (en) 1999-10-27 2012-05-02 Systems Ltd Keyless Integrated keypad system
KR100695509B1 (ko) 1999-11-08 2007-03-15 삼성전자주식회사 지문인식이 가능한 디스플레이시스템 및 시스템 구동방법
JP3738629B2 (ja) 1999-11-25 2006-01-25 三菱電機株式会社 携帯型電子機器
WO2001041032A1 (en) 1999-11-30 2001-06-07 David Russell Methods, systems, and apparatuses for secure interactions
US6443359B1 (en) 1999-12-03 2002-09-03 Diebold, Incorporated Automated transaction system and method
US6735695B1 (en) 1999-12-20 2004-05-11 International Business Machines Corporation Methods and apparatus for restricting access of a user using random partial biometrics
AU3071001A (en) 1999-12-23 2001-07-09 National University Of Singapore, The Wavelet-enhanced automated fingerprint identification system
US6871287B1 (en) 2000-01-21 2005-03-22 John F. Ellingson System and method for verification of identity
US6721738B2 (en) 2000-02-01 2004-04-13 Gaveo Technology, Llc. Motion password control system
KR100325381B1 (ko) 2000-02-11 2002-03-06 안준영 지문입력기를 이용한 터치패드 구현방법 및지문입력기능을 하는 터치패드 장치
US6668332B1 (en) 2000-02-15 2003-12-23 International Business Machines Corporation Functional clock observation controlled by JTAG extensions
GB2365676B (en) * 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
US6766456B1 (en) 2000-02-23 2004-07-20 Micron Technology, Inc. Method and system for authenticating a user of a computer system
GB0004287D0 (en) 2000-02-23 2000-04-12 Leeper Kim System and method for authenticating electronic documents
JP2001236324A (ja) 2000-02-24 2001-08-31 Fujitsu Ltd バイオメトリクス情報による個人認証機能を有する携帯電子装置
KR20000030544A (ko) 2000-03-02 2000-06-05 김종완 인터넷 조각 그림 맞추기 홈페이지를 이용한 광고 표현 기법
CN1263324A (zh) 2000-03-20 2000-08-16 后健慈 指纹辨识键盘装置及其辨识方法
EP1136937B1 (en) 2000-03-22 2006-05-10 Kabushiki Kaisha Toshiba Facial image forming recognition apparatus and a pass control apparatus
AU2001245936A1 (en) 2000-03-23 2001-10-03 Cross Match Technologies, Inc. Piezoelectric identification device and applications thereof
US7086085B1 (en) 2000-04-11 2006-08-01 Bruce E Brown Variable trust levels for authentication
AU2001249968A1 (en) 2000-04-18 2001-10-30 Bioconx, Inc. System for logging into multiple network systems
US6775776B1 (en) 2000-06-27 2004-08-10 Intel Corporation Biometric-based authentication in a nonvolatile memory device
US6720860B1 (en) 2000-06-30 2004-04-13 International Business Machines Corporation Password protection using spatial and temporal variation in a high-resolution touch sensitive display
JP4221220B2 (ja) 2000-07-24 2009-02-12 株式会社ディー・ディー・エス 指紋照合装置、指紋照合方法及び指紋照合プログラム
AU2001272784A1 (en) 2000-07-25 2002-02-05 Asahi Business Assist Limited Secret information recorded medium, secret information protection method, secretinformation protective storing method, and system for reporting emergency such as theft or confinement when secret information is accessed
JP4469476B2 (ja) 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
KR20020022295A (ko) 2000-09-19 2002-03-27 장기화 3차원 정보를 이용한 얼굴 인식 장치 및 방법
US6766040B1 (en) 2000-10-02 2004-07-20 Biometric Solutions, Llc System and method for capturing, enrolling and verifying a fingerprint
JP3535868B2 (ja) 2000-10-05 2004-06-07 松下電器産業株式会社 判定レベル設定方法、およびデータ受信装置
US6585591B1 (en) * 2000-10-12 2003-07-01 Igt Gaming device having an element and element group selection and elimination bonus scheme
US6819219B1 (en) 2000-10-13 2004-11-16 International Business Machines Corporation Method for biometric-based authentication in wireless communication for access control
JP2002159052A (ja) 2000-11-17 2002-05-31 Nec Kofu Ltd 指紋認証機能付き移動端末
US6871193B1 (en) 2000-11-29 2005-03-22 Verizon Corporate Services Group Method and system for partitioned service-enablement gateway with utility and consumer services
US7346778B1 (en) 2000-11-29 2008-03-18 Palmsource, Inc. Security method and apparatus for controlling the data exchange on handheld computers
DE60037898T2 (de) 2000-12-22 2009-01-22 Ford Global Technologies, LLC, Dearborn Fernsteuer- und Kommunikationssystem zur Anwendung in Fahrzeugen und Schlüsselanhängereinheit dafür
US20020091937A1 (en) 2001-01-10 2002-07-11 Ortiz Luis M. Random biometric authentication methods and systems
US7921297B2 (en) 2001-01-10 2011-04-05 Luis Melisendro Ortiz Random biometric authentication utilizing unique biometric signatures
JP2002207525A (ja) 2001-01-10 2002-07-26 Matsushita Electric Ind Co Ltd 指紋センサ付き携帯情報端末
US20020095588A1 (en) 2001-01-12 2002-07-18 Satoshi Shigematsu Authentication token and authentication system
US7124300B1 (en) 2001-01-24 2006-10-17 Palm, Inc. Handheld computer system configured to authenticate a user and power-up in response to a single action by the user
US6871784B2 (en) 2001-02-07 2005-03-29 Trijay Technologies International Corporation Security in mag-stripe card transactions
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20020122026A1 (en) 2001-03-01 2002-09-05 Bergstrom Dean Warren Fingerprint sensor and position controller
JP2002269046A (ja) 2001-03-09 2002-09-20 Sharp Corp 情報処理装置
TWI282941B (en) 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
US6848052B2 (en) 2001-03-21 2005-01-25 Activcard Ireland Limited High security personalized wireless portable biometric device
US6603462B2 (en) * 2001-03-21 2003-08-05 Multidigit, Inc. System and method for selecting functions based on a finger feature such as a fingerprint
US6877097B2 (en) 2001-03-21 2005-04-05 Activcard, Inc. Security access method and apparatus
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US20020141586A1 (en) 2001-03-29 2002-10-03 Aladdin Knowledge Systems Ltd. Authentication employing the bluetooth communication protocol
US6850147B2 (en) 2001-04-02 2005-02-01 Mikos, Ltd. Personal biometric key
US20020146157A1 (en) 2001-04-09 2002-10-10 Goodman Mitchell E. Fingerprint acquisition assembly using prism and camera
US6724370B2 (en) 2001-04-12 2004-04-20 International Business Machines Corporation Touchscreen user interface
US20040085300A1 (en) * 2001-05-02 2004-05-06 Alec Matusis Device and method for selecting functions based on intrinsic finger features
EP1257111A1 (de) 2001-05-08 2002-11-13 Siemens Schweiz AG Mobiles Terminal mit rückseitig angeordnetem Bedienfeld
US6832317B1 (en) 2001-05-10 2004-12-14 Advanced Micro Devices, Inc. Personal computer security mechanism
KR20020087665A (ko) 2001-05-15 2002-11-23 엘지전자 주식회사 개인휴대용 통신단말기의 분실모드에 따른 동작방법
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US6876757B2 (en) 2001-05-25 2005-04-05 Geometric Informatics, Inc. Fingerprint recognition system
JP2002358162A (ja) 2001-06-01 2002-12-13 Sony Corp 画像表示装置
US20020190960A1 (en) * 2001-06-15 2002-12-19 Shyh-Ren Kuo Method for controlling computer cursor based on identification of user fingerprint
US7203347B2 (en) 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
US6836843B2 (en) 2001-06-29 2004-12-28 Hewlett-Packard Development Company, L.P. Access control through secure channel using personal identification system
KR20030005535A (ko) * 2001-07-09 2003-01-23 엘지전자 주식회사 지문인식을 이용한 이동통신 단말기의 사용 제한 장치 및방법
US20030101348A1 (en) 2001-07-12 2003-05-29 Russo Anthony P. Method and system for determining confidence in a digital transaction
EP1422589A1 (en) 2001-07-27 2004-05-26 Avimir, LLC Method and device for entering a computer database password
US6757411B2 (en) 2001-08-16 2004-06-29 Liska Biometry Inc. Method and system for fingerprint encoding and authentication
WO2003017244A1 (en) * 2001-08-17 2003-02-27 Multidigit, Inc. System and method for selecting actions based on the identification of user's fingers
JP2003067343A (ja) 2001-08-23 2003-03-07 Toshiba Tec Corp 業務端末装置
US20030188183A1 (en) 2001-08-27 2003-10-02 Lee Lane W. Unlocking method and system for data on media
EP1293874A3 (en) 2001-09-06 2006-08-02 Nippon Telegraph and Telephone Corporation Authentication method, authentication system, and authentication token
US20030046557A1 (en) 2001-09-06 2003-03-06 Miller Keith F. Multipurpose networked data communications system and distributed user control interface therefor
JP2003085540A (ja) 2001-09-11 2003-03-20 Sony Corp ユーザインターフェース、認証装置、デバイス、携帯型情報端末
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US20060095369A1 (en) 2001-10-15 2006-05-04 Eyal Hofi Device, method and system for authorizing transactions
JP2003143290A (ja) 2001-10-30 2003-05-16 Sanyo Electric Co Ltd 携帯電話機
DE10153591A1 (de) 2001-11-02 2003-05-22 Rene Baltus Wiedererkennung einer Person durch die Erfassung und dem Vergleich der personentypischen Betätigungsdynamik an einem Joystick
US6735287B2 (en) 2001-11-16 2004-05-11 Sbc Technology Resources, Inc. Method and system for multimodal presence detection
US6985502B2 (en) 2001-11-19 2006-01-10 Hewlett-Packard Development Company, L.P. Time-division multiplexed link for use in a service area network
US8504652B2 (en) 2006-04-10 2013-08-06 Portulim Foundation Llc Method and system for selectively supplying media content to a user and media storage device for use therein
US8266212B2 (en) 2001-11-23 2012-09-11 Igt Game talk service bus
US7363593B1 (en) * 2001-11-30 2008-04-22 Versata Development Group, Inc. System and method for presenting information organized by hierarchical levels
US7137553B2 (en) 2001-12-31 2006-11-21 Digital Data Research Company Security clearance card, system and method of reading a security clearance card
US7394346B2 (en) 2002-01-15 2008-07-01 International Business Machines Corporation Free-space gesture recognition for transaction security and command processing
US6883709B2 (en) 2002-02-12 2005-04-26 Famous Horse, Inc. Biometric identification and security system associated with cash register
US6879243B1 (en) 2002-02-14 2005-04-12 Penco Products, Inc. Electronically-controlled locker system
JP2003298689A (ja) 2002-04-02 2003-10-17 Canon Inc 携帯電話
JP4022861B2 (ja) 2002-04-10 2007-12-19 日本電気株式会社 指紋認証システム、指紋認証方法及び指紋認証プログラム
US7111788B2 (en) * 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
US6980081B2 (en) 2002-05-10 2005-12-27 Hewlett-Packard Development Company, L.P. System and method for user authentication
US6853739B2 (en) 2002-05-15 2005-02-08 Bio Com, Llc Identity verification system
US7543156B2 (en) 2002-06-25 2009-06-02 Resilent, Llc Transaction authentication card
KR20040000954A (ko) 2002-06-26 2004-01-07 삼성전자주식회사 이동통신단말기에 있어서 지문인식 방향 선택 방법
US7243239B2 (en) 2002-06-28 2007-07-10 Microsoft Corporation Click passwords
US20040104268A1 (en) 2002-07-30 2004-06-03 Bailey Kenneth Stephen Plug in credit card reader module for wireless cellular phone verifications
KR20040025004A (ko) 2002-09-18 2004-03-24 주식회사 현대오토넷 지문이 조합된 비밀번호 인증시스템
FI20021682A (fi) 2002-09-20 2004-03-21 Nokia Corp Menetelmä laitteen lukitustilan avaamiseksi ja elektroninen laite
HK1062117A2 (en) 2002-09-25 2004-09-17 Univ Hong Kong Polytechnic Method of palm print identification using geometry, line and/or texture features
US20040229560A1 (en) 2002-10-10 2004-11-18 Maloney William C. Methods of tracking and verifying human assets
US7194105B2 (en) 2002-10-16 2007-03-20 Hersch Roger D Authentication of documents and articles by moiré patterns
JP2004151862A (ja) 2002-10-29 2004-05-27 Oki Electric Ind Co Ltd 来店受付システム並びにその来店受付装置およびそのプログラム
US6886101B2 (en) 2002-10-30 2005-04-26 American Express Travel Related Services Company, Inc. Privacy service
US7676748B1 (en) 2002-11-04 2010-03-09 Sun Microsystems, Inc. System graphics for security shield
JP2004157821A (ja) 2002-11-07 2004-06-03 Nec Fielding Ltd 認証システム
US6886096B2 (en) 2002-11-14 2005-04-26 Voltage Security, Inc. Identity-based encryption system
JP2004172851A (ja) 2002-11-19 2004-06-17 Mitsubishi Electric Corp 通信端末並びに撮影倍率の制御方法をコンピュータに実行させるプログラム
US7102617B2 (en) 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
US7116805B2 (en) 2003-01-07 2006-10-03 Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint verification device
US7542945B2 (en) 2003-01-15 2009-06-02 Sanmina-Sci Corporation Authentication device, system and methods
WO2004072899A1 (ja) 2003-02-13 2004-08-26 Nec Corporation 成り済まし検出装置、および成り済まし検出方法
KR20040076639A (ko) 2003-02-26 2004-09-03 에스케이텔레텍주식회사 지문인식을 이용하여 단축 다이얼링을 하기 위한 이동통신단말기 및 방법
US20040172562A1 (en) 2003-03-01 2004-09-02 Vladimir Berger System and method for identity recognition of an individual for enabling an access to a secured system
US20040198486A1 (en) * 2003-03-04 2004-10-07 Walker Jay S. Method and apparatus for determining and presenting outcomes at a gaming device
JP4296008B2 (ja) 2003-03-04 2009-07-15 日本信号株式会社 個人認証システム
JP2004297468A (ja) 2003-03-27 2004-10-21 Lg Electronics Inc リモコン装置
US20040196400A1 (en) 2003-04-07 2004-10-07 Stavely Donald J. Digital camera user interface using hand gestures
US7188308B2 (en) * 2003-04-08 2007-03-06 Thomas Weise Interface and method for exploring a collection of data
US20040201595A1 (en) 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
JP2004313459A (ja) 2003-04-16 2004-11-11 Seiko Epson Corp 指紋照合装置、電子機器及び指紋の照合方法
US20040250138A1 (en) 2003-04-18 2004-12-09 Jonathan Schneider Graphical event-based password system
US7274808B2 (en) * 2003-04-18 2007-09-25 Avago Technologies Ecbu Ip (Singapore)Pte Ltd Imaging system and apparatus for combining finger recognition and finger navigation
JP2004334788A (ja) 2003-05-12 2004-11-25 Minoru Ikeda 個人認証システム、認証装置、個人認証方法、プログラム、および、記録媒体
AU2003902422A0 (en) 2003-05-19 2003-06-05 Intellirad Solutions Pty. Ltd Access security system
US6888445B2 (en) 2003-05-20 2005-05-03 Bradley L. Gotfried Vehicle identification system
KR20070012570A (ko) 2003-05-21 2007-01-25 가부시키가이샤 히다치 하이테크놀로지즈 지문센서내장 휴대 단말장치
US7783892B2 (en) 2003-05-30 2010-08-24 Privaris, Inc. System and methods for assignation and use of media content subscription service privileges
JP2005004490A (ja) 2003-06-12 2005-01-06 Murata Mach Ltd 文書処理装置及びそのプログラム
JPWO2004111940A1 (ja) 2003-06-16 2006-07-27 よこはまティーエルオー株式会社 個人認証装置、及び個人認証装置を備えるシステム
US7474772B2 (en) * 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
US7057607B2 (en) 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
KR100613697B1 (ko) 2003-07-18 2006-08-21 학교법인연세대학교 손가락의 슬라이딩/롤링에 따른 지문영상획득방법
JP4551635B2 (ja) 2003-07-31 2010-09-29 ソニー株式会社 パイプライン処理システムおよび情報処理装置
JP2005056152A (ja) 2003-08-05 2005-03-03 Ricoh Co Ltd 電子投票システム、方法、プログラム、及び記録媒体
WO2005020190A2 (en) 2003-08-11 2005-03-03 Virtualblue, Llc Rectractable flexible digital display apparatus
US20050044387A1 (en) 2003-08-18 2005-02-24 Ozolins Helmars E. Portable access device
US20040230843A1 (en) 2003-08-20 2004-11-18 Wayne Jansen System and method for authenticating users using image selection
JP4633347B2 (ja) 2003-08-27 2011-02-16 ソニー株式会社 電子機器
DE60325514D1 (de) 2003-08-29 2009-02-05 Nokia Corp Ützten benutzeridentifikation und authentifikation
JP4086740B2 (ja) 2003-09-09 2008-05-14 日本電気株式会社 端末利用者監視システム
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
JP4495545B2 (ja) 2003-09-25 2010-07-07 パナソニック株式会社 不正使用防止装置及び方法
EP1521161A3 (en) 2003-09-25 2006-03-15 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for preventing unauthorized use and a device with a function of preventing unauthorized use
US7280677B2 (en) * 2003-10-10 2007-10-09 Authentec, Inc. Electronic device including fingerprint sensor and display having selectable menu items and associated methods
US7492472B2 (en) 2003-10-30 2009-02-17 Xerox Corporation Multimedia communications/collaboration hub
JP4448000B2 (ja) 2003-11-05 2010-04-07 キヤノン株式会社 情報送信装置および情報送信宛先指定方法および記憶媒体およびプログラム
JP4387764B2 (ja) 2003-11-10 2009-12-24 富士通株式会社 認証装置および認証システム
US7597250B2 (en) 2003-11-17 2009-10-06 Dpd Patent Trust Ltd. RFID reader with multiple interfaces
KR100580630B1 (ko) 2003-11-19 2006-05-16 삼성전자주식회사 적외선을 이용한 사람 식별 장치 및 방법
TW200517975A (en) 2003-11-20 2005-06-01 Lightuning Tech Inc Sweep-type fingerprint sensor device capable of guiding a finger in a fixed sweeping direction
US20050114686A1 (en) 2003-11-21 2005-05-26 International Business Machines Corporation System and method for multiple users to securely access encrypted data on computer system
JP4131229B2 (ja) 2003-11-25 2008-08-13 日本電気株式会社 折り畳み式携帯電話機及び折り畳み式携帯電話機のロック解除方法
JP2005175555A (ja) 2003-12-08 2005-06-30 Hitachi Ltd 携帯通信機器
CN1627317A (zh) 2003-12-12 2005-06-15 北京阳光奥森科技有限公司 利用主动光源获取人脸图像的方法
KR100554129B1 (ko) 2003-12-19 2006-02-20 노틸러스효성 주식회사 인체의 열정보를 이용한 개인인증장치와 그 방법
WO2005064447A2 (en) 2003-12-23 2005-07-14 Authentec, Inc. Electronic device with finger sensor for character entry and associated methods
JP4468896B2 (ja) 2004-01-13 2010-05-26 富士通株式会社 生体情報による認証装置
JP2005202578A (ja) 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置およびコミュニケーション方法
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
JP2005219630A (ja) 2004-02-05 2005-08-18 Pioneer Electronic Corp 操作制御装置、処理制御装置、操作制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
TWI231689B (en) 2004-02-27 2005-04-21 Htc Corp Handheld electronic device
KR100652624B1 (ko) 2004-03-02 2006-12-06 엘지전자 주식회사 이동통신단말기의 대기화면 표시방법
JP2005275488A (ja) 2004-03-23 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> 入力支援方法およびプログラム
US7693308B2 (en) 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US7542592B2 (en) 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
US7378939B2 (en) 2004-03-30 2008-05-27 Sengupta Uttam K Method and apparatus for providing proximity based authentication, security, and notification in a wireless system
KR100633184B1 (ko) * 2004-04-06 2006-10-12 엘지전자 주식회사 영상표시기기의 메뉴설정장치 및 방법
JP4059224B2 (ja) 2004-04-13 2008-03-12 株式会社デンソー 運転者の外観認識システム
US8175345B2 (en) * 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
WO2005106774A2 (en) 2004-04-23 2005-11-10 Validity Sensors, Inc. Methods and apparatus for acquiring a swiped fingerprint image
FR2869723A1 (fr) * 2004-04-29 2005-11-04 Thomson Licensing Sa Element de transition sans contact entre un guide d'ondes et une ligne mocroruban
JP4321350B2 (ja) 2004-05-14 2009-08-26 パナソニック株式会社 パラメタ推定方法、パラメタ推定装置および照合方法
JP2005324450A (ja) 2004-05-14 2005-11-24 Canon Inc 画像形成装置および情報処理装置およびジョブ表示制御方法およびコンピュータが読み取り可能なプログラムを格納した記憶媒体およびプログラム
JP2005339425A (ja) 2004-05-31 2005-12-08 Sanyo Electric Co Ltd 本人認証装置
US8684839B2 (en) 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US20060021003A1 (en) 2004-06-23 2006-01-26 Janus Software, Inc Biometric authentication system
TWI267789B (en) 2004-06-30 2006-12-01 Au Optronics Corp Transparent touch panel for recognizing fingerprint
JP2006018613A (ja) 2004-07-02 2006-01-19 Oki Electric Ind Co Ltd 自動取引装置
KR20060003689A (ko) 2004-07-07 2006-01-11 엘지전자 주식회사 지문인식 통신단말기의 메뉴 선택 장치 및 방법
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
US7328850B2 (en) 2004-08-12 2008-02-12 Codecard, Inc. Financial and similar identification cards and methods relating thereto
KR20060022001A (ko) 2004-09-06 2006-03-09 현대모비스 주식회사 카오디오 버튼 설치구조
JP2006072872A (ja) 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd 携帯型情報処理装置、情報処理装置の画面回転方法および合成データ回転方法
JP4699139B2 (ja) 2004-09-14 2011-06-08 富士フイルム株式会社 セキュリティシステム
JP2006085559A (ja) 2004-09-17 2006-03-30 Canon Inc 個人認証装置および個人認証方法および記憶媒体
US20060075250A1 (en) 2004-09-24 2006-04-06 Chung-Wen Liao Touch panel lock and unlock function and hand-held device
JP4266363B2 (ja) 2004-09-27 2009-05-20 日本開閉器工業株式会社 感圧式指紋センサ
JP4351982B2 (ja) 2004-10-07 2009-10-28 株式会社東芝 個人認証方法、装置及びプログラム
JP2006107366A (ja) 2004-10-08 2006-04-20 Fujitsu Ltd 生体情報入力装置,生体認証装置,生体情報処理方法,生体情報処理プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
DE502004006852D1 (de) 2004-10-11 2008-05-29 Swisscom Mobile Ag Identifizierungs- und/oder Authentifizierungsmethode anhand von Fingerabdrücken
JP4442385B2 (ja) 2004-10-13 2010-03-31 株式会社カシオ日立モバイルコミュニケーションズ 携帯端末装置およびプログラム
JP2006121334A (ja) 2004-10-20 2006-05-11 Vodafone Kk 情報通信端末及び通信管理システム
JP2006119920A (ja) 2004-10-21 2006-05-11 Matsushita Electric Ind Co Ltd 情報端末装置
KR20060038274A (ko) * 2004-10-29 2006-05-03 엘지전자 주식회사 지문 인식 센서 및 이를 이용한 이동 통신 단말기의 지문인식 장치
US20060093192A1 (en) 2004-11-03 2006-05-04 Bechtel J S Finger guide device
KR100682898B1 (ko) 2004-11-09 2007-02-15 삼성전자주식회사 적외선을 이용한 영상 장치 및 그의 영상 식별 방법
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
CN100568250C (zh) 2004-11-12 2009-12-09 皇家飞利浦电子股份有限公司 用于提供用户识别和认证的用户接口及其方法
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7138905B2 (en) 2004-11-18 2006-11-21 Honeywell International Inc. Controlled environment thermal image detection system and methods regarding same
JP2006146579A (ja) 2004-11-19 2006-06-08 Olympus Corp データ検索再生装置、情報入力記録装置、及び操作装置
JP2006157154A (ja) 2004-11-25 2006-06-15 Canon Inc 情報入力装置、カメラ
US20060115130A1 (en) 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US8224753B2 (en) 2004-12-07 2012-07-17 Farsheed Atef System and method for identity verification and management
US20060136734A1 (en) 2004-12-21 2006-06-22 Eastman Kodak Company Identification display device
JP2006189999A (ja) 2005-01-04 2006-07-20 Fujitsu Ltd セキュリティ管理方法、プログラム及び情報機器
JP2006191245A (ja) 2005-01-05 2006-07-20 Nec Corp ダイヤルロック機能認証装置及びその方法並びにそれを用いた携帯端末
KR100729280B1 (ko) 2005-01-08 2007-06-15 아이리텍 잉크 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
US8438400B2 (en) 2005-01-11 2013-05-07 Indigo Identityware, Inc. Multiple user desktop graphical identification and authentication
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
JP2006215705A (ja) 2005-02-02 2006-08-17 Sony Ericsson Mobilecommunications Japan Inc 情報通信装置及び情報通信システム、情報記録装置及び情報再生装置
US8145912B2 (en) 2005-03-01 2012-03-27 Qualcomm Incorporated System and method for using a visual password scheme
JP4702598B2 (ja) 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
JP4734980B2 (ja) 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP4696608B2 (ja) 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、携帯電話、及び被写体認証プログラム
US7561145B2 (en) * 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
US7810050B2 (en) * 2005-03-28 2010-10-05 Panasonic Corporation User interface system
JP4739787B2 (ja) 2005-03-28 2011-08-03 富士通株式会社 電子機器
US7725511B2 (en) 2005-03-31 2010-05-25 Intel Corporation Bio-metric input mechanism
JP2006303701A (ja) 2005-04-18 2006-11-02 Fujitsu Ltd 電子機器、その動作抑止制御方法及び動作抑止制御プログラム
JP2006301785A (ja) 2005-04-18 2006-11-02 Toshiba Corp 情報処理装置およびプログラム
JP2006301201A (ja) 2005-04-19 2006-11-02 Canon Inc 光学装置およびカメラシステム
US7590269B2 (en) 2005-04-22 2009-09-15 Microsoft Corporation Integrated control for navigation, authentication, power on and rotation
JP2006308375A (ja) 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd 赤外線利用型目位置検出装置
TWI267791B (en) 2005-05-13 2006-12-01 Lite On Semiconductor Corp Handheld device for acquiring fingerprint information
US7929946B2 (en) 2005-05-24 2011-04-19 Rathus Spencer A Remote subscriber identification (RSID) system and method
WO2006126310A1 (ja) 2005-05-27 2006-11-30 Sharp Kabushiki Kaisha 表示装置
US7810720B2 (en) 2005-06-13 2010-10-12 Robert Lovett Account payment using barcode information exchange
US7347361B2 (en) 2005-06-13 2008-03-25 Robert Lovett System, method and program product for account transaction validation
US20060284853A1 (en) * 2005-06-16 2006-12-21 Xm Satellite Radio, Inc. Context sensitive data input using finger or fingerprint recognition
US8370639B2 (en) 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
KR100713494B1 (ko) 2005-06-20 2007-04-30 삼성전자주식회사 카메라부를 이용한 사용자 인증 방법 및 이를 위한이동통신단말기
US20060289638A1 (en) 2005-06-27 2006-12-28 Schilling Donald L Voting verification system and method
JP2007011420A (ja) 2005-06-28 2007-01-18 Konami Co Ltd 認証装置及びこれを備えるゲーム装置
JP2007011667A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
US20070016958A1 (en) 2005-07-12 2007-01-18 International Business Machines Corporation Allowing any computer users access to use only a selection of the available applications
JP4774245B2 (ja) 2005-07-15 2011-09-14 日立オムロンターミナルソリューションズ株式会社 生体認証対応自動取引装置
JP2007036928A (ja) 2005-07-29 2007-02-08 Sharp Corp 携帯情報端末装置
JP4646734B2 (ja) 2005-08-17 2011-03-09 シャープ株式会社 携帯情報端末装置
JP2007058397A (ja) 2005-08-23 2007-03-08 Konica Minolta Holdings Inc 認証システム、登録システム及び証明用媒体
US20070061126A1 (en) * 2005-09-01 2007-03-15 Anthony Russo System for and method of emulating electronic input devices
WO2007029710A1 (ja) 2005-09-07 2007-03-15 Matsushita Electric Industrial Co., Ltd. 携帯処理装置
US20070287540A1 (en) * 2005-09-08 2007-12-13 Brahmandam Kiran Soft key hot spot activation system and method
EP1924944A4 (en) 2005-09-12 2012-11-07 Sand Box Technologies Inc SYSTEM AND METHOD FOR CONTROLLING THE DISTRIBUTION OF ELECTRONIC INFORMATION
US8090945B2 (en) 2005-09-16 2012-01-03 Tara Chand Singhal Systems and methods for multi-factor remote user authentication
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
JP2007097820A (ja) 2005-10-04 2007-04-19 Sumitomo Electric Ind Ltd 生体検査システムおよび生体検査方法
US7484173B2 (en) 2005-10-18 2009-01-27 International Business Machines Corporation Alternative key pad layout for enhanced security
KR100663437B1 (ko) 2005-11-01 2007-01-02 삼성전자주식회사 지문 인식 센서를 이용한 원격 입력 방법
JP2007128288A (ja) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
JP2007135149A (ja) 2005-11-14 2007-05-31 Nec Corp 移動携帯端末
US7868874B2 (en) 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
GB0523995D0 (en) 2005-11-25 2006-01-04 Ibm Method,system and computer program product for access control
JP2007148801A (ja) 2005-11-28 2007-06-14 Yamatake Corp 指紋照合装置
SG133415A1 (en) 2005-12-12 2007-07-30 Syed Mahtab Uddin Mahmood Antiphishing login techniques
TW200745970A (en) 2005-12-21 2007-12-16 Koninkl Philips Electronics Nv Biometric information detection using sweep-type imager
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4252994B2 (ja) 2005-12-26 2009-04-08 株式会社日立製作所 携帯電話機
JP2007172508A (ja) 2005-12-26 2007-07-05 Sony Corp 着脱式記憶装置及び認証方法
JP2007179213A (ja) 2005-12-27 2007-07-12 Kosugi Masami ネット機密情報管理システム
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
CN100999961A (zh) 2006-01-14 2007-07-18 姜仁忠 新科技密码锁及钥匙的设计方法
KR20070081773A (ko) 2006-02-13 2007-08-17 스마트 와이어레스 가부시키가이샤 적외선 얼굴 인증장치, 이를 구비하는 휴대 단말기 및보안장치
US20070208743A1 (en) 2006-02-14 2007-09-06 Narayan Sainaney System and Method For Searching Rights Enabled Documents
US20070204037A1 (en) 2006-02-27 2007-08-30 Microsoft Corporation Multiuser Web Service Sign-In
US7630522B2 (en) 2006-03-08 2009-12-08 Microsoft Corporation Biometric measurement using interactive display systems
JP4853063B2 (ja) 2006-03-15 2012-01-11 オムロン株式会社 利用者機器、通信機器、認証システム、認証方法、認証プログラムおよび記録媒体
KR100746874B1 (ko) * 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
CA2647194C (en) 2006-03-20 2016-08-16 Gerald R. Black Mobile communication device
JP4669423B2 (ja) * 2006-03-20 2011-04-13 富士通株式会社 電子機器、スクロール制御装置、およびプログラム
US20070226778A1 (en) 2006-03-22 2007-09-27 Jorg Pietruszka Bluetooth theft protection
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US9195428B2 (en) 2006-04-05 2015-11-24 Nvidia Corporation Method and system for displaying data from auxiliary display subsystem of a notebook on a main display of the notebook
KR100847532B1 (ko) 2006-04-06 2008-07-21 재단법인서울대학교산학협력재단 사용자의 행동 패턴 정보를 이용한 사용자 인증에 사용되는사용자 단말기 및 인증 장치
US20090258667A1 (en) 2006-04-14 2009-10-15 Nec Corporation Function unlocking system, function unlocking method, and function unlocking program
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
JP2007293628A (ja) 2006-04-25 2007-11-08 Toshiba Corp 情報処理装置
US9152241B2 (en) * 2006-04-28 2015-10-06 Zienon, Llc Method and apparatus for efficient data input
JP4177858B2 (ja) 2006-05-18 2008-11-05 株式会社カシオ日立モバイルコミュニケーションズ 指紋認証機能付き携帯端末装置及びプログラム
US20070277224A1 (en) 2006-05-24 2007-11-29 Osborn Steven L Methods and Systems for Graphical Image Authentication
US20070273658A1 (en) 2006-05-26 2007-11-29 Nokia Corporation Cursor actuation with fingerprint recognition
US8970502B2 (en) 2006-05-26 2015-03-03 Touchtable Ab User identification for multi-user touch screens
WO2007140806A1 (en) 2006-06-09 2007-12-13 Nokia Corporation Fingerprint activated quick function selection
JP4185533B2 (ja) 2006-06-15 2008-11-26 株式会社カシオ日立モバイルコミュニケーションズ 認証機能付き携帯端末装置及びプログラム
KR101277256B1 (ko) * 2006-06-16 2013-07-05 삼성전자주식회사 사용자 인터페이스를 위한 장치 및 방법
KR100856203B1 (ko) * 2006-06-27 2008-09-03 삼성전자주식회사 지문 인식 센서를 이용한 사용자 입력 장치 및 방법
US9235733B2 (en) * 2006-08-11 2016-01-12 J. Douglas Birdwell Mobile biometrics information collection and identification
US8095634B2 (en) 2006-08-15 2012-01-10 Hewlett-Packard Development Company, L.P. Device management system for mobile devices that supports multiple-point transport
US7849321B2 (en) 2006-08-23 2010-12-07 Authernative, Inc. Authentication method of random partial digitized path recognition with a challenge built into the path
US7978091B2 (en) 2006-08-24 2011-07-12 Navisense Method and device for a touchless interface
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
US20080069412A1 (en) 2006-09-15 2008-03-20 Champagne Katrina S Contoured biometric sensor
US8452978B2 (en) 2006-09-15 2013-05-28 Identity Metrics, LLC System and method for user authentication and dynamic usability of touch-screen devices
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
TWM317045U (en) 2006-10-20 2007-08-11 Techine Technology Co Ltd Mobile apparatus using human face features identification as access control
US8280118B2 (en) 2006-11-21 2012-10-02 Hitachi, Ltd. Biometrics authentication device and portable terminal
JP4946383B2 (ja) 2006-11-22 2012-06-06 富士通株式会社 情報処理装置、情報処理装置の異常検出方法及び制御プログラム
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8607359B2 (en) 2007-01-22 2013-12-10 Dell Products L.P. Removable hard disk with front panel input
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
JP4679529B2 (ja) * 2007-01-31 2011-04-27 Necカシオモバイルコミュニケーションズ株式会社 入力装置、移動体通信端末、および、プログラム
CN101035335A (zh) 2007-02-13 2007-09-12 中电通信科技有限责任公司 一种手机私密保护方法
US20080235627A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Natural interaction by flower-like navigation
US8111879B2 (en) 2007-04-05 2012-02-07 Honeywell International Inc. Face and iris imaging system and method
US7941834B2 (en) 2007-04-05 2011-05-10 Microsoft Corporation Secure web-based user authentication
WO2008138093A1 (en) 2007-05-11 2008-11-20 Philippe Stanislas Zaborowski Touch - sensitive motion device
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
CN101075174A (zh) * 2007-06-15 2007-11-21 魏新成 通过电脑屏幕左边缘的扩展任务栏进行功能操作的方法
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8171432B2 (en) * 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
US8733632B2 (en) 2007-06-22 2014-05-27 Visa U.S.A. Inc. Mobile subscriber device for financial transaction tokens
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US7835999B2 (en) 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
US20090006846A1 (en) 2007-06-27 2009-01-01 Apple Inc. Bluetooth device as security access key
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8023700B2 (en) * 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US20090037742A1 (en) 2007-07-31 2009-02-05 International Business Machines Corporation Biometric authentication device, system and method of biometric authentication
US20090043180A1 (en) 2007-08-08 2009-02-12 Nonin Medical, Inc. Sensor and system providing physiologic data and biometric identification
US20080042979A1 (en) 2007-08-19 2008-02-21 Navid Nikbin Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key
US20090063352A1 (en) 2007-08-29 2009-03-05 Lance Kaufman Methods and systems for monetary exchange and transfer
US20090058595A1 (en) * 2007-08-30 2009-03-05 Atmel Corporation Biometric Control Device
JP5172847B2 (ja) 2007-09-05 2013-03-27 パナソニック株式会社 電子機器
US20090067685A1 (en) 2007-09-07 2009-03-12 Authentec, Inc. Finger sensing apparatus using template watermarking and associated methods
KR102559017B1 (ko) 2007-09-24 2023-07-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
CN101415075A (zh) * 2007-10-16 2009-04-22 佛山普立华科技有限公司 具指纹识别功能的数码相机及其使用方法
US8358200B2 (en) * 2007-10-23 2013-01-22 Hewlett-Packard Development Company Method and system for controlling computer applications
US20090125296A1 (en) * 2007-11-08 2009-05-14 Popcap Games, Inc. Methods and systems for using domain specific rules to identify words
JP4744503B2 (ja) 2007-11-30 2011-08-10 シャープ株式会社 操作処理装置
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
KR101387527B1 (ko) 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
US8881049B2 (en) * 2007-12-14 2014-11-04 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
US8244590B2 (en) * 2007-12-21 2012-08-14 Glyde Corporation Software system for decentralizing ecommerce with single page buy
US20090169070A1 (en) * 2007-12-28 2009-07-02 Apple Inc. Control of electronic device by using a person's fingerprints
US20090176565A1 (en) 2008-01-07 2009-07-09 Bally Gaming, Inc. Gaming devices for biometrically identifying a player
KR100817767B1 (ko) 2008-01-14 2008-03-31 알서포트 주식회사 아이콘 암호를 이용한 인증방법
JP2009171234A (ja) 2008-01-16 2009-07-30 Sony Ericsson Mobilecommunications Japan Inc 通信端末、通信システム及び通信方法
US8803797B2 (en) * 2008-01-18 2014-08-12 Microsoft Corporation Input through sensing of user-applied forces
US9552155B2 (en) 2008-02-04 2017-01-24 Microsoft Technology Liecsnsing, LLC Dynamic soft keyboard
US9785330B1 (en) * 2008-02-13 2017-10-10 Apple Inc. Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length
US20090224874A1 (en) * 2008-03-05 2009-09-10 International Business Machines Corporation Apparatus, system, and method for providing authentication and activation functions to a computing device
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US7486810B1 (en) 2008-04-24 2009-02-03 International Business Machines Corporation On-type biometrics fingerprint soft keyboard
JP5173566B2 (ja) * 2008-05-07 2013-04-03 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US9035891B2 (en) * 2008-05-16 2015-05-19 International Business Machines Corporation Multi-point touch-sensitive sensor user interface using distinct digit identification
US8345014B2 (en) * 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8482381B2 (en) * 2008-07-31 2013-07-09 Palm, Inc. Multi-purpose detector-based input feature for a computing device
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
JP5317590B2 (ja) 2008-09-01 2013-10-16 キヤノン株式会社 ジョブ処理装置及びその制御方法、並びに記憶媒体及びプログラム
KR101571723B1 (ko) 2008-09-02 2015-11-25 엘지전자 주식회사 단말기 및 그 제어 방법
CN101382977B (zh) * 2008-09-18 2010-09-01 杭州晟元芯片技术有限公司 基于生物认证启闭计算机软硬件系统的控制装置及方法
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
US20100076823A1 (en) 2008-09-24 2010-03-25 Yasha Feldman Voting system and method of voting
WO2010051563A1 (en) * 2008-11-03 2010-05-06 Novarra, Inc. Methods and systems for providing navigation bars in a browser
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US9477396B2 (en) * 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
KR20100059698A (ko) * 2008-11-25 2010-06-04 삼성전자주식회사 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체
EP2626805B1 (en) 2008-12-01 2017-10-25 BlackBerry Limited Simplified biometric character sequence entry
KR20100066036A (ko) * 2008-12-09 2010-06-17 삼성전자주식회사 휴대 단말기 운용 방법 및 장치
JP5212640B2 (ja) 2008-12-18 2013-06-19 シャープ株式会社 インターフェイス装置、およびgui構成方法
CN101770299B (zh) * 2008-12-26 2013-11-06 深圳富泰宏精密工业有限公司 导航键功能实现系统及方法
US20100180136A1 (en) 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
US20100201636A1 (en) * 2009-02-11 2010-08-12 Microsoft Corporation Multi-mode digital graphics authoring
US20100208953A1 (en) 2009-02-17 2010-08-19 Validity Sensors, Inc. Illuminated Fingerprint Sensor and Method
US8605960B2 (en) * 2009-03-02 2013-12-10 Avago Technologies General Ip (Singapore) Pte. Ltd. Fingerprint sensing device
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR101549557B1 (ko) * 2009-03-10 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US20100237991A1 (en) * 2009-03-17 2010-09-23 Prabhu Krishnanand Biometric scanning arrangement and methods thereof
KR101549558B1 (ko) 2009-03-18 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8605961B2 (en) 2009-03-30 2013-12-10 Motorola Mobility Llc Method and apparatus for determining a physiological parameter using a fingerprint sensor on a portable electronic device
KR20100111121A (ko) 2009-04-06 2010-10-14 뮤텔테크놀러지 주식회사 무선 홈네트워크 시스템 및 그 구성 방법
US8300023B2 (en) 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
US20120019356A1 (en) 2009-04-29 2012-01-26 Eric Gagneraud Fingerprint scanner
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
KR20100134948A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 터치스크린을 구비하는 장치의 메뉴 표시 방법
US8407613B2 (en) * 2009-07-13 2013-03-26 Apple Inc. Directory management on a portable multifunction device
JP2011022687A (ja) 2009-07-14 2011-02-03 Fujitsu Ltd 認証機能を有する電子機器および認証方法
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
US20110039602A1 (en) * 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
JP5371626B2 (ja) * 2009-08-18 2013-12-18 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP2011048523A (ja) 2009-08-26 2011-03-10 Kyocera Corp 携帯無線端末
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US8413065B2 (en) * 2009-09-07 2013-04-02 Qualcomm Incorporated User interface methods for ending an application
CN102687139B (zh) * 2009-09-08 2015-09-09 意大利电信股份公司 探索数字信息内容的目录的方法
JP5589326B2 (ja) 2009-09-08 2014-09-17 ヤマハ株式会社 電子音楽装置およびその制御方法を実現するためのプログラム
CA2775007A1 (en) * 2009-09-23 2011-03-31 Dingnan Han Method and interface for man-machine interaction
KR101648747B1 (ko) 2009-10-07 2016-08-17 삼성전자 주식회사 복수의 터치 센서를 이용한 ui 제공방법 및 이를 이용한 휴대 단말기
KR101640464B1 (ko) * 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
US8581847B2 (en) * 2009-10-29 2013-11-12 Pixart Imaging Inc. Hybrid pointing device
US9336428B2 (en) * 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
KR101649638B1 (ko) 2009-11-26 2016-08-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP2360665A3 (en) * 2009-11-26 2012-03-28 LG Electronics Mobile terminal and control method thereof
US20110138313A1 (en) * 2009-12-03 2011-06-09 Kevin Decker Visually rich tab representation in user interface
US8433110B2 (en) 2009-12-11 2013-04-30 Sonavation, Inc. Pulse-rate detection using a fingerprint sensor
KR101604843B1 (ko) * 2009-12-30 2016-03-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9785341B2 (en) * 2009-12-31 2017-10-10 Verizon Patent And Licensing Inc. Inter-application navigation apparatuses, systems, and methods
US8862576B2 (en) * 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
KR101631958B1 (ko) * 2010-01-14 2016-06-20 엘지전자 주식회사 입력 장치 및 이를 구비하는 이동 단말기
US8581842B2 (en) * 2010-01-19 2013-11-12 Avaya Inc. Detection of a rolling motion or sliding motion of a body part on a surface
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110285648A1 (en) 2010-01-22 2011-11-24 Lester Ludwig Use of fingerprint scanning sensor data to detect finger roll and pitch angles
US8677268B2 (en) * 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
KR101690786B1 (ko) * 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
KR20110103598A (ko) 2010-03-15 2011-09-21 주식회사 엘지유플러스 단말기의 잠금 해제 시스템 및 방법
WO2011125905A1 (ja) 2010-03-31 2011-10-13 シャープ株式会社 テレビ受信機の動作モード自動設定装置、動作モード自動設定装置を備えたテレビ受信機、動作モード自動設定方法
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
KR101678812B1 (ko) * 2010-05-06 2016-11-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8856682B2 (en) * 2010-05-11 2014-10-07 AI Squared Displaying a user interface in a dedicated display area
US20110287741A1 (en) * 2010-05-18 2011-11-24 Prabhu Krishnanand Secure application control in mobile terminal using biometric sensor
EP2388734A1 (en) 2010-05-21 2011-11-23 Research In Motion Limited Fingerprint scanning with a camera
US20110296351A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
WO2011153623A2 (en) * 2010-06-08 2011-12-15 Aastra Technologies Limited Method and system for video communication
CN201765630U (zh) 2010-06-28 2011-03-16 杭州晟元芯片技术有限公司 一种基于指纹认证的支付装置
US8972903B2 (en) * 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US9483175B2 (en) * 2010-07-26 2016-11-01 Apple Inc. Device, method, and graphical user interface for navigating through a hierarchy
GB2496080A (en) * 2010-07-29 2013-05-01 Ultra Scan Corp Device and method of controlling a computer using centroids
US20120030624A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
DE102010036906A1 (de) * 2010-08-06 2012-02-09 Tavendo Gmbh Konfigurierbares Pie-Menü
EP2603844B1 (en) * 2010-08-12 2020-05-20 Google LLC Finger identification on a touchscreen
US9626099B2 (en) * 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
WO2012022999A1 (en) * 2010-08-20 2012-02-23 Sony Ericsson Mobile Communications Ab Method for an integrated scrollbar options menu and related device and computer program product
KR20120018685A (ko) 2010-08-23 2012-03-05 주식회사 팬택 복수 사용자의 입력을 인식할 수 있는 단말기 및 그 제어방법
US8311514B2 (en) 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
JP5615642B2 (ja) 2010-09-22 2014-10-29 京セラ株式会社 携帯端末、入力制御プログラム及び入力制御方法
EP2434368B1 (en) * 2010-09-24 2018-08-01 BlackBerry Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
US9684444B2 (en) * 2010-09-24 2017-06-20 Blackberry Limited Portable electronic device and method therefor
CN102870076A (zh) * 2010-09-24 2013-01-09 捷讯研究有限公司 便携式电子设备及其控制方法
KR101741519B1 (ko) 2010-09-30 2017-06-01 삼성전자주식회사 3d 안경 및 그의 제어 방법
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
US20120086629A1 (en) * 2010-10-07 2012-04-12 Thoern Ola Electronic device having movement-based user input and method
US20120092324A1 (en) 2010-10-18 2012-04-19 Qualcomm Mems Technologies, Inc. Touch, handwriting and fingerprint sensor with elastomeric spacer layer
WO2012053875A2 (ko) 2010-10-23 2012-04-26 Kim Nam Hyun 지문 정보를 통한 데이터 송신 수신 장치 및 시스템
US8564314B2 (en) 2010-11-02 2013-10-22 Atmel Corporation Capacitive touch sensor for identifying a fingerprint
EP2641155B1 (en) 2010-11-18 2019-07-31 Google LLC Orthogonal dragging on scroll bars
US20120127179A1 (en) * 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface
US9201539B2 (en) * 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
KR20120074490A (ko) * 2010-12-28 2012-07-06 삼성전자주식회사 휴대 단말기의 메뉴 표시 방법 및 장치
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9310940B2 (en) * 2011-01-17 2016-04-12 Pixart Imaging Inc. Capacitive touchscreen or touch panel with fingerprint reader
US8291349B1 (en) * 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
JP2015039084A (ja) 2011-02-28 2015-02-26 シャープ株式会社 画像表示装置セット
US20120226979A1 (en) * 2011-03-04 2012-09-06 Leica Camera Ag Navigation of a Graphical User Interface Using Multi-Dimensional Menus and Modes
US8904305B2 (en) * 2011-03-11 2014-12-02 Google Inc. Automatically hiding controls
US20120266079A1 (en) * 2011-04-18 2012-10-18 Mark Lee Usability of cross-device user interfaces
US20120268485A1 (en) * 2011-04-22 2012-10-25 Panasonic Corporation Visualization of Query Results in Relation to a Map
US8938101B2 (en) * 2011-04-26 2015-01-20 Sony Computer Entertainment America Llc Apparatus, system, and method for real-time identification of finger impressions for multiple users
US20120280927A1 (en) * 2011-05-04 2012-11-08 Ludwig Lester F Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems
US20120297324A1 (en) * 2011-05-18 2012-11-22 Microsoft Corporation Navigation Control Availability
KR101250250B1 (ko) * 2011-05-18 2013-04-03 한국과학기술연구원 콘텐츠 표시 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN102281539B (zh) * 2011-08-29 2014-10-29 惠州Tcl移动通信有限公司 移动终端及其应用程序登录方法
US9348364B2 (en) * 2011-09-09 2016-05-24 Facebook, Inc. Content scrolling and transitioning using touchpad input
US9779112B2 (en) * 2011-09-12 2017-10-03 Here Global B.V. Method and apparatus for providing list-based exploration of mapping data
US8610684B2 (en) * 2011-10-14 2013-12-17 Blackberry Limited System and method for controlling an electronic device having a touch-sensitive non-display area
US8711116B2 (en) * 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad
KR101160681B1 (ko) 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device
US8836472B2 (en) * 2011-11-23 2014-09-16 Blackberry Limited Combining navigation and fingerprint sensing
US8572515B2 (en) * 2011-11-30 2013-10-29 Google Inc. Turning on and off full screen mode on a touchscreen
US20130173925A1 (en) * 2011-12-28 2013-07-04 Ester Yen Systems and Methods for Fingerprint-Based Operations
US8890825B2 (en) * 2012-02-20 2014-11-18 Nokia Corporation Apparatus and method for determining the position of user input
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
US9817568B2 (en) * 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
TW201339917A (zh) * 2012-03-30 2013-10-01 Hon Hai Prec Ind Co Ltd 用於電子裝置中的操控方法及系統
US9348987B2 (en) * 2012-04-19 2016-05-24 Apple Inc. Electronic device including finger-operated input device based biometric matching and related methods
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
KR20130136173A (ko) * 2012-06-04 2013-12-12 삼성전자주식회사 지문 기반 단축키를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US9152842B2 (en) * 2012-06-29 2015-10-06 Apple Inc. Navigation assisted fingerprint enrollment
US8464181B1 (en) * 2012-07-03 2013-06-11 Google Inc. Floor selection on an interactive digital map
US9201585B1 (en) * 2012-09-17 2015-12-01 Amazon Technologies, Inc. User interface navigation gestures
US9141259B2 (en) * 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
US9218544B2 (en) 2013-02-01 2015-12-22 Apple Inc. Intelligent matcher based on situational or spatial orientation
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
KR102217858B1 (ko) 2013-11-13 2021-02-19 삼성전자주식회사 지문 인증 방법과 이를 수행하는 지문 인증 장치 및 이동 단말기
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management
KR102139795B1 (ko) 2014-12-15 2020-07-31 삼성전자주식회사 생채 특징 패턴을 업데이트하는 방법 및 이를 위한 전자 장치
EP3089064A1 (en) 2015-04-08 2016-11-02 LG Electronics Inc. Mobile terminal and method for controlling the same
US9904409B2 (en) 2015-04-15 2018-02-27 Samsung Electronics Co., Ltd. Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same
EP3208733B1 (en) 2016-02-19 2020-07-01 Sony Corporation Terminal device, method, and program
GB2550131A (en) * 2016-05-09 2017-11-15 Web Communications Ltd Apparatus and methods for a user interface
DK179411B1 (en) 2016-09-06 2018-06-06 Apple Inc Devices and methods for processing and rendering touch inputs unambiguous using intensity thresholds based on a prior input intensity
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
CN110020518A (zh) 2018-01-10 2019-07-16 敦泰电子有限公司 一种基于指纹识别键的终端控制方法、装置及终端
EP3939375A4 (en) * 2019-03-12 2022-12-14 Omnifi Inc. FLEXIBLE AND EXTREMELY LOW COST WIRELESS DEPLOYMENT SYSTEM AND METHOD
KR102646536B1 (ko) 2019-04-25 2024-03-13 삼성전자주식회사 전자 장치 및 전자 장치에서 사용자 입력에 기반한 생체 인증 및 지능형 에이전트 기능 수행 방법
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Also Published As

Publication number Publication date
AU2018204174A1 (en) 2018-06-28
WO2013173838A2 (en) 2013-11-21
US20150135108A1 (en) 2015-05-14
CN106133748A (zh) 2016-11-16
US11989394B2 (en) 2024-05-21
CN111176516A (zh) 2020-05-19
EP2850510A2 (en) 2015-03-25
AU2018204174B2 (en) 2019-11-07
US20220066604A1 (en) 2022-03-03
KR101710771B1 (ko) 2017-02-27
JP2017062800A (ja) 2017-03-30
AU2020200397A1 (en) 2020-02-13
CN111176516B (zh) 2023-10-20
AU2020200397B2 (en) 2021-03-11
JP6023879B2 (ja) 2016-11-09
CN111178332A (zh) 2020-05-19
HK1206452A1 (en) 2016-01-08
JP2020198105A (ja) 2020-12-10
US11209961B2 (en) 2021-12-28
JP6360866B2 (ja) 2018-07-18
JP2015520456A (ja) 2015-07-16
CN111310619B (zh) 2021-06-04
CN106133748B (zh) 2020-01-31
KR20150021943A (ko) 2015-03-03
AU2016219716A1 (en) 2016-09-15
AU2013262488A1 (en) 2014-12-18
JP7345442B2 (ja) 2023-09-15
BR112014028774A2 (pt) 2017-06-27
CN111310619A (zh) 2020-06-19
JP2018200696A (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
US11989394B2 (en) Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11126704B2 (en) Authenticated device used to unlock another device
US20220100841A1 (en) Authenticated device used to unlock another device
US11468162B2 (en) Device, method, and graphical user interface for managing authentication credentials for user accounts
US11144624B2 (en) Secure login with authentication based on a visual representation of data

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/05/2013, OBSERVADAS AS CONDICOES LEGAIS