BR112014027343B1 - Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada - Google Patents

Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada Download PDF

Info

Publication number
BR112014027343B1
BR112014027343B1 BR112014027343-0A BR112014027343A BR112014027343B1 BR 112014027343 B1 BR112014027343 B1 BR 112014027343B1 BR 112014027343 A BR112014027343 A BR 112014027343A BR 112014027343 B1 BR112014027343 B1 BR 112014027343B1
Authority
BR
Brazil
Prior art keywords
users
touch
eyes
physically present
user
Prior art date
Application number
BR112014027343-0A
Other languages
English (en)
Other versions
BR112014027343A2 (pt
Inventor
Chris Norden
Original Assignee
Sony Computer Entertainment America Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment America Llc filed Critical Sony Computer Entertainment America Llc
Publication of BR112014027343A2 publication Critical patent/BR112014027343A2/pt
Publication of BR112014027343B1 publication Critical patent/BR112014027343B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

método para o recebimento de entrada por um dispositivo sensível ao toque, meio de armazenamento não transitório legível por computador e sistema de detecção de entrada. um sistema determina que usuário de vários usuários forneceram dados através de um único dispositivo de entrada. o sistema de computação pode incluir um mecanismo para captura de imagens de um ou mais usuários. as imagens podem ser processadas para determinar qual usuário forneceu uma entrada usando o dispositivo de entrada. por exemplo, as imagens podem ser processadas para identificar cada cabeça e olhos dos usuários e determinar o ponto de foco para os olhos de cada usuário. o usuário que tem os olhos focados no dispositivo de entrada é identificado como fornecendo a entrada. em modalidades onde o mecanismo de entrada pode ser uma tela de toque, o usuário com olhos focados na porção de tela de toque que foi tocada é identificado para fornecer a entrada.

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[001] O presente pedido reivindica o benefício de prioridade do Pedido de Patente U.S. número 13/464,703 depositado em 04 de maio de 2012, a divulgação do qual é aqui incorporada por referência.
FUNDAMENTOS DA INVENÇÃO Campo da Invenção
[002] A presente invenção refere-se geralmente para sistemas de processamento de entrada e mais particularmente para o processamento de entrada de uma pluralidade de usuários através de processamento de imagem.
Descrição do Estado da Técnica
[003] Aplicações de sistema de computação interagem com os usuários recebendo entrada do usuário, o processamento de entrada, e fornecendo um resultado. Como sistemas tornaram-se mais avançados e mais pessoas abraçam a tecnologia, aplicativos evoluíram para envolver vários usuários simultaneamente. Vários usuários podem interagir com sistemas de computação ao mesmo tempo, e os usuários podem fornecer a saída que se relacionam com um usuário específico. Por exemplo, dois usuários podem usar controladores de jogo para jogar um jogo de computador que permite aos usuários competir uns contra os outros durante uma sessão de jogo. Cada usuário fornece uma entrada com um controlador do respectivo jogo.
[004] A tecnologia evoluiu para permitir que diferentes tipos de interação com sistemas de computação. Ao invés de receber entrada de um controlador de jogo para cada usuário, por exemplo, alguns sistemas de computação utilizam um único mecanismo de entrada como uma tela sensível ao toque. Quando apenas um usuário está conectado com o dispositivo de computação, o único mecanismo de entrada recebe entrada do usuário único. Quando vários usuários se envolvem o sistema de computação com um mecanismo único de entrada, é muito difícil determinar qual usuário está fornecendo a entrada.
[005] Há uma necessidade na técnica de um sistema que permite que vários usuários facilmente e eficientemente interagir com um dispositivo de computação usando um mecanismo de entrada único.
RESUMO DA INVENÇÃO
[006] Em uma modalidade, desempenho, funcionalidade, conteúdo ou relevância do negócio. Baseado em técnicas de aprendizagem, monitoramento eficiente e gerenciamento de recursos, o atual sistema pode capturar dados para e fornecer informações de análise para valores atípicos de um aplicativo da web com sobrecarga muito baixa.
[007] Em uma modalidade, a entrada pode ser recebida primeiro identificando uma pluralidade de usuários fisicamente na presença do dispositivo. Uma entrada pode ser recebida pelo dispositivo a partir de um primeiro utilizador de uma pluralidade de utilizadores fisicamente presentes. Um estado físico pode ser detectado de uma pluralidade de usuários associados a entrada.
[008] Em uma modalidade, um sistema para a detecção de entrada pode incluir um dispositivo de vídeo, uma câmera, um processador e módulos armazenados na memória e executável pelo processador. A câmera pode capturar dados de imagem colorida e fornecer os dados de imagem para o processador. Um módulo de detecção de recurso é executável para detectar uma característica física de um usuário. Um módulo de detecção de foco de usuário detecta o ponto de foco dos olhos do usuário. Um módulo de processamento de entrada recebe e processa a entrada de um usuário.
BREVE DESCRIÇÃO DAS FIGURAS
[009] A Figura 1 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um console de computação.
[0010] A Figura 2 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um computador tablet.
[0011] A Figura 3 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um dispositivo móvel.
[0012] A Figura 4 é um dispositivo de computação exemplar com mecanismo de detecção do usuário.
[0013] A Figura 5 é um conjunto exemplar de módulos de softwareexecutável.
[0014] A Figura 6 é um fluxograma de um método exemplar para a identificação de entrada de uma pluralidade de usuários.
[0015] As Figuras 7A-7B são exemplares imagens dos olhos do usuário.
[0016] A Figura 8 é um diagrama de blocos de um exemplar dispositivo de computação que recebe entrada de vários usuários.
[0017] A Figura 9 é um diagrama de blocos de um sistema exemplar para a implementação de um dispositivo de computação.
DESCRIÇÃO DETALHADA
[0018] A modalidades da invenção determina qual usuário das entradas fornecida por vários usuários através de um único dispositivo de entrada. O sistema de computação pode incluir um mecanismo para captura de imagens de um ou mais usuários. As imagens podem ser processadas para determinar qual usuário forneceu uma entrada usando o dispositivo de entrada. Por exemplo, as imagens podem ser processadas para identificar cada cabeça e olhos dos usuários e determinar o ponto de foco para os olhos de cada usuário. O usuário que tem os olhos focados no dispositivo de entrada é identificado como fornecendo a entrada. Em modalidades onde o mecanismo de entrada pode ser uma tela de toque, o usuário com olhos focados na porção de tela de toque que foi tocada é identificado para fornecer a entrada.
[0019] As modalidades da invenção podem ser usadas com vários tipos de dispositivos de computação. A Figura 1 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um console de computação. Um console de computação 125 fornece dados de imagem para exibir para a tela de toque 120. A tela de toque 120 pode receber entrada por toque e fornecer o console de entrada de computação 125. O console de computação pode receber a entrada, o processo de entrada e criar novos dados de imagem e fornecer os dados de imagem para tela de toque 120. Qualquer um dos usuários 105 e 110 podem fornecer entrada para console de computação 125, por exemplo pelo toque da tela de toque 120. A presente invenção é capaz de determinar qual usuário tocou a tela de toque e a entrada do processo em conformidade. A Figura 2 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um computador tablet, 130. Os usuários 105 e 110 podem cada um fornecer entrada de para computador tablet 130 usando uma tela de toque do tablet. A modalidades da invenção podem determinar qual entrada de usuários 105 e 110 fornecidos ao computador tablet 130 e a entrada do processo em conformidade. A Figura 3 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um dispositivo móvel. Os usuários 105 e 110 podem cada um fornecer a entrada para o dispositivo móvel 140 através da tela de toque ou outra entrada. A presente invenção pode determinar qual usuário fornecido do dispositivo 140 através da entrada para o celular e a entrada de processo para aquele usuário.
[0020] A Figura 4 é um exemplar dispositivo de computação com mecanismo de detecção 45. O mecanismo de detecção 405 pode ser usado com console de computação, computador tablet, ou qualquer outro dispositivo. Mecanismo de detecção de usuário inclui câmera colorida 410 e câmera infravermelho (IV) 415. A câmera colorida 410 captura imagens de uma área 420 nas proximidades do dispositivo de computação. As imagens podem ser processadas para identificar usuários, características físicas dos usuários, e um estado das características físicas. Por exemplo, imagens de dois jogadores capturada por câmera colorida 410 podem ser processadas para identificar dois usuários dentro de uma área 420, a característica física de cada usuário incluindo a cabeça e os olhos do usuário, e o estado dos olhos de cada usuário de cada tal que onde cada usuário está focando seus olhos. Um sistema de imagem IV 415 pode também ser utilizado para capturar e processar imagens. O sistema de imagem IR 415 pode ser utilizado em condições de luz fraca para capturar imagens IV da área 425. As imagens IV podem ser processadas para identificar um número de usuários, características físicas dos usuários, e estados das características similares ao processo de processamento de imagem de câmera colorida.
[0021] A Figura 5 é um conjunto exemplar de módulos de software executável. Os módulos podem ser executados por um processador para implementar vários aspectos da invenção aqui descritos. Um módulo de detecção de características 520 detecta características em imagens de um usuário. Por exemplo, o módulo de detecção de recurso pode receber uma imagem, detectar os contornos de um rosto humano e identificar os olhos dentro de um rosto. O módulo 520 pode ter modelo de uma ou mais faces para comparar com partes das imagens recebidas para identificar um rosto humano. O modelo pode ser armazenado no módulo de biblioteca de recurso 540. Em algumas modalidades, módulo de detecção de recurso 540 pode detectar movimento entre duas ou mais imagens consecutivas e usar a mudança na coloração de pixel para detectar usuários. Uma vez que uma cabeça de usuário é detectada, o módulo de detecção de recurso analisa características dentro da cabeça para detectar os olhos do usuário. Os olhos podem ser identificados através da detecção de características tais como um nariz que estão perto dos olhos, determinando que os olhos do usuário são uma certa distância abaixo do topo da cabeça do usuário, ou realizar outros algoritmos que são geralmente conhecidos na arte. Além de características físicas, outras características podem ser determinadas, bem como, como por exemplo a distância que um usuário está longe do dispositivo de computação. Em algumas modalidades, se uma pessoa detectada é maior que uma certa distância limite do dispositivo de computação, o usuário não será considerado um usuário capaz de fornecer a entrada.
[0022] O módulo de foco do usuário 510 pode analisar imagens de olho de um usuário para determinar onde o usuário está focando. A frente de um olho humano inclui uma pupila negra, uma íris colorida ao redor da pupila e a esclerótica branca ao redor da íris. Um dispositivo de computação pode analisar a área e a localização da esclerótica para determinar se um usuário está focando, baixo, esquerda e direita. Por exemplo, quando os olhos do usuário concentram-se em um objeto à sua direita, uma imagem capturada dos olhos do usuário irá mostrar mais da esclerótica do usuário no lado direito do olho na imagem (esquerda do usuário) do que o lado esquerdo, porque os olhos serão movidos para o lado esquerdo.
[0023] O módulo de entrada de foco 530 recebe entrada e processa a entrada. A entrada pode ser a seleção de um ponto de acesso designado em uma tela de toque, um botão, um sinal sem fio, ou alguma outra entrada. O módulo de entrada de foco 530 pode receber informações de outros módulos que identificam um usuário que tenha fornecido uma entrada recente. O módulo de processamento de entrada, em seguida, processa a entrada como a ação do usuário identificado.
[0024] Módulo de biblioteca de recursos 540 pode incluir máscaras faciais e de olho, modelos, modelos e outros dados utilizados para processar uma imagem e identificar uma característica física do usuário e o estado do recurso, como a direção que os olhos de um usuário estão focados.
[0025] A Figura 6 é um fluxograma de um método exemplar para a identificação de entrada de uma de uma pluralidade de usuários. O método da Figura 6 pode ser realizado por qualquer um dos dispositivos de computação 120 e 125, 130 e 140. Os usuários participantes são identificados pelo dispositivo de computação na etapa 610. Os usuários participantes são aqueles que podem fornecer a entrada para o dispositivo de computação. Os usuários participantes podem ser identificados pelo registo com o processamento de imagem ou sistema. O registo pode incluir cada usuário, fornecendo informações de identificação de algum tipo, ou uma indicação de que eles estão presentes, para o dispositivo de computação. O processamento de imagem pode incluir a captura de uma ou mais imagens de uma área da qual os usuários podem fornecer entrada, de detectar o número de cabeças humanas e atribuindo um valor para cada cabeça detectada. Em algumas modalidades, tanto o registro e o processamento de imagem podem ser usados para identificar usuários participantes.
[0026] Um método para a detecção de uma cabeça humana através de processamento de imagem pode começar com a análise de uma imagem para formas semelhantes a uma cabeça humana. As formas podem ser identificadas usando detecção de contraste, detecção de movimento e outras técnicas. Uma vez que é detectada uma forma potencial de cabeça, o principal candidato é analisado para características comuns à maioria das cabeças humana. Os recursos podem incluir contraste, sombreamento ou outra característica presente quando um nariz, boca, ou podem ser os olhos. Se a cabeça do candidato satisfaz um nível limite de recursos, a cabeça do candidato pode ser identificada como um usuário participante. Outros métodos para a detecção de rostos nas imagens são conhecidos na técnica.
[0027] Uma área de olho de cada usuário está localizada na etapa 615. Detectar uma área dos olhos da cabeça do usuário participante pode envolver à procura de um contraste, brilho ou em outro nível de propriedade de imagem no sobre a área dentro da cabeça que o olho está localizado. Uma vez que os olhos do usuário estão localizados, comportamento de olho pode ser calibrado para cada usuário participante na etapa 620. A calibração pode incluir as instruções na tela para um usuário participante, indicando uma escala da distância do dispositivo de computação, que o rosto do usuário deve, olhar para um determinado ponto na tela e outras direções. A calibração pode ter um usuário olhar diferentes pontos ou pontos quentes no visor do dispositivo de computação e analisar as imagens dos olhos do usuário quando o foco dos olhos do usuário é conhecido. Por exemplo, as Figuras 7A-C ilustram uma cabeça do usuário e olhos enquanto os olhos do usuário estão focados em diferentes áreas. A Figura 7A ilustra uma cabeça de usuário 710 com olhos 714 e 712. O olho 714 inclui área de íris e pupila 716 e áreas de esclera 718 e 720. Olho 712 inclui área de íris e pupila 722 e áreas de esclera 724 e 726. Quando as áreas de esclera para a esquerda e direita da íris e pupila áreas são praticamente os mesmos, o usuário pode estar determinado ser focalizado sobre a frente Quando a área de esclera é muito maior para a direita da área de íris e pupila que a área de esclera para a esquerda da pupila e da íris, o foco do usuário pode ser para a direita do usuário (Figura 7C). Da mesma forma, quando a área de esclera é muito maior para a direita e sob a área de íris e pupila que a área de esclera para a esquerda e acima da pupila e a íris, o foco do usuário pode ser em direção a parte superior direita do usuário (Figura 7D). Os graus de foco e o ponto de foco correspondente podem ser derivados de tomar um conjunto de medições dos olhos do usuário durante a calibração. A área e a localização da pupila do usuário, esclera e outros objetos podem ser gravados para posteriormente controlar os olhos do usuário.
[0028] O rastreamento dos olhos do usuário começa na etapa 625. O acompanhamento envolve a captura de imagens consecutivas do usuário. As imagens podem ser processadas para controlar e manter o conhecimento da localização de olho do usuário e foco. Em algumas modalidades, as imagens são capturadas repetidamente e armazenadas, mas são, em seguida, descartadas se nenhuma entrada for recebida por um usuário.
[0029] A entrada é detectada em um ponto de acesso de tela na etapa 630. A entrada pode incluir um usuário tocar em um ponto de acesso em uma tela de toque para uma console de computação 120, computador tablet 220 e dispositivo móvel 320. O ponto de acesso pode ser um objeto de determinada imagem exibido na tela, tais como uma imagem de um personagem, bola, item virtual, texto, ou outro objeto. Um usuário que tenha olhos focados sobre a localização de ponto de entrada é identificado na etapa 635. A localização do olho pode ser determinada como discutido acima, no que diz respeito ao processo de calibração. Um usuário correspondente à entrada particular pode ser identificado em uma variedade de maneiras. Por exemplo, pode estabelecer-se o foco do olho para cada usuário e o usuário com o foco do olho mais próximo ao ponto de acesso pode ser selecionado. Alternativamente, o foco do olho para cada usuário pode ser determinado até um foco do olho ser detectado a uma distância de limiar de ponto de acesso em que a entrada foi recebida. Em algumas modalidades, uma probabilidade de entrada pode ser determinada para cada usuário com base em sua história de entrada, seu foco de olho, se uma entrada é esperada do usuário e assim por diante. Uma vez que uma entrada é associada com um usuário identificado, a entrada no ponto de acesso é processada para o usuário específico na etapa 640.
[0030] A Figura 8 é um diagrama de blocos de um exemplar dispositivo de computação recebendo entrada de vários usuários. O dispositivo de computação 800 inclui um sistema de câmera 805 (sistema de detecção de usuário) com câmera colorida 810 e câmera de IV 815. Os usuários 830 e 835 estão cada um na faixa 820 da câmara colorida 810 e faixa 825 da câmera de IV 815. O dispositivo de computação 800 inclui uma tela de toque, tendo pontos de acesso, 840, 845, 850, 855 e 860. Durante a calibração, o sistema pode exibir texto que pede ao usuário para focar em um determinado ponto, enquanto o sistema capta uma imagem dos olhos do usuário.
[0031] Quando a entrada é recebida, o dispositivo de computação 800 determina o foco do usuário e identifica a entrada como proveniente do usuário enfocando o ponto de acesso que recebeu a entrada. Por exemplo, o usuário 835 deu entrada nos pontos de acesso 855 pressionando a tela nos pontos de acesso 855. Ao receber a entrada, o dispositivo de processamento vai analisar imagens captadas a partir da câmera colorida 810, câmera de IV 815 ou ambos. A partir das imagens, o foco de usuários será determinado. Se depois de processar as imagens, o usuário 830 é determinado para um foco 870 e usuário 835 está determinado a ter foco 880, que corresponde à etapa quente 855, a entrada recebida nos pontos de acesso 855 será associada com o usuário 835. Determinando onde concentram-se os olhos do usuário, uma entrada recebida através de um dispositivo usado por uma pluralidade de jogadores pode ser associada a um de uma pluralidade de jogadores.
[0032] A Figura 9 ilustra um sistema de computação exemplar 900 pode ser usado para implementar um dispositivo de computação para uso com a tecnologia atual. Sistema 900 da Figura 9 pode ser implementado nos contextos dos gostos de computação console 120, computador tablet 220 e 320 de dispositivo móvel. O sistema de computação 900 da Figura 9 inclui uma ou mais câmeras 910, processadores 915 e memória 920. A memória principal 920 armazena, em parte, as instruções e dados para execução pelo processador 915. A memória principal 920 pode armazenar o código executável quando em operação. O sistema 900 da Figura 9 inclui um dispositivo de armazenamento em massa 925, unidades de armazenamento portátil médio 930, dispositivo de IV 935, dispositivos de saída 940, dispositivos de entrada de usuário 945, uma tela 950 e dispositivos periféricos 955.
[0033] As câmeras 910 podem incluir uma ou mais câmeras capazes de capturar uma série de fotos adequadas para análise de processamento de imagem. As fotos podem ser incorporadas dentro do sistema de computação montado externamente ao sistema. As imagens capturadas pela câmera 910 podem ser fornecidas ao processador 915 via barramento 960, que pode executar módulos armazenados na memória 920 para analisar as imagens para a detecção de recursos.
[0034] O dispositivo de infravermelho 935 pode incluir uma câmera de IV que é capaz de capturar imagens em condições de muito baixa luminosidade. As imagens de IV podem ser transformadas da mesma forma como imagens de câmera colorida para a detecção de característica do usuário. As imagens capturadas do dispositivo de infravermelho 935 podem ser enviadas para o processador 915 para processamento via barramento 960.
[0035] Os componentes mostrados na Figura 9 são retratadas como sendo conectados através de um único barramento 990. No entanto, os componentes podem ser conectados através de um ou mais transporte de dados. Para exemplo, 915 unidade de processador e memória principal 920 podem ser conectados através de um barramento local do microprocessador e o dispositivo de armazenamento em massa 925, dispositivos periféricos 955, dispositivo de armazenamento portátil 930 e sistema de exibição 950 podem ser conectados através de um ou mais barramentos de entrada/saída (I/O).
[0036] Dispositivo de armazenamento em massa 925, que pode ser implementado com uma unidade de disco magnético ou em uma unidade de disco óptico, é um dispositivo de armazenamento não-volátil para armazenar dados e instruções de uso pela unidade processadora 915. O dispositivo de armazenamento 925 pode armazenar o software do sistema para implementar modalidades da presente invenção para fins de carregar o software na memória principal 920.
[0037] Dispositivo de armazenamento portátil 930 opera em conjunto com um meio de armazenamento não-volátil portátil, como um disquete, CD ou disco de vídeo Digital, para os dados de entrada e saída e código para e do sistema de computador 900 da Figura 9. O software de sistema para implementar modalidades da presente invenção pode ser armazenado em um meio tão portátil e de entrada para o sistema de computador 900 através do dispositivo de armazenamento portátil 930.
[0038] Dispositivos de entrada 945 fornecem uma parte de uma interface de usuário. Dispositivos de entrada 945 podem incluir um teclado alfanumérico, tal como um teclado, para introduzir informação alfanumérica e outra, ou um dispositivo apontador, como um trackball, um mouse, caneta ou teclas de direção do cursor. Além disso, o sistema 900 como mostrado na Figura 9 inclui dispositivos de saída 940. Monitores, impressoras, interfaces de rede e alto-falantes são exemplos de dispositivos de saída adequados.
[0039] O sistema de exposição 950 pode incluir uma tela de cristal líquido (LCD) ou outro dispositivo de exibição apropriado. O sistema de exposição 950 recebe informações textuais e gráficas e processa as informações de saída para o dispositivo de exibição. O sistema de exposição 950 pode incluir um dispositivo de tela de toque que recebe entrada através da detecção de um toque na superfície da tela. Os pixels recebendo o toque são comunicados ao processador 915 via barramento 960.
[0040] Os periféricos 955 podem incluir qualquer tipo de dispositivo de suporte de computador para adicionar funcionalidade adicional ao sistema do computador. Por exemplo, dispositivos periféricos 955 podem incluir um modem ou um roteador.
[0041] Os componentes contidos no sistema de computador 900 da Figura 9 são aqueles normalmente encontrados em sistemas de computador que podem ser adequados para usar com modalidades da presente invenção e se destinam a representar uma categoria ampla de tais componentes de computador que são bem conhecidos na arte. Assim, o sistema de computador 900 da Figura 9 pode ser um computador pessoal, dispositivo de computação de mão, telefone, dispositivo de computação móvel, estação de trabalho, servidor, minicomputador, computador mainframe ou qualquer outro dispositivo de computação. O computador também pode incluir diferentes barramentos. Configurações, em rede de plataformas, plataformas multiprocessadoras, etc. Vários sistemas operacionais podem ser usados, incluindo Unix, Linux, Windows, Macintosh OS, Palm OS e outros sistemas operacionais adequados.
[0042] A descrição pormenorizada anterior da tecnologia da presente invenção foi apresentada para fins de ilustração e descrição. Elas não se destinam a ser exaustivas ou limitar a invenção às formas precisas divulgadas, e obviamente muitas modificações e variações são possíveis à luz dos ensinamentos acima. As modalidades foram escolhidas e descritas para melhor explicar os princípios da invenção e sua aplicação prática, para, assim, permitir que outros versados na técnica melhor utilizar a invenção e várias modalidades com várias modificações como são adequados ao uso específico contemplado. Pretende-se que o escopo da invenção seja definido pelas reivindicações anexadas aqui para e seus equivalentes. Portanto, o escopo da invenção é limitado apenas pelas seguintes reivindicações.

Claims (9)

1. Método para receber entrada em um dispositivo sensível ao toque, CARACTERIZADO por: capturar dados de imagem para uma área física ao redor do dispositivo sensível ao toque; identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque ao identificar candidatos principais a partir dos dados de imagem capturada, em que a identificação inclui: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, a boca ou os olhos podem sem encontrados, atribuir ao formato avaliado um valor correspondente a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formado avaliado em particular é maior que um indicativo limite de que o formato avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início de interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; receber uma entrada no dispositivo sensível ao toque, em que a entrada por toque é detectada em um ponto de acesso em uma tela de toque do dispositivo sensível ao toque; e associar a entrada por toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado da análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a identificação das características faciais de cada um dos usuários fisicamente presentes inclui identificar contornos de um rosto do usuário, os contornos sendo usados para identificar um rosto em particular de um usuário.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender adicionalmente avaliar distâncias de cada um dos usuários fisicamente presentes a partir do dispositivo sensível ao toque, em que usuários estando a uma distância maior que um limite predeterminado do dispositivo de toque são determinados como incapazes de fornecer uma entrada de usuário.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a identificação é realizada com uma biblioteca de características, a biblioteca de características incluindo máscaras faciais e para os olhos, moldes e modelos usados para processar uma imagem, identificar uma característica física e identificar o estado da característica física.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato do estado da característica física incluir uma direção para onde os olhos do usuário estão focados.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que associar a entrada com um usuário atuante adicionalmente utiliza considerações adicionais incluindo a probabilidade de receber entrada a partir de cada usuário com base no histórico de entradas, foco de olhos atual, e se uma entrada é esperada a partir de um usuário em particular.
7. Dispositivo de armazenamento não transitório legível por computador tendo incorporado em si instruções, as instruções sendo executáveis por um processador para executar um método para receber entrada em um dispositivo sensível ao toque, o método CARACTERIZADO por: capturar dados de imagem para uma área física ao redor do dispositivo sensível ao toque; identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque pela identificação de usuários principais a partir dos dados de imagem capturada, em que a identificação compreende: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, a boca ou os olhos podem ser encontrados, atribuir ao formato avaliado um valor correspondendo a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formato em particular avaliado é maior que um indicativo limite de que o formado avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início das interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; receber uma entrada por toque no dispositivo sensível ao toque, em que a entrada por toque é detectada em um ponto de acesso em uma tela de toque do dispositivo sensível ao toque; e associar a entrada por toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado da análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
8. Sistema de detecção de entrada, o sistema CARACTERIZADO por compreender: um dispositivo de exibição sensível ao toque que recebe uma entrada por toque em um ponto de acesso na tela de toque do dispositivo sensível ao toque; uma câmera que captura dados de imagem a cores para uma área física ao redor de dispositivo de exibição sensível ao toque; um dispositivo de armazenamento não volátil acoplado à câmera para receber os dados de imagem capturada; um processador que executa instruções não transitórias legíveis por computador armazenadas na memória, em que a execução das instruções compreende: identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque por identificar candidatos principais a partir dos dados de imagem capturada mantidos no dispositivo de armazenamento não volátil, em que a identificação inclui: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, boca ou olhos podem ser encontrados, atribuir ao formato avaliado um valor correspondendo a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formato em particular avaliado é maior que um indicativo limite de que o formato avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início das interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; e associar a entrada por toque recebida na tela de toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado na análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
9. Sistema, de acordo com a reivindicação 8, CARACTERIZADO por compreender ainda um dispositivo de infravermelho (IR) que captura imagens IR de um ou mais usuários da pluralidade de usuários fisicamente presentes, as imagens IR capturadas sendo usadas em conjunção com a câmera para identificar candidatos principais.
BR112014027343-0A 2012-05-04 2013-04-04 Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada BR112014027343B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/464,703 US9471763B2 (en) 2012-05-04 2012-05-04 User input processing with eye tracking
US13/464,703 2012-05-04
PCT/US2013/035331 WO2013165646A2 (en) 2012-05-04 2013-04-04 User input processing with eye tracking

Publications (2)

Publication Number Publication Date
BR112014027343A2 BR112014027343A2 (pt) 2017-07-18
BR112014027343B1 true BR112014027343B1 (pt) 2021-09-21

Family

ID=49512152

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014027343-0A BR112014027343B1 (pt) 2012-05-04 2013-04-04 Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada

Country Status (9)

Country Link
US (3) US9471763B2 (pt)
EP (1) EP2845077A4 (pt)
JP (1) JP5974165B2 (pt)
KR (1) KR101705841B1 (pt)
CN (1) CN104520799A (pt)
BR (1) BR112014027343B1 (pt)
IN (1) IN2014MN02224A (pt)
RU (1) RU2608462C2 (pt)
WO (1) WO2013165646A2 (pt)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking
WO2015142228A1 (en) * 2014-03-18 2015-09-24 Telefonaktiebolaget L M Ericsson (Publ) Controlling a target device
CN104391567B (zh) * 2014-09-30 2017-10-31 深圳市魔眼科技有限公司 一种基于人眼跟踪的三维全息虚拟物体显示控制方法
CN104383681B (zh) * 2014-10-27 2016-03-30 腾讯科技(深圳)有限公司 游戏进程控制方法、装置和移动终端
KR101671838B1 (ko) * 2015-06-17 2016-11-03 주식회사 비주얼캠프 시선 추적을 이용한 입력 장치
CN105159590B (zh) * 2015-08-27 2017-06-23 广东欧珀移动通信有限公司 一种控制用户终端的屏幕的方法及用户终端
EP3353631A1 (en) * 2015-09-24 2018-08-01 Tobii AB Eye-tracking enabled wearable devices
DE102015222388A1 (de) 2015-11-13 2017-05-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug
CN105677845A (zh) 2016-01-06 2016-06-15 北京京东尚科信息技术有限公司 电子书籍的推送方法和装置
CN106066694A (zh) * 2016-05-30 2016-11-02 维沃移动通信有限公司 一种触摸屏操作响应的控制方法及终端
US10032053B2 (en) * 2016-11-07 2018-07-24 Rockwell Automation Technologies, Inc. Tag based location
CN107092873A (zh) * 2017-04-08 2017-08-25 闲客智能(深圳)科技有限公司 一种眼动方向识别方法及装置
US10474231B2 (en) * 2017-08-16 2019-11-12 Industrial Technology Research Institute Eye tracking apparatus and method thereof
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
US20220075477A1 (en) * 2018-12-31 2022-03-10 Guardian Glass, LLC Systems and/or methods for parallax correction in large area transparent touch interfaces
US10890992B2 (en) * 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
CN110262673A (zh) * 2019-06-26 2019-09-20 广东技术师范大学 一种眼睛控制键盘打字的方法
US11800206B2 (en) * 2019-07-08 2023-10-24 Calumino Pty Ltd. Hybrid cameras
US11156831B2 (en) * 2019-12-31 2021-10-26 Tobii Ab Eye-tracking system and method for pupil detection, associated systems and computer programs

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
JP2000148396A (ja) * 1998-11-06 2000-05-26 Canon Inc 情報入力装置および方法
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
AU2002233323A1 (en) * 2001-02-09 2002-08-28 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
TW200622893A (en) * 2004-07-09 2006-07-01 Nokia Corp Cute user interface
JP2006201966A (ja) 2005-01-19 2006-08-03 Oki Electric Ind Co Ltd 端末装置
JP2007089732A (ja) * 2005-09-28 2007-04-12 Aruze Corp 入力装置
JP4649319B2 (ja) 2005-11-21 2011-03-09 日本電信電話株式会社 視線検出装置、視線検出方法、および視線検出プログラム
WO2007074842A1 (ja) * 2005-12-27 2007-07-05 Matsushita Electric Industrial Co., Ltd. 画像処理装置
JP5580987B2 (ja) * 2006-08-18 2014-08-27 株式会社カネカ 官能基を有する分岐ビニル系重合体の製造方法
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US8147316B2 (en) * 2006-10-10 2012-04-03 Wms Gaming, Inc. Multi-player, multi-touch table for use in wagering game systems
WO2008115287A2 (en) * 2006-10-18 2008-09-25 Efthimion Enterprises, Inc. Laser assisted microwave plasma spectroscopy
JP5415948B2 (ja) * 2008-02-28 2014-02-12 パナソニック株式会社 視線検出装置及び視線検出方法
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8432366B2 (en) * 2009-03-03 2013-04-30 Microsoft Corporation Touch discrimination
CN101593022B (zh) * 2009-06-30 2011-04-27 华南理工大学 一种基于指端跟踪的快速人机交互方法
EP2309307B1 (en) * 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
US8922480B1 (en) * 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
JP5305039B2 (ja) * 2010-03-25 2013-10-02 アイシン・エィ・ダブリュ株式会社 表示装置、表示方法、及び表示プログラム
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
JP5664064B2 (ja) 2010-09-22 2015-02-04 富士通株式会社 視線検出装置および補正係数算出プログラム
US20120081392A1 (en) * 2010-09-30 2012-04-05 Apple Inc. Electronic device operation adjustment based on face detection
US8717393B2 (en) * 2010-11-03 2014-05-06 Blackberry Limited System and method for controlling a display of a mobile device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR101797599B1 (ko) * 2011-06-30 2017-11-15 엘지이노텍 주식회사 백라이트 유닛 및 그를 이용한 디스플레이 장치
US20130033524A1 (en) * 2011-08-02 2013-02-07 Chin-Han Wang Method for performing display control in response to eye activities of a user, and associated apparatus
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
US20130201305A1 (en) * 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
US9471763B2 (en) 2012-05-04 2016-10-18 Sony Interactive Entertainment America Llc User input processing with eye tracking

Also Published As

Publication number Publication date
WO2013165646A2 (en) 2013-11-07
JP5974165B2 (ja) 2016-08-23
US20170139476A1 (en) 2017-05-18
BR112014027343A2 (pt) 2017-07-18
IN2014MN02224A (pt) 2015-10-09
US11650659B2 (en) 2023-05-16
CN104520799A (zh) 2015-04-15
JP2015521312A (ja) 2015-07-27
WO2013165646A3 (en) 2015-03-26
EP2845077A2 (en) 2015-03-11
KR20150032661A (ko) 2015-03-27
US20130293467A1 (en) 2013-11-07
EP2845077A4 (en) 2016-01-13
RU2608462C2 (ru) 2017-01-18
US20200249751A1 (en) 2020-08-06
KR101705841B1 (ko) 2017-02-10
US9471763B2 (en) 2016-10-18
US10496159B2 (en) 2019-12-03
RU2014148784A (ru) 2016-06-27

Similar Documents

Publication Publication Date Title
BR112014027343B1 (pt) Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada
Guarin et al. Toward an automatic system for computer-aided assessment in facial palsy
US10305908B2 (en) Liveness detection
US9489574B2 (en) Apparatus and method for enhancing user recognition
US20180032828A1 (en) Face liveness detection method, terminal, server and storage medium
US9411416B2 (en) Computer device operable with user's eye movement and method for operating the computer device
US9239917B2 (en) Gesture controlled login
WO2016127437A1 (zh) 活体人脸验证方法及系统、计算机程序产品
CN109117808A (zh) 面部识别方法、装置、电子设备及计算机可读介质
US20160062456A1 (en) Method and apparatus for live user recognition
US20170046583A1 (en) Liveness detection
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
US20170011260A1 (en) Interest degree determination device, interest degree determination method, and non-transitory computer-readable recording medium
WO2020007191A1 (zh) 活体识别检测方法、装置、介质及电子设备
Bâce et al. Accurate and robust eye contact detection during everyday mobile device interactions
Bâce et al. How far are we from quantifying visual attention in mobile HCI?
CN108596127A (zh) 一种指纹识别方法、身份验证方法及装置和身份核验机
US20150103205A1 (en) Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor
JP6891633B2 (ja) 顔認証装置、顔認証方法、及びプログラム
JP7470069B2 (ja) 指示物体検出装置、指示物体検出方法及び指示物体検出システム
US11733781B2 (en) Leveraging machine learning and fractal analysis for classifying motion
CN117765621A (zh) 活体检测方法、装置及存储介质

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 04/04/2013, OBSERVADAS AS CONDICOES LEGAIS.