BR112014027343B1 - Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada - Google Patents
Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada Download PDFInfo
- Publication number
- BR112014027343B1 BR112014027343B1 BR112014027343-0A BR112014027343A BR112014027343B1 BR 112014027343 B1 BR112014027343 B1 BR 112014027343B1 BR 112014027343 A BR112014027343 A BR 112014027343A BR 112014027343 B1 BR112014027343 B1 BR 112014027343B1
- Authority
- BR
- Brazil
- Prior art keywords
- users
- touch
- eyes
- physically present
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 230000001052 transient effect Effects 0.000 title claims 3
- 210000003128 head Anatomy 0.000 claims abstract description 30
- 210000003786 sclera Anatomy 0.000 claims description 17
- 210000001747 pupil Anatomy 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims 7
- 230000000977 initiatory effect Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2133—Verifying human interaction, e.g., Captcha
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
método para o recebimento de entrada por um dispositivo sensível ao toque, meio de armazenamento não transitório legível por computador e sistema de detecção de entrada. um sistema determina que usuário de vários usuários forneceram dados através de um único dispositivo de entrada. o sistema de computação pode incluir um mecanismo para captura de imagens de um ou mais usuários. as imagens podem ser processadas para determinar qual usuário forneceu uma entrada usando o dispositivo de entrada. por exemplo, as imagens podem ser processadas para identificar cada cabeça e olhos dos usuários e determinar o ponto de foco para os olhos de cada usuário. o usuário que tem os olhos focados no dispositivo de entrada é identificado como fornecendo a entrada. em modalidades onde o mecanismo de entrada pode ser uma tela de toque, o usuário com olhos focados na porção de tela de toque que foi tocada é identificado para fornecer a entrada.
Description
[001] O presente pedido reivindica o benefício de prioridade do Pedido de Patente U.S. número 13/464,703 depositado em 04 de maio de 2012, a divulgação do qual é aqui incorporada por referência.
[002] A presente invenção refere-se geralmente para sistemas de processamento de entrada e mais particularmente para o processamento de entrada de uma pluralidade de usuários através de processamento de imagem.
[003] Aplicações de sistema de computação interagem com os usuários recebendo entrada do usuário, o processamento de entrada, e fornecendo um resultado. Como sistemas tornaram-se mais avançados e mais pessoas abraçam a tecnologia, aplicativos evoluíram para envolver vários usuários simultaneamente. Vários usuários podem interagir com sistemas de computação ao mesmo tempo, e os usuários podem fornecer a saída que se relacionam com um usuário específico. Por exemplo, dois usuários podem usar controladores de jogo para jogar um jogo de computador que permite aos usuários competir uns contra os outros durante uma sessão de jogo. Cada usuário fornece uma entrada com um controlador do respectivo jogo.
[004] A tecnologia evoluiu para permitir que diferentes tipos de interação com sistemas de computação. Ao invés de receber entrada de um controlador de jogo para cada usuário, por exemplo, alguns sistemas de computação utilizam um único mecanismo de entrada como uma tela sensível ao toque. Quando apenas um usuário está conectado com o dispositivo de computação, o único mecanismo de entrada recebe entrada do usuário único. Quando vários usuários se envolvem o sistema de computação com um mecanismo único de entrada, é muito difícil determinar qual usuário está fornecendo a entrada.
[005] Há uma necessidade na técnica de um sistema que permite que vários usuários facilmente e eficientemente interagir com um dispositivo de computação usando um mecanismo de entrada único.
[006] Em uma modalidade, desempenho, funcionalidade, conteúdo ou relevância do negócio. Baseado em técnicas de aprendizagem, monitoramento eficiente e gerenciamento de recursos, o atual sistema pode capturar dados para e fornecer informações de análise para valores atípicos de um aplicativo da web com sobrecarga muito baixa.
[007] Em uma modalidade, a entrada pode ser recebida primeiro identificando uma pluralidade de usuários fisicamente na presença do dispositivo. Uma entrada pode ser recebida pelo dispositivo a partir de um primeiro utilizador de uma pluralidade de utilizadores fisicamente presentes. Um estado físico pode ser detectado de uma pluralidade de usuários associados a entrada.
[008] Em uma modalidade, um sistema para a detecção de entrada pode incluir um dispositivo de vídeo, uma câmera, um processador e módulos armazenados na memória e executável pelo processador. A câmera pode capturar dados de imagem colorida e fornecer os dados de imagem para o processador. Um módulo de detecção de recurso é executável para detectar uma característica física de um usuário. Um módulo de detecção de foco de usuário detecta o ponto de foco dos olhos do usuário. Um módulo de processamento de entrada recebe e processa a entrada de um usuário.
[009] A Figura 1 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um console de computação.
[0010] A Figura 2 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um computador tablet.
[0011] A Figura 3 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um dispositivo móvel.
[0012] A Figura 4 é um dispositivo de computação exemplar com mecanismo de detecção do usuário.
[0013] A Figura 5 é um conjunto exemplar de módulos de softwareexecutável.
[0014] A Figura 6 é um fluxograma de um método exemplar para a identificação de entrada de uma pluralidade de usuários.
[0015] As Figuras 7A-7B são exemplares imagens dos olhos do usuário.
[0016] A Figura 8 é um diagrama de blocos de um exemplar dispositivo de computação que recebe entrada de vários usuários.
[0017] A Figura 9 é um diagrama de blocos de um sistema exemplar para a implementação de um dispositivo de computação.
[0018] A modalidades da invenção determina qual usuário das entradas fornecida por vários usuários através de um único dispositivo de entrada. O sistema de computação pode incluir um mecanismo para captura de imagens de um ou mais usuários. As imagens podem ser processadas para determinar qual usuário forneceu uma entrada usando o dispositivo de entrada. Por exemplo, as imagens podem ser processadas para identificar cada cabeça e olhos dos usuários e determinar o ponto de foco para os olhos de cada usuário. O usuário que tem os olhos focados no dispositivo de entrada é identificado como fornecendo a entrada. Em modalidades onde o mecanismo de entrada pode ser uma tela de toque, o usuário com olhos focados na porção de tela de toque que foi tocada é identificado para fornecer a entrada.
[0019] As modalidades da invenção podem ser usadas com vários tipos de dispositivos de computação. A Figura 1 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um console de computação. Um console de computação 125 fornece dados de imagem para exibir para a tela de toque 120. A tela de toque 120 pode receber entrada por toque e fornecer o console de entrada de computação 125. O console de computação pode receber a entrada, o processo de entrada e criar novos dados de imagem e fornecer os dados de imagem para tela de toque 120. Qualquer um dos usuários 105 e 110 podem fornecer entrada para console de computação 125, por exemplo pelo toque da tela de toque 120. A presente invenção é capaz de determinar qual usuário tocou a tela de toque e a entrada do processo em conformidade. A Figura 2 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um computador tablet, 130. Os usuários 105 e 110 podem cada um fornecer entrada de para computador tablet 130 usando uma tela de toque do tablet. A modalidades da invenção podem determinar qual entrada de usuários 105 e 110 fornecidos ao computador tablet 130 e a entrada do processo em conformidade. A Figura 3 é um diagrama de blocos de um sistema exemplar para o recebimento de entrada através de uma tela de toque de um dispositivo móvel. Os usuários 105 e 110 podem cada um fornecer a entrada para o dispositivo móvel 140 através da tela de toque ou outra entrada. A presente invenção pode determinar qual usuário fornecido do dispositivo 140 através da entrada para o celular e a entrada de processo para aquele usuário.
[0020] A Figura 4 é um exemplar dispositivo de computação com mecanismo de detecção 45. O mecanismo de detecção 405 pode ser usado com console de computação, computador tablet, ou qualquer outro dispositivo. Mecanismo de detecção de usuário inclui câmera colorida 410 e câmera infravermelho (IV) 415. A câmera colorida 410 captura imagens de uma área 420 nas proximidades do dispositivo de computação. As imagens podem ser processadas para identificar usuários, características físicas dos usuários, e um estado das características físicas. Por exemplo, imagens de dois jogadores capturada por câmera colorida 410 podem ser processadas para identificar dois usuários dentro de uma área 420, a característica física de cada usuário incluindo a cabeça e os olhos do usuário, e o estado dos olhos de cada usuário de cada tal que onde cada usuário está focando seus olhos. Um sistema de imagem IV 415 pode também ser utilizado para capturar e processar imagens. O sistema de imagem IR 415 pode ser utilizado em condições de luz fraca para capturar imagens IV da área 425. As imagens IV podem ser processadas para identificar um número de usuários, características físicas dos usuários, e estados das características similares ao processo de processamento de imagem de câmera colorida.
[0021] A Figura 5 é um conjunto exemplar de módulos de software executável. Os módulos podem ser executados por um processador para implementar vários aspectos da invenção aqui descritos. Um módulo de detecção de características 520 detecta características em imagens de um usuário. Por exemplo, o módulo de detecção de recurso pode receber uma imagem, detectar os contornos de um rosto humano e identificar os olhos dentro de um rosto. O módulo 520 pode ter modelo de uma ou mais faces para comparar com partes das imagens recebidas para identificar um rosto humano. O modelo pode ser armazenado no módulo de biblioteca de recurso 540. Em algumas modalidades, módulo de detecção de recurso 540 pode detectar movimento entre duas ou mais imagens consecutivas e usar a mudança na coloração de pixel para detectar usuários. Uma vez que uma cabeça de usuário é detectada, o módulo de detecção de recurso analisa características dentro da cabeça para detectar os olhos do usuário. Os olhos podem ser identificados através da detecção de características tais como um nariz que estão perto dos olhos, determinando que os olhos do usuário são uma certa distância abaixo do topo da cabeça do usuário, ou realizar outros algoritmos que são geralmente conhecidos na arte. Além de características físicas, outras características podem ser determinadas, bem como, como por exemplo a distância que um usuário está longe do dispositivo de computação. Em algumas modalidades, se uma pessoa detectada é maior que uma certa distância limite do dispositivo de computação, o usuário não será considerado um usuário capaz de fornecer a entrada.
[0022] O módulo de foco do usuário 510 pode analisar imagens de olho de um usuário para determinar onde o usuário está focando. A frente de um olho humano inclui uma pupila negra, uma íris colorida ao redor da pupila e a esclerótica branca ao redor da íris. Um dispositivo de computação pode analisar a área e a localização da esclerótica para determinar se um usuário está focando, baixo, esquerda e direita. Por exemplo, quando os olhos do usuário concentram-se em um objeto à sua direita, uma imagem capturada dos olhos do usuário irá mostrar mais da esclerótica do usuário no lado direito do olho na imagem (esquerda do usuário) do que o lado esquerdo, porque os olhos serão movidos para o lado esquerdo.
[0023] O módulo de entrada de foco 530 recebe entrada e processa a entrada. A entrada pode ser a seleção de um ponto de acesso designado em uma tela de toque, um botão, um sinal sem fio, ou alguma outra entrada. O módulo de entrada de foco 530 pode receber informações de outros módulos que identificam um usuário que tenha fornecido uma entrada recente. O módulo de processamento de entrada, em seguida, processa a entrada como a ação do usuário identificado.
[0024] Módulo de biblioteca de recursos 540 pode incluir máscaras faciais e de olho, modelos, modelos e outros dados utilizados para processar uma imagem e identificar uma característica física do usuário e o estado do recurso, como a direção que os olhos de um usuário estão focados.
[0025] A Figura 6 é um fluxograma de um método exemplar para a identificação de entrada de uma de uma pluralidade de usuários. O método da Figura 6 pode ser realizado por qualquer um dos dispositivos de computação 120 e 125, 130 e 140. Os usuários participantes são identificados pelo dispositivo de computação na etapa 610. Os usuários participantes são aqueles que podem fornecer a entrada para o dispositivo de computação. Os usuários participantes podem ser identificados pelo registo com o processamento de imagem ou sistema. O registo pode incluir cada usuário, fornecendo informações de identificação de algum tipo, ou uma indicação de que eles estão presentes, para o dispositivo de computação. O processamento de imagem pode incluir a captura de uma ou mais imagens de uma área da qual os usuários podem fornecer entrada, de detectar o número de cabeças humanas e atribuindo um valor para cada cabeça detectada. Em algumas modalidades, tanto o registro e o processamento de imagem podem ser usados para identificar usuários participantes.
[0026] Um método para a detecção de uma cabeça humana através de processamento de imagem pode começar com a análise de uma imagem para formas semelhantes a uma cabeça humana. As formas podem ser identificadas usando detecção de contraste, detecção de movimento e outras técnicas. Uma vez que é detectada uma forma potencial de cabeça, o principal candidato é analisado para características comuns à maioria das cabeças humana. Os recursos podem incluir contraste, sombreamento ou outra característica presente quando um nariz, boca, ou podem ser os olhos. Se a cabeça do candidato satisfaz um nível limite de recursos, a cabeça do candidato pode ser identificada como um usuário participante. Outros métodos para a detecção de rostos nas imagens são conhecidos na técnica.
[0027] Uma área de olho de cada usuário está localizada na etapa 615. Detectar uma área dos olhos da cabeça do usuário participante pode envolver à procura de um contraste, brilho ou em outro nível de propriedade de imagem no sobre a área dentro da cabeça que o olho está localizado. Uma vez que os olhos do usuário estão localizados, comportamento de olho pode ser calibrado para cada usuário participante na etapa 620. A calibração pode incluir as instruções na tela para um usuário participante, indicando uma escala da distância do dispositivo de computação, que o rosto do usuário deve, olhar para um determinado ponto na tela e outras direções. A calibração pode ter um usuário olhar diferentes pontos ou pontos quentes no visor do dispositivo de computação e analisar as imagens dos olhos do usuário quando o foco dos olhos do usuário é conhecido. Por exemplo, as Figuras 7A-C ilustram uma cabeça do usuário e olhos enquanto os olhos do usuário estão focados em diferentes áreas. A Figura 7A ilustra uma cabeça de usuário 710 com olhos 714 e 712. O olho 714 inclui área de íris e pupila 716 e áreas de esclera 718 e 720. Olho 712 inclui área de íris e pupila 722 e áreas de esclera 724 e 726. Quando as áreas de esclera para a esquerda e direita da íris e pupila áreas são praticamente os mesmos, o usuário pode estar determinado ser focalizado sobre a frente Quando a área de esclera é muito maior para a direita da área de íris e pupila que a área de esclera para a esquerda da pupila e da íris, o foco do usuário pode ser para a direita do usuário (Figura 7C). Da mesma forma, quando a área de esclera é muito maior para a direita e sob a área de íris e pupila que a área de esclera para a esquerda e acima da pupila e a íris, o foco do usuário pode ser em direção a parte superior direita do usuário (Figura 7D). Os graus de foco e o ponto de foco correspondente podem ser derivados de tomar um conjunto de medições dos olhos do usuário durante a calibração. A área e a localização da pupila do usuário, esclera e outros objetos podem ser gravados para posteriormente controlar os olhos do usuário.
[0028] O rastreamento dos olhos do usuário começa na etapa 625. O acompanhamento envolve a captura de imagens consecutivas do usuário. As imagens podem ser processadas para controlar e manter o conhecimento da localização de olho do usuário e foco. Em algumas modalidades, as imagens são capturadas repetidamente e armazenadas, mas são, em seguida, descartadas se nenhuma entrada for recebida por um usuário.
[0029] A entrada é detectada em um ponto de acesso de tela na etapa 630. A entrada pode incluir um usuário tocar em um ponto de acesso em uma tela de toque para uma console de computação 120, computador tablet 220 e dispositivo móvel 320. O ponto de acesso pode ser um objeto de determinada imagem exibido na tela, tais como uma imagem de um personagem, bola, item virtual, texto, ou outro objeto. Um usuário que tenha olhos focados sobre a localização de ponto de entrada é identificado na etapa 635. A localização do olho pode ser determinada como discutido acima, no que diz respeito ao processo de calibração. Um usuário correspondente à entrada particular pode ser identificado em uma variedade de maneiras. Por exemplo, pode estabelecer-se o foco do olho para cada usuário e o usuário com o foco do olho mais próximo ao ponto de acesso pode ser selecionado. Alternativamente, o foco do olho para cada usuário pode ser determinado até um foco do olho ser detectado a uma distância de limiar de ponto de acesso em que a entrada foi recebida. Em algumas modalidades, uma probabilidade de entrada pode ser determinada para cada usuário com base em sua história de entrada, seu foco de olho, se uma entrada é esperada do usuário e assim por diante. Uma vez que uma entrada é associada com um usuário identificado, a entrada no ponto de acesso é processada para o usuário específico na etapa 640.
[0030] A Figura 8 é um diagrama de blocos de um exemplar dispositivo de computação recebendo entrada de vários usuários. O dispositivo de computação 800 inclui um sistema de câmera 805 (sistema de detecção de usuário) com câmera colorida 810 e câmera de IV 815. Os usuários 830 e 835 estão cada um na faixa 820 da câmara colorida 810 e faixa 825 da câmera de IV 815. O dispositivo de computação 800 inclui uma tela de toque, tendo pontos de acesso, 840, 845, 850, 855 e 860. Durante a calibração, o sistema pode exibir texto que pede ao usuário para focar em um determinado ponto, enquanto o sistema capta uma imagem dos olhos do usuário.
[0031] Quando a entrada é recebida, o dispositivo de computação 800 determina o foco do usuário e identifica a entrada como proveniente do usuário enfocando o ponto de acesso que recebeu a entrada. Por exemplo, o usuário 835 deu entrada nos pontos de acesso 855 pressionando a tela nos pontos de acesso 855. Ao receber a entrada, o dispositivo de processamento vai analisar imagens captadas a partir da câmera colorida 810, câmera de IV 815 ou ambos. A partir das imagens, o foco de usuários será determinado. Se depois de processar as imagens, o usuário 830 é determinado para um foco 870 e usuário 835 está determinado a ter foco 880, que corresponde à etapa quente 855, a entrada recebida nos pontos de acesso 855 será associada com o usuário 835. Determinando onde concentram-se os olhos do usuário, uma entrada recebida através de um dispositivo usado por uma pluralidade de jogadores pode ser associada a um de uma pluralidade de jogadores.
[0032] A Figura 9 ilustra um sistema de computação exemplar 900 pode ser usado para implementar um dispositivo de computação para uso com a tecnologia atual. Sistema 900 da Figura 9 pode ser implementado nos contextos dos gostos de computação console 120, computador tablet 220 e 320 de dispositivo móvel. O sistema de computação 900 da Figura 9 inclui uma ou mais câmeras 910, processadores 915 e memória 920. A memória principal 920 armazena, em parte, as instruções e dados para execução pelo processador 915. A memória principal 920 pode armazenar o código executável quando em operação. O sistema 900 da Figura 9 inclui um dispositivo de armazenamento em massa 925, unidades de armazenamento portátil médio 930, dispositivo de IV 935, dispositivos de saída 940, dispositivos de entrada de usuário 945, uma tela 950 e dispositivos periféricos 955.
[0033] As câmeras 910 podem incluir uma ou mais câmeras capazes de capturar uma série de fotos adequadas para análise de processamento de imagem. As fotos podem ser incorporadas dentro do sistema de computação montado externamente ao sistema. As imagens capturadas pela câmera 910 podem ser fornecidas ao processador 915 via barramento 960, que pode executar módulos armazenados na memória 920 para analisar as imagens para a detecção de recursos.
[0034] O dispositivo de infravermelho 935 pode incluir uma câmera de IV que é capaz de capturar imagens em condições de muito baixa luminosidade. As imagens de IV podem ser transformadas da mesma forma como imagens de câmera colorida para a detecção de característica do usuário. As imagens capturadas do dispositivo de infravermelho 935 podem ser enviadas para o processador 915 para processamento via barramento 960.
[0035] Os componentes mostrados na Figura 9 são retratadas como sendo conectados através de um único barramento 990. No entanto, os componentes podem ser conectados através de um ou mais transporte de dados. Para exemplo, 915 unidade de processador e memória principal 920 podem ser conectados através de um barramento local do microprocessador e o dispositivo de armazenamento em massa 925, dispositivos periféricos 955, dispositivo de armazenamento portátil 930 e sistema de exibição 950 podem ser conectados através de um ou mais barramentos de entrada/saída (I/O).
[0036] Dispositivo de armazenamento em massa 925, que pode ser implementado com uma unidade de disco magnético ou em uma unidade de disco óptico, é um dispositivo de armazenamento não-volátil para armazenar dados e instruções de uso pela unidade processadora 915. O dispositivo de armazenamento 925 pode armazenar o software do sistema para implementar modalidades da presente invenção para fins de carregar o software na memória principal 920.
[0037] Dispositivo de armazenamento portátil 930 opera em conjunto com um meio de armazenamento não-volátil portátil, como um disquete, CD ou disco de vídeo Digital, para os dados de entrada e saída e código para e do sistema de computador 900 da Figura 9. O software de sistema para implementar modalidades da presente invenção pode ser armazenado em um meio tão portátil e de entrada para o sistema de computador 900 através do dispositivo de armazenamento portátil 930.
[0038] Dispositivos de entrada 945 fornecem uma parte de uma interface de usuário. Dispositivos de entrada 945 podem incluir um teclado alfanumérico, tal como um teclado, para introduzir informação alfanumérica e outra, ou um dispositivo apontador, como um trackball, um mouse, caneta ou teclas de direção do cursor. Além disso, o sistema 900 como mostrado na Figura 9 inclui dispositivos de saída 940. Monitores, impressoras, interfaces de rede e alto-falantes são exemplos de dispositivos de saída adequados.
[0039] O sistema de exposição 950 pode incluir uma tela de cristal líquido (LCD) ou outro dispositivo de exibição apropriado. O sistema de exposição 950 recebe informações textuais e gráficas e processa as informações de saída para o dispositivo de exibição. O sistema de exposição 950 pode incluir um dispositivo de tela de toque que recebe entrada através da detecção de um toque na superfície da tela. Os pixels recebendo o toque são comunicados ao processador 915 via barramento 960.
[0040] Os periféricos 955 podem incluir qualquer tipo de dispositivo de suporte de computador para adicionar funcionalidade adicional ao sistema do computador. Por exemplo, dispositivos periféricos 955 podem incluir um modem ou um roteador.
[0041] Os componentes contidos no sistema de computador 900 da Figura 9 são aqueles normalmente encontrados em sistemas de computador que podem ser adequados para usar com modalidades da presente invenção e se destinam a representar uma categoria ampla de tais componentes de computador que são bem conhecidos na arte. Assim, o sistema de computador 900 da Figura 9 pode ser um computador pessoal, dispositivo de computação de mão, telefone, dispositivo de computação móvel, estação de trabalho, servidor, minicomputador, computador mainframe ou qualquer outro dispositivo de computação. O computador também pode incluir diferentes barramentos. Configurações, em rede de plataformas, plataformas multiprocessadoras, etc. Vários sistemas operacionais podem ser usados, incluindo Unix, Linux, Windows, Macintosh OS, Palm OS e outros sistemas operacionais adequados.
[0042] A descrição pormenorizada anterior da tecnologia da presente invenção foi apresentada para fins de ilustração e descrição. Elas não se destinam a ser exaustivas ou limitar a invenção às formas precisas divulgadas, e obviamente muitas modificações e variações são possíveis à luz dos ensinamentos acima. As modalidades foram escolhidas e descritas para melhor explicar os princípios da invenção e sua aplicação prática, para, assim, permitir que outros versados na técnica melhor utilizar a invenção e várias modalidades com várias modificações como são adequados ao uso específico contemplado. Pretende-se que o escopo da invenção seja definido pelas reivindicações anexadas aqui para e seus equivalentes. Portanto, o escopo da invenção é limitado apenas pelas seguintes reivindicações.
Claims (9)
1. Método para receber entrada em um dispositivo sensível ao toque, CARACTERIZADO por: capturar dados de imagem para uma área física ao redor do dispositivo sensível ao toque; identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque ao identificar candidatos principais a partir dos dados de imagem capturada, em que a identificação inclui: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, a boca ou os olhos podem sem encontrados, atribuir ao formato avaliado um valor correspondente a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formado avaliado em particular é maior que um indicativo limite de que o formato avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início de interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; receber uma entrada no dispositivo sensível ao toque, em que a entrada por toque é detectada em um ponto de acesso em uma tela de toque do dispositivo sensível ao toque; e associar a entrada por toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado da análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a identificação das características faciais de cada um dos usuários fisicamente presentes inclui identificar contornos de um rosto do usuário, os contornos sendo usados para identificar um rosto em particular de um usuário.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender adicionalmente avaliar distâncias de cada um dos usuários fisicamente presentes a partir do dispositivo sensível ao toque, em que usuários estando a uma distância maior que um limite predeterminado do dispositivo de toque são determinados como incapazes de fornecer uma entrada de usuário.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a identificação é realizada com uma biblioteca de características, a biblioteca de características incluindo máscaras faciais e para os olhos, moldes e modelos usados para processar uma imagem, identificar uma característica física e identificar o estado da característica física.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato do estado da característica física incluir uma direção para onde os olhos do usuário estão focados.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que associar a entrada com um usuário atuante adicionalmente utiliza considerações adicionais incluindo a probabilidade de receber entrada a partir de cada usuário com base no histórico de entradas, foco de olhos atual, e se uma entrada é esperada a partir de um usuário em particular.
7. Dispositivo de armazenamento não transitório legível por computador tendo incorporado em si instruções, as instruções sendo executáveis por um processador para executar um método para receber entrada em um dispositivo sensível ao toque, o método CARACTERIZADO por: capturar dados de imagem para uma área física ao redor do dispositivo sensível ao toque; identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque pela identificação de usuários principais a partir dos dados de imagem capturada, em que a identificação compreende: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, a boca ou os olhos podem ser encontrados, atribuir ao formato avaliado um valor correspondendo a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formato em particular avaliado é maior que um indicativo limite de que o formado avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início das interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; receber uma entrada por toque no dispositivo sensível ao toque, em que a entrada por toque é detectada em um ponto de acesso em uma tela de toque do dispositivo sensível ao toque; e associar a entrada por toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado da análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
8. Sistema de detecção de entrada, o sistema CARACTERIZADO por compreender: um dispositivo de exibição sensível ao toque que recebe uma entrada por toque em um ponto de acesso na tela de toque do dispositivo sensível ao toque; uma câmera que captura dados de imagem a cores para uma área física ao redor de dispositivo de exibição sensível ao toque; um dispositivo de armazenamento não volátil acoplado à câmera para receber os dados de imagem capturada; um processador que executa instruções não transitórias legíveis por computador armazenadas na memória, em que a execução das instruções compreende: identificar uma pluralidade de usuários fisicamente presentes no dispositivo sensível ao toque por identificar candidatos principais a partir dos dados de imagem capturada mantidos no dispositivo de armazenamento não volátil, em que a identificação inclui: analisar os dados de imagem capturada para formatos que se assemelhem a uma cabeça humana, em que os formatos são detectados usando detecção de contraste e detecção de movimento, avaliar cada formato nos dados de imagem capturada que se assemelhe a uma cabeça humana para a presença de características comuns à maioria das cabeças humanas, em que as características incluem contraste ou sombreamento presente no formato com base na localização em que o nariz, boca ou olhos podem ser encontrados, atribuir ao formato avaliado um valor correspondendo a uma probabilidade de que o formato avaliado seja uma cabeça humana com base na presença de uma ou mais características, e determinar que o valor atribuído para um formato em particular avaliado é maior que um indicativo limite de que o formato avaliado corresponde a um usuário participante; identificar características faciais para cada um dos usuários fisicamente presentes, as características faciais incluindo os olhos de cada um da pluralidade de usuários fisicamente presentes; calibrar os olhos de cada um da pluralidade de usuários fisicamente presentes antes do início das interações em tempo real com o dispositivo sensível ao toque, a calibração incluindo foco com uma pluralidade de regiões predefinidas do dispositivo sensível ao toque; rastrear um foco dos olhos para os olhos de cada um da pluralidade de usuários fisicamente presentes em tempo real e após a calibração, o foco dos olhos incluindo uma análise da área e localização da esclera versus pupila para cada olho de cada um da pluralidade de usuários fisicamente presentes; e associar a entrada por toque recebida na tela de toque com um usuário atuante da pluralidade de usuários fisicamente presentes com base no rastreamento do foco dos olhos de cada um da pluralidade de usuários fisicamente presentes, em que o usuário atuante é determinado para ter um foco dos olhos mais próximo do ponto de acesso como um resultado na análise da área e localização da esclera versus pupila para os olhos de cada um da pluralidade de usuários fisicamente presentes.
9. Sistema, de acordo com a reivindicação 8, CARACTERIZADO por compreender ainda um dispositivo de infravermelho (IR) que captura imagens IR de um ou mais usuários da pluralidade de usuários fisicamente presentes, as imagens IR capturadas sendo usadas em conjunção com a câmera para identificar candidatos principais.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/464,703 US9471763B2 (en) | 2012-05-04 | 2012-05-04 | User input processing with eye tracking |
US13/464,703 | 2012-05-04 | ||
PCT/US2013/035331 WO2013165646A2 (en) | 2012-05-04 | 2013-04-04 | User input processing with eye tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112014027343A2 BR112014027343A2 (pt) | 2017-07-18 |
BR112014027343B1 true BR112014027343B1 (pt) | 2021-09-21 |
Family
ID=49512152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112014027343-0A BR112014027343B1 (pt) | 2012-05-04 | 2013-04-04 | Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada |
Country Status (9)
Country | Link |
---|---|
US (3) | US9471763B2 (pt) |
EP (1) | EP2845077A4 (pt) |
JP (1) | JP5974165B2 (pt) |
KR (1) | KR101705841B1 (pt) |
CN (1) | CN104520799A (pt) |
BR (1) | BR112014027343B1 (pt) |
IN (1) | IN2014MN02224A (pt) |
RU (1) | RU2608462C2 (pt) |
WO (1) | WO2013165646A2 (pt) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9471763B2 (en) | 2012-05-04 | 2016-10-18 | Sony Interactive Entertainment America Llc | User input processing with eye tracking |
WO2015142228A1 (en) * | 2014-03-18 | 2015-09-24 | Telefonaktiebolaget L M Ericsson (Publ) | Controlling a target device |
CN104391567B (zh) * | 2014-09-30 | 2017-10-31 | 深圳市魔眼科技有限公司 | 一种基于人眼跟踪的三维全息虚拟物体显示控制方法 |
CN104383681B (zh) * | 2014-10-27 | 2016-03-30 | 腾讯科技(深圳)有限公司 | 游戏进程控制方法、装置和移动终端 |
KR101671838B1 (ko) * | 2015-06-17 | 2016-11-03 | 주식회사 비주얼캠프 | 시선 추적을 이용한 입력 장치 |
CN105159590B (zh) * | 2015-08-27 | 2017-06-23 | 广东欧珀移动通信有限公司 | 一种控制用户终端的屏幕的方法及用户终端 |
EP3353631A1 (en) * | 2015-09-24 | 2018-08-01 | Tobii AB | Eye-tracking enabled wearable devices |
DE102015222388A1 (de) | 2015-11-13 | 2017-05-18 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug |
CN105677845A (zh) | 2016-01-06 | 2016-06-15 | 北京京东尚科信息技术有限公司 | 电子书籍的推送方法和装置 |
CN106066694A (zh) * | 2016-05-30 | 2016-11-02 | 维沃移动通信有限公司 | 一种触摸屏操作响应的控制方法及终端 |
US10032053B2 (en) * | 2016-11-07 | 2018-07-24 | Rockwell Automation Technologies, Inc. | Tag based location |
CN107092873A (zh) * | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动方向识别方法及装置 |
US10474231B2 (en) * | 2017-08-16 | 2019-11-12 | Industrial Technology Research Institute | Eye tracking apparatus and method thereof |
TWI734024B (zh) * | 2018-08-28 | 2021-07-21 | 財團法人工業技術研究院 | 指向判斷系統以及指向判斷方法 |
US20220075477A1 (en) * | 2018-12-31 | 2022-03-10 | Guardian Glass, LLC | Systems and/or methods for parallax correction in large area transparent touch interfaces |
US10890992B2 (en) * | 2019-03-14 | 2021-01-12 | Ebay Inc. | Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces |
CN110262673A (zh) * | 2019-06-26 | 2019-09-20 | 广东技术师范大学 | 一种眼睛控制键盘打字的方法 |
US11800206B2 (en) * | 2019-07-08 | 2023-10-24 | Calumino Pty Ltd. | Hybrid cameras |
US11156831B2 (en) * | 2019-12-31 | 2021-10-26 | Tobii Ab | Eye-tracking system and method for pupil detection, associated systems and computer programs |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5471542A (en) * | 1993-09-27 | 1995-11-28 | Ragland; Richard R. | Point-of-gaze tracker |
JP2000148396A (ja) * | 1998-11-06 | 2000-05-26 | Canon Inc | 情報入力装置および方法 |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
AU2002233323A1 (en) * | 2001-02-09 | 2002-08-28 | Sensomotoric Instruments Gmbh | Multidimensional eye tracking and position measurement system |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
TW200622893A (en) * | 2004-07-09 | 2006-07-01 | Nokia Corp | Cute user interface |
JP2006201966A (ja) | 2005-01-19 | 2006-08-03 | Oki Electric Ind Co Ltd | 端末装置 |
JP2007089732A (ja) * | 2005-09-28 | 2007-04-12 | Aruze Corp | 入力装置 |
JP4649319B2 (ja) | 2005-11-21 | 2011-03-09 | 日本電信電話株式会社 | 視線検出装置、視線検出方法、および視線検出プログラム |
WO2007074842A1 (ja) * | 2005-12-27 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | 画像処理装置 |
JP5580987B2 (ja) * | 2006-08-18 | 2014-08-27 | 株式会社カネカ | 官能基を有する分岐ビニル系重合体の製造方法 |
US7860382B2 (en) * | 2006-10-02 | 2010-12-28 | Sony Ericsson Mobile Communications Ab | Selecting autofocus area in an image |
US8147316B2 (en) * | 2006-10-10 | 2012-04-03 | Wms Gaming, Inc. | Multi-player, multi-touch table for use in wagering game systems |
WO2008115287A2 (en) * | 2006-10-18 | 2008-09-25 | Efthimion Enterprises, Inc. | Laser assisted microwave plasma spectroscopy |
JP5415948B2 (ja) * | 2008-02-28 | 2014-02-12 | パナソニック株式会社 | 視線検出装置及び視線検出方法 |
US8686953B2 (en) * | 2008-09-12 | 2014-04-01 | Qualcomm Incorporated | Orienting a displayed element relative to a user |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US8432366B2 (en) * | 2009-03-03 | 2013-04-30 | Microsoft Corporation | Touch discrimination |
CN101593022B (zh) * | 2009-06-30 | 2011-04-27 | 华南理工大学 | 一种基于指端跟踪的快速人机交互方法 |
EP2309307B1 (en) * | 2009-10-08 | 2020-12-09 | Tobii Technology AB | Eye tracking using a GPU |
US8922480B1 (en) * | 2010-03-05 | 2014-12-30 | Amazon Technologies, Inc. | Viewer-based device control |
JP5305039B2 (ja) * | 2010-03-25 | 2013-10-02 | アイシン・エィ・ダブリュ株式会社 | 表示装置、表示方法、及び表示プログラム |
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP5664064B2 (ja) | 2010-09-22 | 2015-02-04 | 富士通株式会社 | 視線検出装置および補正係数算出プログラム |
US20120081392A1 (en) * | 2010-09-30 | 2012-04-05 | Apple Inc. | Electronic device operation adjustment based on face detection |
US8717393B2 (en) * | 2010-11-03 | 2014-05-06 | Blackberry Limited | System and method for controlling a display of a mobile device |
US20130057573A1 (en) * | 2011-09-02 | 2013-03-07 | DigitalOptics Corporation Europe Limited | Smart Display with Dynamic Face-Based User Preference Settings |
US8643680B2 (en) * | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
KR101797599B1 (ko) * | 2011-06-30 | 2017-11-15 | 엘지이노텍 주식회사 | 백라이트 유닛 및 그를 이용한 디스플레이 장치 |
US20130033524A1 (en) * | 2011-08-02 | 2013-02-07 | Chin-Han Wang | Method for performing display control in response to eye activities of a user, and associated apparatus |
US20130145304A1 (en) * | 2011-12-02 | 2013-06-06 | International Business Machines Corporation | Confirming input intent using eye tracking |
US20130201305A1 (en) * | 2012-02-06 | 2013-08-08 | Research In Motion Corporation | Division of a graphical display into regions |
US9471763B2 (en) | 2012-05-04 | 2016-10-18 | Sony Interactive Entertainment America Llc | User input processing with eye tracking |
-
2012
- 2012-05-04 US US13/464,703 patent/US9471763B2/en active Active
-
2013
- 2013-04-04 RU RU2014148784A patent/RU2608462C2/ru active
- 2013-04-04 EP EP13785175.4A patent/EP2845077A4/en not_active Ceased
- 2013-04-04 KR KR1020147030872A patent/KR101705841B1/ko active IP Right Grant
- 2013-04-04 JP JP2015510289A patent/JP5974165B2/ja active Active
- 2013-04-04 CN CN201380022450.4A patent/CN104520799A/zh active Pending
- 2013-04-04 WO PCT/US2013/035331 patent/WO2013165646A2/en active Application Filing
- 2013-04-04 BR BR112014027343-0A patent/BR112014027343B1/pt active IP Right Grant
-
2014
- 2014-11-04 IN IN2224MUN2014 patent/IN2014MN02224A/en unknown
-
2016
- 2016-10-18 US US15/296,552 patent/US10496159B2/en active Active
-
2019
- 2019-12-03 US US16/701,832 patent/US11650659B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2013165646A2 (en) | 2013-11-07 |
JP5974165B2 (ja) | 2016-08-23 |
US20170139476A1 (en) | 2017-05-18 |
BR112014027343A2 (pt) | 2017-07-18 |
IN2014MN02224A (pt) | 2015-10-09 |
US11650659B2 (en) | 2023-05-16 |
CN104520799A (zh) | 2015-04-15 |
JP2015521312A (ja) | 2015-07-27 |
WO2013165646A3 (en) | 2015-03-26 |
EP2845077A2 (en) | 2015-03-11 |
KR20150032661A (ko) | 2015-03-27 |
US20130293467A1 (en) | 2013-11-07 |
EP2845077A4 (en) | 2016-01-13 |
RU2608462C2 (ru) | 2017-01-18 |
US20200249751A1 (en) | 2020-08-06 |
KR101705841B1 (ko) | 2017-02-10 |
US9471763B2 (en) | 2016-10-18 |
US10496159B2 (en) | 2019-12-03 |
RU2014148784A (ru) | 2016-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112014027343B1 (pt) | Método para receber entrada em um dispositivo sensível ao toque, dispositivo de armazenamento não transitório legível por computador e sistema de detecção de entrada | |
Guarin et al. | Toward an automatic system for computer-aided assessment in facial palsy | |
US10305908B2 (en) | Liveness detection | |
US9489574B2 (en) | Apparatus and method for enhancing user recognition | |
US20180032828A1 (en) | Face liveness detection method, terminal, server and storage medium | |
US9411416B2 (en) | Computer device operable with user's eye movement and method for operating the computer device | |
US9239917B2 (en) | Gesture controlled login | |
WO2016127437A1 (zh) | 活体人脸验证方法及系统、计算机程序产品 | |
CN109117808A (zh) | 面部识别方法、装置、电子设备及计算机可读介质 | |
US20160062456A1 (en) | Method and apparatus for live user recognition | |
US20170046583A1 (en) | Liveness detection | |
US9013591B2 (en) | Method and system of determing user engagement and sentiment with learned models and user-facing camera images | |
US20170011260A1 (en) | Interest degree determination device, interest degree determination method, and non-transitory computer-readable recording medium | |
WO2020007191A1 (zh) | 活体识别检测方法、装置、介质及电子设备 | |
Bâce et al. | Accurate and robust eye contact detection during everyday mobile device interactions | |
Bâce et al. | How far are we from quantifying visual attention in mobile HCI? | |
CN108596127A (zh) | 一种指纹识别方法、身份验证方法及装置和身份核验机 | |
US20150103205A1 (en) | Method of controlling digital apparatus and image capture method by recognition of hand shape, and apparatus therefor | |
JP6891633B2 (ja) | 顔認証装置、顔認証方法、及びプログラム | |
JP7470069B2 (ja) | 指示物体検出装置、指示物体検出方法及び指示物体検出システム | |
US11733781B2 (en) | Leveraging machine learning and fractal analysis for classifying motion | |
CN117765621A (zh) | 活体检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 04/04/2013, OBSERVADAS AS CONDICOES LEGAIS. |