BRPI0714232B1 - controladora virtual para exibições visuais - Google Patents

controladora virtual para exibições visuais Download PDF

Info

Publication number
BRPI0714232B1
BRPI0714232B1 BRPI0714232A BRPI0714232A BRPI0714232B1 BR PI0714232 B1 BRPI0714232 B1 BR PI0714232B1 BR PI0714232 A BRPI0714232 A BR PI0714232A BR PI0714232 A BRPI0714232 A BR PI0714232A BR PI0714232 B1 BRPI0714232 B1 BR PI0714232B1
Authority
BR
Brazil
Prior art keywords
independent
image
control parameter
area
areas
Prior art date
Application number
BRPI0714232A
Other languages
English (en)
Inventor
D Wilson Andrew
J Sinclair Michael
Original Assignee
Microsoft Corp
Microsoft Technology Licensing Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp, Microsoft Technology Licensing Llc filed Critical Microsoft Corp
Publication of BRPI0714232A2 publication Critical patent/BRPI0714232A2/pt
Publication of BRPI0714232A8 publication Critical patent/BRPI0714232A8/pt
Publication of BRPI0714232B1 publication Critical patent/BRPI0714232B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)

Abstract

controladora virtual para exibições visuais. são descritas controladoras virtuais para exibições visuais. em uma implementação, uma câmera captura uma imagem de mãos contra um fundo. a imagem é segmentada em áreas de mão e áreas de fundo. vários gestos de mão e dedos isolam partes do fundo em áreas independentes, as quais são em seguida atribuidas a parâmetros de controle para a manipulação da exibição visual. múltiplos parâmetros de controle podem ser associados aos atributos de múltiplas áreas independentes formadas pelas duas mãos para um controle avançado, incluindo as funções simultâneas de clicar, selecionar, executar, fazer movimento horizontal, fazer movimento vertical, rolar, arrastar, fazer movimento rotacional, aproximar, maximizar, minimizar, executar as funções de arquivo, e executar opções de menu.

Description

(54) Título: CONTROLADORA VIRTUAL PARA EXIBIÇÕES VISUAIS (51) Int.CI.: G06F 3/01 (30) Prioridade Unionista: 08/08/2006 US 11/463.183 (73) Titular(es): MICROSOFT TECHNOLOGY LICENSING, LLC (72) Inventor(es): ANDREW D. WILSON; MICHAEL J. SINCLAIR (85) Data do Início da Fase Nacional: 15/01/2009 “CONTROLADORA VIRTUAL PARA EXIBIÇÕES VISUAIS”
FUNDAMENTOS DA INVENÇÃO
Movimentos com as mãos ou sinalizar com as mãos são formas naturais da expressão humana e de comunicação entre os homens. O uso deste conhecimento na interação homem - computador levou ao desenvolvimento de técnicas de computador baseadas na visão que provêm o gestual humano como entrada no computador. A visão por computador vem a ser uma técnica que provê a implementação de sistemas de entrada de gestos humanos com o objetivo de capturar os movimentos simples das mãos ou do corpo de uma pessoa. No entanto, muitas destas técnicas baseadas na visão atualmente desenvolvidas envolvem exercícios complicados que requerem gestos não naturais das mãos e a adição de um equipamento. Estas técnicas podem ser complicadas e pesadas, resultando em uma menor eficácia devido aos repetidos movimentos das mãos para fora das locações padrões de uso do computador.
Os atuais métodos de entrada em computador de modo geral envolvem uma entrada de texto por meio do uso de um teclado ou da manipulação do cursor via um mouse ou caneta. A comutação repetida por parte dos usuários entre o teclado e o mouse diminui a sua eficiência com o passar do tempo. As técnicas de visão por computador tentam aperfeiçoar as deficiências das tarefas de entrada em computador por humanos por meio da utilização dos movimentos das mãos como entrada. Esta utilização será mais eficaz caso a detecção ocorra em locais comuns das mãos durante o uso do computador, como, por exemplo, no teclado. A maioria das técnicas correntes de computador baseadas na visão emprega o uso de um dedo pontudo ou estirado como o gesto de entrada. As dificuldades em se detectar este gesto de mão no ou próximo do local do teclado acontecem devido à similaridade do gesto de apontar a um posicionamento natural durante o ato de digitar.
A maior parte das técnicas atuais de visão por computador utiliza a detecção do gesto e os paradigmas de acompanhamento a fim de sensoriar gestos e movimentos das mãos. Estes paradigmas de detecção e acompanhamento são complexos, com o uso de técnicas de reconhecimento de padrão sofisticadas, para a recuperação da forma e de posição das mãos. A detecção e o acompanhamento são limitados por diversos fatores, incluindo a dificuldade de se obter uma razoável complexidade computacional, problemas com a detecção em questão devido a ambigüidades nos movimentos ou trejeitos das mãos humanas, e falta de suporte para técnicas que permitam a interação de mais de um usuário.
SUMÁRIO DA INVENÇÃO
O presente sumário é provido no sentido de introduzir aspectos e conceitos simplificados de controladoras virtuais para exibições visuais, as quais serão descritas mais adiante na seção “Descrição Detalhada”. O presente sumário não pretende identificar os aspectos essenciais da matéria reivindicada em questão, tampouco pretende ser usado no sentido de determinar o âmbito de aplicação da matéria reivindicada.
Em uma implementação de uma controladora virtual para exibições visuais, uma câmera ou outro sensor detecta a imagem de uma ou mais mãos contra um fundo. A imagem é segmentada em áreas de mão e áreas de fundo, e, nos diversos intervalos, encontram-se áreas de fundo distintas e independentes - chamadas “furos” - formadas na imagem pelo polegar e outro dedo que faz um anel fechado (por exemplo, um furo pode ser criado para cada mão). O polegar e o dedo indicador, quando usados desta forma são referidos como uma “interface de polegar e dedo indicador” (TAFFI). Outros tipos de interfaces de mão e dedo são possíveis. Pelo menos um parâmetro de controle é em seguida atribuído a cada furo reconhecido, ou área independente de fundo na imagem capturada, o parâmetro de controle tipicamente permitindo que a mão de um usuário manipule um determinado aspecto de uma imagem exibida sobre uma tela ou monitor. Por exemplo, uma função de clique de mouse pode ser atribuído como um parâmetro de controle quando o polegar e o dedo indicador de uma das mãos se tocam no sentido de criar uma área de fundo visualmente independente. Os parâmetros de controle podem ser atribuídos de modo que a imagem exibida mude com relação a cada alteração de forma e/ou posição da área independente associada ao parâmetro de controle, ou com relação à área independente que é formada ou desaparece (um estado alto quando o polegar e o dedo indicador se tocam ou um estado baixo quando o polegar e o dedo indicador se abrem).
BREVE DESCRIÇÃO DOS DESENHOS
Os mesmos números são usados em todos os desenhos de modo a se referir a aspectos ou componentes similares.
A Figura 1 é um diagrama de um sistema baseado em computador exemplar no qual uma controladora virtual exemplar para uma exibição visual pode ser implementada.
A Figura 2 é um diagrama em blocos de um sistema de controladora virtual exemplar.
A Figura 3 é um diagrama de segmentação de imagem utilizado em um segmentador exemplar do sistema de controladora virtual da Figura 2.
A Figura 4 é o diagrama de um controle de interface de polegar e dedo indicador.
A Figura 5 é um fluxograma de um método exemplar de controle de uma exibição visual com gestos de mãos e dedos.
DESCRIÇÃO DETALHADA DA INVENÇÃO
Resumo Introdutório
A presente invenção descreve controladoras virtuais para exibições visuais. Em uma implementação, um sistema exemplar provê a navegação de uma imagem, como, por exemplo, uma interface de usuário visual típica de um monitor de computador, por meio da utilização de técnicas de computador baseadas na visão conforme aplicadas a gestos de mãos e dedos. Em uma implementação, um usuário digita em um teclado e em seguida, por exemplo, invoca uma “interface de polegar e dedo indicador” ou “TAFFI” pausando a digitação no teclado e simplesmente juntando o polegar e um dedo de uma das mãos (como se estivesse segurando uma pequena caneta). O sistema exemplar sensoria este evento e atribui parâmetros de controle aos atribuídos da área independente do fundo formado pelo gesto do dedo, a fim de controlar a imagem em exibição visual.
O termo “virtual” ou “controladora virtual” refere-se à ausência de um aparelho em contato físico com a mão do usuário. Sendo assim, em uma implementação, a controladora virtual consiste de uma câmera posicionada acima das mãos, de um teclado e de uma lógica associada de modo a derivar uma ou mais interfaces a partir da imagem visual das mãos do usuário. A segmentação separa os objetos de mão do fundo (por exemplo, inclusive o teclado). Quando o usuário toca o dedo indicador no polegar (a interface TAFFI acima), o sistema reconhece e tabula a área independente de fundo criada por este gesto das mãos. Ou seja, o sistema reconhece que uma peça de fundo foi visualmente isolada do resto do fundo principal pelo polegar e dedo indicador que se tocam de modo a formar um “anel” fechado completo, encerrando um “furo em forma de rosca” elíptico da área de fundo. A detecção de uma imagem visual por outros meios além de uma câmera de computador é igualmente possível. Por exemplo, um arranjo em 2D de eletrodos e antenas embutidos em um teclado ou mesa poderá “gerar a imagem” de um gesto das mãos por meio do uso de técnicas eletrostáticas ou de RF (radiofreqüência) e ser processado de uma maneira similar à captura de imagem por uma câmera.
Em uma implementação, uma área de fundo independente é considerada como um objeto visual distinto quando a mesma é desconectada ou isolada de outras partes do fundo pelas áreas de mão, ou, em uma variação, pelas áreas de mão na imagem e/ou pela borda da imagem. Quando a imagem das mãos e dedos é uma entidade limitante para a determinação das bordas de uma área de fundo independente, a área elipsóide entre o polegar e o dedo indicador da mão que é criada no momento em que o polegar e o dedo indicador “se fecham” (se tocam) é contada com uma nova área de fundo independente praticamente no instante em que o polegar e o dedo indicador se tocam. A nova área de fundo independente pode ser considerada um “componente conectado” dentro da técnica da análise de componentes conectados. Estes componentes conectados ou novas áreas de fundo independentes - “furos” - serão referidos no presente documento como “áreas de fundo independentes” ou simplesmente “áreas independentes”. Deve-se entender que esta terminologia se refere a um objeto visual considerado distinto, por exemplo, dentro da técnica da análise de componentes conectados.
Quando o polegar e o dedo indicador “se abrem”, a área de fundo independente recém formada se evapora e mais uma vez se torna parte de uma área de fundo independente maior.
Em termos da técnica da análise de componentes conectados, um componente conectado vem a ser grupo de pixéis de uma imagem binária com atributos similares agrupados entre si devido a uma similaridade de atributos. Cada componente conectado corresponde, freqüentemente, a um objeto visual distinto conforme observado por um observador humano. Cada parte do fundo visualmente independente das demais partes do fundo por parte das áreas de mão e dedos da imagem pode ser definida como uma área independente ou, na linguagem da análise de componentes conectados, como um componente conectado recém formado, distinto do componente conectado de fundo.
Evidentemente, outras implementações poderão utilizar os movimentos ou o toque de outros dedos da mão para formar um “furo” ou “área independente”. Sendo assim, a interface TAFFI deve ser construída frouxamente de modo a mostrar uma configuração de dedos e mão que visualmente isola parte do fundo do resto do fundo geral. Por exemplo, o polegar ou qualquer outro dedo da mão humana ou apenas dois dedos sem o polegar pode também formar uma interface “TAFFI”. Contudo, com o objetivo de dinamizar a descrição, as implementações serão tipicamente descritas em termos de “polegar e dedo indicador”.
Quando um módulo de detecção distingue uma nova área de fundo independente de uma área geral de fundo, o sistema associa a área independente recém reconhecida a um ou mais parâmetros de controle que permitem ao usuário manipular uma imagem exibida na interface visual do usuário. A imagem exibida na interface visual do usuário pode ser trocada via o parâmetro de controle à medida que a posição, o formato, ou ainda a existência de uma área de fundo independente, são monitorados.
Em uma implementação, um sistema exemplar provê a detecção de mais de uma área independente, o que possibilita a um usuário controlar uma imagem exibida por meio de múltiplos parâmetros de controle, nos quais uma ou ambas as mãos poderão participar. A associação de múltiplos parâmetros de controle com múltiplas áreas independentes possibilita o controle da imagem exibida com relação a mudanças em formato, posição, e existência de cada área independente detectada. Sendo assim, a manipulação da imagem exibida pode incluir o controle de cliques, seleção, execução, movimento horizontal, movimento vertical, rolagem, arrasto, movimento rotacional, zoom, maximização ou minimização, funções de arquivo, emprego ou uso de menus, etc. Além disso, parâmetros de controle podem também ser atribuídos a relações entre múltiplas áreas independentes reconhecidas. Ou seja, quando duas áreas independentes se movimentam, uma com relação à outra, por exemplo, vários parâmetros de controle poderão ser anexados à distância entre as mesmas. Por exemplo, quando áreas independentes de cada mão se movimentam para longe uma da outra, a imagem poderá aproximar ou se estirar, ou poderá se estirar em uma dimensão ou vetor no qual a distância entre áreas independentes é alterada.
Embora os aspectos ou conceitos dos sistemas e métodos descritos para controladoras visuais possam ser implementados em muitos ambientes diferentes, implementações das controladoras virtuais são descritas no contexto dos sistemas e ambientes exemplares a seguir.
Ambiente Exemplar
A Figura 1 ilustra um sistema exemplar 100 no qual podem ser implementadas técnicas de interface de controladora virtual, como, por exemplo, uma interface de polegar e dedo indicador, a interface TAFFI, acima apresentada. O sistema exemplar 100 inclui uma “imagem de exibição” 102 em uma interface visual de usuário (monitor, tela, ou “vídeo” 103), uma câmera 104 acoplada ao dispositivo computacional 105, um mouse 106, um teclado 108, as mãos de um usuário 110 mostradas no contexto (sem fazer parte do hardware do sistema, evidentemente), e uma área visual independente 112 formada pela mão de um usuário 110(1) usada como uma interface TAFFI. A câmera obtém uma imagem capturada
114 das mãos a ser usada por um mecanismo de interface TAFFI exemplar 115. (A imagem capturada 114 é mostrada apenas para fins descritivos, o sistema exemplar 100 não precisando exibir o que a câmera captura). O dispositivo computacional 105 que agrupa o mecanismo de interface TAFFI 115 pode ser uma computador de mesa, um computador portátil, um assistente PDA, ou outro dispositivo computacional 105 que poderá incorporar, com sucesso, a entrada de uma câmera 104 de modo que o mecanismo de interface TAFFI
115 possa detectar determinados gestos de mãos e usar os mesmos como uma entrada de interface de usuário.
A câmera 104 captura a imagem de uma das mãos 110(1) compreendendo uma interface TAFFI, enquanto a outra mão 110(2) permanece em uma posição de digitação (interface não TAFFI) “convencional”. A imagem capturada 114 exibe a detecção de uma área independente 112 para a mão 110(1) que forma a interface TAFFI, porém nenhuma detecção de uma área independente para a mão 110(2) que ainda se encontra digitando ou usando um mouse para entrada adicional. A detecção da área independente 112 por parte da câmera 104 é exibida como uma área escurecida (112) na imagem capturada 114. Esta imagem capturada 114 demonstra uma fase no processo que será descrito em mais detalhes abaixo, no qual o sistema exemplar 100 separa as mãos 110 e o fundo em áreas contínuas, segmentadas, como, por exemplo, uma área de fundo grande, as áreas das mãos, e uma área de fundo menor que constitui a área independente 112 formada pela interface TAFFI da mão 110(1).
O sistema 100 pode ser um sistema baseado em visão (“visão por computador”) que provê o controle da interface visual do usuário via uma entrada de gesto de mãos detectada pela câmera 104 ou outro sensor. Em outras palavras, os sistema exemplar 100 pode controlar a saída de exibição de interface visual de usuário de muitos tipos diferentes de programas ou aplicações que podem ser operados em um dispositivo computacional, inclusive as exibições baseadas na rede mundial (web). Sendo assim, o sistema exemplar 100 pode substituir um dispositivo de entrada de usuário convencional, como, por exemplo, o mouse 106 ou, se desejável, o teclado 108, inclusive suas funções de selecionar, movimentar, ou trocar os objetos exibidos na interface visual de usuário 102, ou ainda entrar um texto.
A controladora virtual detecta gestos e movimentos particulares das mãos como entrada de usuário. Na modalidade ilustrada, a câmera 104 usada para detecção é colocada em algum lugar acima das mãos e teclado, e fixada no vídeo 103. A câmera 104 colocada nesta posição passa a ter um campo de visão que cobre pelo menos a maior parte do teclado 108 e enfoca, grosso modo, o plano das mãos do usuário 110 em uma posição normal de digitação. Em uma implementação, luzes, como, por exemplo, LEDs infravermelhos ou visíveis, podem ser posicionadas a fim de iluminar as mãos 110 e o teclado 108, podendo ainda ser posicionadas de modo a aliviar os efeitos de uma mudança de iluminação ambiente. Em alguns casos, a luz ambiente poderá ser suficiente, de modo que nenhuma outra lâmpada será necessária para que a câmera obtenha uma imagem. Em variações, a câmera 104 e/ou lâmpadas extras podem ser dispostas entre as várias teclas do teclado 108, de tal modo que a câmera 104 faceie para cima e possa detectar os gestos ou movimentos das mãos sobre o teclado 108.
Um exemplo de câmera 104 que pode ser utilizado no sistema exemplar ilustrado 100 é a web câmera LOGITECH 104 que tem uma total resolução de imagens em escala de cinza a uma velocidade de 30 Hz (Freemont, Califórnia). A câmera 104 pode ser fixada tanto no teclado 108 como no vídeo 103, ou onde mais for adequado.
No sistema exemplar 100, a mão do usuário 110(1) pode formar uma interface TAFFI, criando uma área visual independente do resto da área de fundo quando o polegar e o dedo indicador se tocam. Em uma implementação, a interface TAFFI potencial e a presença ou ausência de uma ou mais áreas independentes 112 são detectadas por uma rotina de processamento de imagem em tempo real executada no dispositivo computacional 105 a fim de monitorar e determinar continuamente o estado de ambas as mãos 110, por exemplo, quando as mãos 110 estão digitando ou fazendo um gesto de entrada. Esta rotina de processamento pode primeiramente determinar se o polegar e o dedo indicador de um usuário estão em contato. Se os dedos estiverem em contato, fazendo com que uma área independente 112 de uma formação de interface TAFFI seja reconhecida, a posição do contato poderá ser monitorada bidimensionalmente. Por exemplo, a posição do contato do polegar com o dedo indicador pode ser registrada no computador 105 como a posição da seta de indicação ou a posição do cursor. Este reconhecimento da posição de formação de interface TAFFI e sua área independente associada 112 é então usado no sentido de estabelecer a posição do cursor e controlar a imagem exibida, em uma implementação.
Os movimentos rápidos das mãos produzindo uma área independente 112, quando a área independente 112 é formada, desaparece, e em seguida se forma novamente dentro de um intervalo de tempo, podem simular ou imitar o “clique” de um mouse e permitir que o usuário selecione um item a ser exibido. A rápida formação, desaparecimento, e formação novamente de uma área independente 112 poderá também permitir ao usuário arrastar ou rolar porções selecionadas da imagem exibida, movimentar um objeto nas direções horizontal, vertical, ou diagonal, girar, aproximar, etc., a imagem exibida 102. Além disso, em uma implementação, a movimentação da interface TAFFI que formou uma área independente 112 mais próximo ou mais longe da câmera 104 poderá produzir a aproximação (zoom in) ou o afastamento (zoom out) da imagem exibida.
O controle de uma imagem exibida via múltiplas interfaces TAFFI pode envolver mais de uma das mãos 110. O sistema exemplar ilustrado 100 da Figura 1 é uma modalidade de controle de interface TAFFI na qual a manipulação de imagens se processa a partir de uma interface TAFFI de uma das mãos 110(1), enquanto a outra mão 110(2) digita ou executa outras tarefas de entrada no teclado 108. Porém, em uma outra modalidade do controle de interface TAFFI, as duas mãos 110 podem formar respectivas interfaces TAFFI, resultando na detecção de pelo menos duas áreas independentes 112 por parte da câmera 104. Um controle de interface TAFFI com as duas mãos ao mesmo tempo poderá prover um conteúdo de entrada para uma navegação de sintonia fina de uma interface visual de usuário. O processo com as duas mãos ao mesmo tempo provê uma manipulação de imagem multidirecional, além de aproximar, afastar, fazer movimentos rotacionais, quando a manipulação é mais sofisticada em função da interação das áreas independentes 112 das múltiplas interfaces TAFFI, uma com relação à outra.
Sistema Exemplar
A Figura 2 ilustra vários componentes do sistema de controladora virtual exemplar 100. A configuração ilustrada do sistema de controladora virtual 100 é apenas uma disposição exemplar. Muitas disposições dos componentes ilustrados, ou outros componentes similares, são possíveis dentro do âmbito de aplicação da matéria em questão. O sistema de controladora virtual exemplar 100 possui alguns componentes, como, por exemplo, o mecanismo de interface TAFFI 115, que pode ser executado em hardware, software, ou combinações de hardware, software, firmware, etc.
O sistema exemplar 100 inclui um hardware 202, por exemplo, a câmera 104 ou outro sensor de imagem, teclado 108, e o vídeo 103. O mecanismo de interface TAFFI 115 inclui outros componentes, como, por exemplo, um segmentador de imagem 204, um rastreador de área independente 206, um mecanismo de parâmetro de controle 208, incluindo um módulo de conexão (linking) 210.
Em uma implementação, a câmera 104 detecta uma imagem interpretada como uma ou mais mãos 110 contra um fundo. Os pixéis da imagem capturada 114 incluem válvulas contrastantes de um atributo que será usado para distinguir as mãos 110 na imagem com relação ao fundo na imagem. Os atributos vantajosos para o contraste das mãos com relação ao fundo podem incluir brilho, escala de cinza, intensidade de componente de cor, valor de plano de cor, valor de pixel de vetor, valor de índice de mapa de cores, etc. Nas variações, a câmera 104 pode utilizar um ou outro destes atributos a fim de distinguir os pixéis das mãos dos pixéis de fundo, por exemplo, dependendo da iluminação infravermelha, sendo usada ao invés de um espectro visível típico. Às vezes, a obtenção da imagem capturada 114 por meio do uso de luz infravermelha resulta nas mãos da maioria das pessoas de diferentes tons de pele aparecerem com um contraste similar ao fundo, independente das variações de cor ou tom de pele no espectro visível devido à diferença de raça, bronzeamento, etc. Sendo assim, a detecção das mãos contra um fundo na imagem pode ser prontamente obtida na luz infravermelha sem consideração aos tons de pele visíveis.
Deste modo, o segmentador 204 separa a imagem capturada 114 em uma ou mais áreas de mão 110 e áreas de fundo, por exemplo, por meio de uma segmentação binária de imagem de acordo com os atributos de contraste ou de brilho descritos acima. A segmentação binária de imagem distingue os pixéis da área de fundo dos pixéis de qualquer outra área ou objeto (fundo) presente na imagem capturada 114. Em uma implementação, o segmentador 204 separa uma imagem ao primeiramente determinar os pixéis que correspondem à área de fundo. Cada um dos pixéis da área de fundo recebe um valor, como os pixéis binários (1s) e cada um dos pixéis restantes na imagem capturada 114 recebem um valor diferente, por exemplo, pixéis zeros (Os).
A Figura 3 ilustra um exemplo 300 de segmentação binária de imagem realizada pelo segmentador 204. A imagem capturada 114 inclui um objeto de fundo 302 e um objeto de mão 304 no fundo. Existe uma variedade de técnicas para a produção de imagens segmentadas, a maior parte das quais sendo bem conhecida na técnica. Em uma implementação, o segmentador 204 discerne os pixéis da área de fundo dos pixéis de qualquer outra área ou objeto que estejam presentes na imagem capturada 114 ou no exemplo 300. A distinção de pixéis em uma imagem binária é feita ao se considerar cada pixel correspondente ao fundo como “dentro”, ou como um valor particular, por exemplo, “um”. Qualquer outro valor de pixel em uma imagem poderá então ser comparado ao valor da imagem de fundo armazenada. Qualquer outro valor de pixel significativamente mais claro que o valor de pixel de fundo correspondente é considerado como parte de uma área nova ou um novo objeto de imagem, sendo rotulado como “fora”, ou com um valor diferente, por exemplo, “zero”.
O exemplo 300 pode ainda ilustrar a distinção da área de fundo 302 das demais áreas de uma imagem, como uma diferença de cor. A área de fundo 302 é mostrada como uma cor mais escura, que é igualada a um primeiro valor. O objeto da mão 304 mostrado como uma cor mais clara é igualado a um segundo valor, distinguindo o mesmo da área de fundo 302.
Voltando à Figura 2, o rastreador de área independente 206 determina, a intervalos de tempo fixos, o número de áreas independentes 112 do fundo. Cada parte do fundo visualmente independente das demais partes do fundo em pelo menos uma parte das áreas de mão de não fundo (ou imagem de borda) é definida como uma área independente 112. Para cada área independente 112 sensoriada, o rastreador de área independente 206 encontra uma área de pixéis “1” completamente envolvida por pixéis “0” (isto é, não mais conectada continuamente ao resto dos pixéis “1” que compreendem o fundo principal). Dito de outra forma, o rastreador de área independente 206 encontra áreas de fundo isolado circunscritas por um gesto de polegar e dedo indicador que se encontram de uma interface TAFFI.
A detecção precisa de uma área independente 112 como uma área separada do fundo, indicando a intenção de o usuário selecionar um objeto no vídeo 103, por exemplo, pode ser garantida quando a área independente se assenta totalmente dentro da imagem capturada 114 sensoriada pela câmera 104, isto é, quando nenhuma porção da área independente 112 se assenta sobre a borda da imagem capturada 114.
No entanto, em uma implementação, uma variação do rastreador de área independente 206 poderá sensoriar uma área independente 112 mesmo quando parte da área independente 112 se encontra “fora da teça” - não incluída como parte da imagem capturada 114. Isto pode ser obtido ao se definir uma área independente 112 como uma área de fundo cortada do fundo principal por parte da mão 110 ou por parte da borda da imagem capturada 114. Mas isto é apenas uma variação de como delimitar uma área independente do fundo.
Quando a existência de uma ou mais áreas independentes é estabelecida, o módulo de conexão 210 se associa a um parâmetro de controle para a manipulação de uma exibição de imagem visual 102 em uma interface de usuário com cada área independente. A manipulação pode incluir diversos mecanismos, incluindo um controle de cursor dentro de uma interface visual de usuário. O conteúdo do cursor de uma exibição de imagem visual 102 pode ser obtido, mas apenas quando a área independente é detectada e associada ao parâmetro de controle. Quando a detecção da área independente cessa, a associação do parâmetro de controle cessa, e o controle e a manipulação de cursor são desabilitados. O controle de cursor pode incluir um número de manipulações, inclusive a entrada de uma imitação de ação de “clique” de um mouse. A ação de clique provê a seleção de uma porção desejada da exibição de imagem visual 102, além do monitoramento e arrasto, e o movimento multidirecional e o controle do cursor.
O módulo de conexão 210 provê a associação de um parâmetro de controle específico com um gesto das mãos ou dos dedos ou com uma mudança de gesto. Quando um parâmetro de controle é atribuído ou associado a um gesto das mãos ou dos dedos, o mecanismo de parâmetro de controle 208 poderá ainda insinuar como o gesto das mãos e o parâmetro de controle se relacionam entre si. Por exemplo, o simples toque do polegar com o dedo indicador pode ser usado como uma interface de “liga - desliga”, binária, alta - baixa, ou outra interface ou chave de dois estados. Enquanto um atributo de gesto de mãos que pode modificar continuamente puder ser atribuído de modo a prover um controle variável sobre a manipulação da imagem de vídeo, como, por exemplo, os movimentos graduais da imagem de vídeo 102 em um contínuo.
Quando o módulo de conexão 210 atribui um parâmetro de controle variável de modo a controlar a imagem exibida 102, por exemplo, com relação às alterações de forma ou posição de uma área independente, o aspecto de variabilidade pode ser obtido ao se calcular a posição mínima de todos os pixéis pertencentes à cada área independente e em seguida monitorar as mudanças na posição do formato criado quando uma das mãos forma uma interface TAFFI. O movimento das mãos altera a orientação do formato elipsoidal das áreas independentes e provoca mudanças correspondentes no atributo de exibição associado ao parâmetro de controle atribuído.
Controle da Imagem Exibida
A Figura 4 mostra uma interface TAFFI exemplar 400 ilustrada dentro do contexto de uma imagem capturada 114. A parte ilustrada da imagem capturada 114 inclui uma área de fundo 302, uma área de objeto de mão 110, uma área independente 112, e uma borda de imagem 408. Cada uma das áreas 302, 110, e 406 pode ser descrita como áreas conectadas distintas, ou componentes conectados. O mecanismo de interface TAFFI 115 se distingue a área independente 112 dos demais componentes conectados 302 e 110.
Um mecanismo de interface TAFFI 115 pode, assim, usar a computação dos componentes conectados de uma imagem como a base para a implementação de uma controladora virtual para exibições visuais. Em mais detalhe, os componentes conectados vêm a ser um subconjunto de pixéis ou uma região de uma imagem na qual cada pixel é “conectado” a outro pixel no subconjunto. O termo “conectado” indica um conjunto de pixéis para o qual é possível atingir cada pixel a partir de qualquer outro pixel ao atravessar os pixéis que pertencem ao conjunto. Existem técnicas atualmente eficazes para a computação de um conjunto de componentes conectados em uma imagem. As técnicas de componentes conectados podem ser avenidas eficazes para a determinação de propriedades de forma em uma imagem, uma vez que as mesmas permitem o exame de pequenos conjuntos de componentes que consistem de muitos pixéis dentro dos pixéis da imagem como um todo.
O processo de computar componentes conectados pode dar surgimento à detecção de componentes conectados extrínsecos. Estas detecções desnecessárias podem confundir a determinação de áreas independentes relevantes formadas pelas interfaces TAFFI ou outras interfaces exemplares, e, com isso, impedir a implementação de uma controladora virtual. Em uma implementação, a detecção extrínseca de componentes conectados extras pode ser superada ao se descartar os componentes conectados que possuem um menor número de pixéis que um limite predeterminado permissível.
Em uma implementação, o mecanismo de interface TAFFI 115 verifica se uma área independente reconhecida 112 se assenta totalmente dentro das bordas da imagem, ou seja, totalmente dentro dos limites de uma área de fundo 302. Às vezes, esta detecção limitada de uma área independente 112 de um tamanho suficiente e não incluindo nenhum pixel na borda 408 da imagem reforça a identificação confiável de áreas independentes desejadas 406. Nesta implementação, a detecção apropriada é feita ao se evitar falsos candidatos de componentes conectados, ou que não se assentam totalmente dentro da imagem ou que contêm porções sobre a borda 408 da imagem.
Ainda, em uma outra implementação, o mecanismo de interface TAFFI 115 detecta uma área independente 112 por meio da detecção de uma porção da área independente 112 dentro da imagem capturada 114 e de uma porção que se assenta fora da tela sobre a borda 408 da imagem. Nesta implementação, a análise dos componentes conectados continua, contanto que a área independente 112 seja contígua até o ponto de encontro e/ou até se sobrepor à borda 408 da imagem. Isto pode ocorrer quando a mão que forma a interface TAFFI e a área independente 112 está apenas parcialmente dentro do campo de visão da câmera, e, portanto, apenas parcialmente dentro da imagem detectada.
Em uma implementação, o mecanismo de interface TAFFI 115 usa o centro da área independente 112 no sentido de estabelecer uma posição de cursor e um controle de cursor dentro da imagem exibida 102. O mecanismo de interface TAFFI 115 pode realizar uma análise estatística para cada área independente reconhecida 112, na qual um rastreador de área independente 206 computa o “centróide” ou a posição média de pixel de todos os pixéis pertencentes a cada área independente 112. Esta posição calculada vem a ser a soma de muitas posições de pixel, resultando em estabilidade e precisão nesta implementação. A posição média de pixel pode ser computada no mesmo estágio da computação dos componentes conectados, resultando em uma técnica eficaz que provê resultados rápidos a um baixo custo de processamento.
Com relação à aparição e ao desaparecimento de áreas independentes 406 como um meio de controle de uma exibição visual, em uma implementação, a posição média de pixel de todos os pixéis pertencentes a uma área independente 112 estabelece uma posição e controle do cursor apenas quando a área independente 112 é recém detectada durante um intervalo de um processo de detecção repetido.
O controle do cursor com a detecção de áreas independentes 406 pode imitar um dispositivo de entrada de mouse 106. Análogo ao mouse 106, o movimento relativo para a manipulação do cursor pode ser computado a partir da posição corrente e passada da área independente 112 formada por uma interface TAFFI 400. A junção de um polegar e dedo indicador é um movimento natural que permite um comportamento de garra sem esforço, assim como um dispositivo de entrada de mouse. O uso de um filtro de Kalman com uma detecção de interface TAFFI pode suavizar o movimento do cursor sobre a exibição visual 103.
O mecanismo de interface TAFFI exemplar 115 suporta a seleção de objetos da imagem exibida 102 por meio da rápida formação, desaparecimento e retorno de uma área independente 112 dentro de um limite de tempo limite. Estas ações imitam o “clique” de um botão de mouse para “selecionar” ou “executar” funções, podendo ainda suportar a transição entre monitorar a arrastar um objeto selecionado. Por exemplo, o arrasto pode ser implementado ao imitar um evento de “descida de mouse” imediatamente após a última formação de uma área independente 112. O correspondente evento de “subida de mouse” é gerado quando a área independente 112 desaparece ao se abrir o polegar e o dedo indicador. Por exemplo, no momento da formação da área independente, um objeto, como, por exemplo, uma barra de rolamento em um documento na imagem de interface visual de usuário, pode ser selecionado. Imediatamente após esta seleção, a posição da mão que forma a área independente 112 pode ser movimentada da mesma maneira que um mouse 106 poderia ser movimentado para rolar um documento para baixo.
O mecanismo de interface TAFFI 115 pode prover mais controle de uma exibição visual 102 do que simplesmente imitar uma função baseada em mouse convencional. As posições média e de covariância dos pixéis de uma área independente 112 (componente conectado) podem ser relacionadas a um modelo elipsoidal orientado do formato de uma área independente 112 ao computar os vetores próprios (eigenvetores) da matriz de covariância das posições de pixel. A raiz quadrada da magnitude dos valores próprios (eingenvalores) oferece a sua extensão espacial, de um maior ou menor tamanho de eixo, enquanto a orientação da elipse é determinada como o arco tangente de um dos vetores próprios, até uma ambiguidade de 180 graus. A ambigüidade resultante pode ser tratada ao se considerar a orientação computada ou a orientação girada a +180 graus a fim de minimizar a diferença na orientação a partir do quadro anterior.
O mecanismo de interface TAFFI 115 pode computar mudanças simultâneas de posição, orientação, e escala a partir do modelo elipsoidal da área independente 112 criada por uma interface TAFFI exemplar 400. Em várias implementações, as mudanças de escala podem também ser usadas para detectar o movimento da mão na direção da câmera ou para fora da câmera. Isto pressupõe que a mão do usuário que forma uma área independente 112 é de modo geral mantida dentro de uma faixa fixada de distâncias da câmera 104 de modo que o tamanho e a forma da área independente 112 só varie dentro de tolerâncias, de modo que as mudanças visuais de orientação se limitem ligeiramente ao plano da área de fundo 302, ou do teclado. Em uma implementação, uma consideração importante é que, em toda a interação, o usuário deve manter o tamanho da área independente - o tamanho do furo elipsoidal formado pela interface TAFFI 400 - uma vez que o usuário movimenta as mãos para cima e para baixo com relação à câmera ou ao teclado (ou seja, em algumas implementações, a mudança de altura é confundida com uma mudança real de formato da área independente). Em outras implementações, o mecanismo de interface TAFFI compensa as mudanças de tamanho da área independente à medida que a mão se movimenta para cima e para baixo, usando a lógica da visão por computador.
Em uma implementação exemplar, o mecanismo de interface TAFFI 115 usa o modelo elipsoidal da área independente 112 para a navegação com uma das mãos de uma imagem aérea e via satélite, tal como a provida pelo serviço da rede mundial WINDOWS® LIVE VIRTUAL EARTH®, ou outro serviço de mapas via Internet similar (Redmond, Wa). A navegação por meio do movimento por toda a vista de um mapa virtual pode ser realizada por uma interface TAFFI 400 com uma área independente 112 que se movimenta através de uma área de fundo 302, como, por exemplo, uma mesa ou teclado. A rotação do mapa como um todo pode ser feita ao se girar a mão que forma a área independente 112 dentro do plano bidimensional do teclado, enquanto as funções de aproximar (zoom in) ou de afastar (zoom out) são obtidas ao se movimentar a mão mais próximo ou mais longe da câmera 104.
O mecanismo de interface TAFFI 115 pode implementar o uso de duas ou mais mãos para controle do cursor e navegação. Uma estratégia de correspondência quadro a quadro permite que cada área independente 112 seja continuamente monitorada como a primeira, a segunda, a terceira, etc., área detectada por uma câmera para entrada. A colocação de ambas as mãos contra uma área de fundo 302 para detecção por parte de uma câmera e o movimento subseqüente das mãos com relação à área de fundo 302 alteram a orientação do modelo elipsoidal das áreas independentes 406 e fazem com que o movimento da interface visual de usuário seja exibido associado à posição e à localização dos movimentos das mãos via os parâmetros de controle atribuídos pelo módulo de conexão 210.
O monitoramento simultâneo de múltiplos parâmetros de controle correspondentes aos múltiplos gestos de mãos e dedos permite uma variedade de interações bimanuais. Mais uma vez com referência ao exemplar do mapa virtual via Internet, a entrada com as duas mãos ao mesmo tempo para a navegação do mapa virtual permite mudanças simultâneas na rotação, translação e escala da visualização do mapa no vídeo 103. Uma vez que as estimativas de localização para as áreas independentes 406 são derivadas da posição das mãos, a técnica das duas mãos ao mesmo tempo poderá prover estimativas de movimento mais estáveis do que a técnica com uma das mãos. A técnica das duas mãos ao mesmo tempo, deste modo, provê uma rotação no sentido horário ou anti-horário, na qual ambas as mãos simultaneamente se movimentam no sentido de rotação; o movimento de toda uma visão de exibição de interface visual de usuário nas direções vertical e horizontal, nas quais ambas as mãos se movimentam na direção desejada; e as funções de zoom, nas quais a aproximação da imagem de interface visual de usuário é feita quando ambas as mãos começam a se fechar e depois se afastam uma da outra, e o afastamento da imagem de interface visual de usuário é feito ao se colocar as mãos juntas a partir de uma posição de partida separada.
As mudanças simultâneas de posição, orientação, e de escala computadas a partir do modelo elipsoidal de uma área independente 112 podem ser usadas em implementações diferentes que as dos ambientes de um dispositivo computacional padrão. Por exemplo, o mecanismo de interface TAFFI 115 pode controlar os sistemas de superfície de tabela interativa que incluem uma câmera e um projetor sobre uma mesa, porém nenhum dispositivo de entrada tradicional, como, por exemplo, um mouse, uma tela sensível ao toque, ou um teclado. O usuário coloca as mãos sobre a superfície da mesa, formando as áreas independentes 406, de modo a prover uma manipulação e interação com a superfície da mesa e o material exibido sobre a superfície. Uma implementação similar pode incluir um sistema que projeta uma imagem de exibição sobre uma parede, na qual um usuário poderá interagir e controlar a imagem de exibição por meio das mãos e dedos que atuam como as interfaces TAFFI 400. Por exemplo, o mecanismo de interface TAFFI 115 pode permitir que um usuário modifique os slides durante uma apresentação em projetor.
Método Exemplar
A Figura 5 mostra um método exemplar 500 de controle de uma exibição visual via um gesto de mãos ou dedos. No fluxograma, as operações são resumidas em blocos individuais. Dependendo da implementação, o método exemplar 500 pode ser feito por um hardware, um software, ou combinações de hardware, software, firmware, etc., por exemplo, por meio dos componentes do sistema de controladora virtual exemplar 100 e/ou do mecanismo de interface TAFFI exemplar 115.
No bloco 502, é capturada uma imagem de uma ou mais mãos 110 contra um fundo via uma câmera 104. O contraste, a cor, ou o brilho podem ser um atributo dos pixéis, permitindo a distinção entre as mãos e a área de fundo circundante. As mãos são sensoriadas mais facilmente contra um fundo contrastante. Um cenário para o sensoriamento das mãos é quando se digita em um teclado 108. Uma câmera 104 captura a imagem das mãos 110 e o teclado 108 é sensoriado como parte da área de fundo. Uma iluminação por LED infravermelho pode também ser usada neste método, oferecendo uma iluminação controlada e fazendo com que as mãos pareçam muito similares ao tom de pele na câmera 104.
No bloco 504, a imagem é segmentada em objetos de mão e áreas de fundo por meio de uma segmentação binária. Por exemplo, os pixéis da área de fundo são identificados e distinguidos dos pixéis de qualquer outro objeto ou área na imagem. Os pixéis da área de fundo são em seguida rotulados com um valor. Os pixéis de outros objetos ou áreas na imagem são em seguida identificados e comparados ao valor dos pixéis da imagem de fundo armazenado. Qualquer valor de pixel significativamente mais claro que o valor de pixel do fundo correspondente é rotulado como parte de uma nova área ou imagem, e recebe um valor diferente dos pixéis de área de fundo. Esta distinção e rotulagem das diferentes áreas de uma imagem vem a ser uma segmentação binária da imagem.
No bloco 506, diversas áreas independentes do fundo são contadas nos repetidos intervalos de detecção. As áreas independentes 406 são definidas como cada parte do fundo 302 visualmente independente de outras partes do fundo em pelo menos uma parte de um dos objetos de mão 110. Por exemplo, quando uma das mãos atua como uma interface de polegar e dedo indicador, ou interface TAFFI, o polegar e o dedo indicador da mão cria uma área fechada, independente do restante da área de fundo geral. Esta área fechada forma uma nova área independente 112 à qual um parâmetro de controle para a manipulação de uma exibição visual poderá ser fixado. Em uma implementação, o método testa se as áreas independentes detectadas são realmente independentes, ou seja, em um caso, se uma área independente possui pixéis na borda da imagem.
No bloco 508, um parâmetro de controle para a manipulação de uma imagem em um vídeo é associado a cada área independente contada ou atributo da mesma. Por exemplo, uma área independente 112 criada por uma mão usada como uma interface TAFFI é sensoriada pela câmera 104 e se correlaciona a um parâmetro de controle, permitindo que o usuário selecione um objeto na imagem de interface de usuário. Em seguida, uma segunda área independente sensoriada 112 é correlacionada a um parâmetro de controle de interface de usuário, permitindo que o usuário movimente o objeto previamente selecionado para um local diferente na imagem de interface de usuário. Esta rápida sucessão de sensoriamento de uma primeira e uma segunda área independente 112 poderá se resultar de uma rápida formação, desaparecimento, e reaparecimento das áreas independentes 406, resultando em uma função de “clique” do tipo mouse associada a uma área independente sensoriada 112.
No bloco 510, a imagem exibida é modificada através do parâmetro de controle com relação à cada mudança no atributo da área independente atribuída ao parâmetro de controle. Por exemplo, a posição de uma área independente 112 pode se mover para a esquerda ou para a direita com relação à câmera de sensoriamento 104, e a imagem exibida 102 poderá seguir adequadamente. A associação da área independente sensoriada com um parâmetro de controle permite a manipulação da imagem visual exibida 102 de acordo com o movimento, posição, e relação das mãos que são usadas como as interfaces TAFFI.
O método acima 500 e outros métodos relacionados podem ser implementados no contexto geral das instruções executáveis em computador. De modo geral, as instruções executáveis em computador podem incluir rotinas, programas, objetos, componentes, estruturas de dados, procedimentos, módulos, funções, ou coisa do gênero que realizam funções particulares ou implementam tipos de dados específicos. Os métodos podem também ser praticados em um ambiente computacional distribuído, no qual as funções são realizadas por meio de dispositivos de processamento remotos conectados por uma rede de comunicação. Em um ambiente computacional distribuído, as instruções executáveis em computador podem se localizar em um meio de armazenamento de computador tanto local como remoto, incluindo os dispositivos de armazenamento de memória.
Conclusão
Embora os sistemas e métodos exemplares tenham sido descritos em uma linguagem específica a aspectos estruturais e/ou a atos metodológicos, deve-se entender que a matéria em questão, definida nas reivindicações em apenso, não se limita aos aspectos ou atos específicos descritos. Em contrapartida, os aspectos e atos específicos são apresentados como formas exemplares de implementação dos métodos, dispositivos, sistemas, etc., aqui reivindicados.

Claims (20)

  1. REIVINDICAÇÕES
    1. Método, CARACTERIZADO pelo fato de compreender as etapas de:
    - detectar (502) uma imagem de uma ou mais mãos contra um fundo via uma câmera;
    - segmentar (504) a imagem em áreas de mão e em áreas de fundo;
    - em intervalos, contar (506) o número de áreas independentes do fundo, em que cada parte do fundo visualmente independente das outras partes do fundo, por pelo menos uma parte de uma das áreas de mão, é definida como uma área independente;
    - associar (508) um parâmetro de controle para a manipulação de uma imagem exibida em uma interface de usuário à cada área independente contada;
    - mudar (510) a imagem exibida via o parâmetro de controle com relação a cada mudança em um formato e/ou uma posição da área independente associada ao parâmetro de controle.
  2. 2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que compreender ainda a etapa de dissociar um parâmetro de controle de uma área independente associada quando a área independente é conectada novamente.
  3. 3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de controle compreende a emulação de uma atuação de um botão de mouse quando uma área independente se forma, desaparece, e volta a se formar dentro de um intervalo de tempo limite.
  4. 4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de controle compreende a emulação e o movimento de um ponteiro de mouse.
  5. 5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de controle compreende o movimento de um cursor.
  6. 6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de controle compreende o movimento da imagem de exibição com relação à interface de usuário.
  7. 7. Método, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o movimento compreende um dentre: o movimento vertical, o movimento horizontal, ou o movimento rotacional.
  8. 8. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de controle compreende o aumento ou a redução do tamanho da imagem de exibição sobre a interface de usuário.
  9. 9. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de compreender ainda a etapa de associar o parâmetro de controle a uma relação entre duas áreas independentes, cada área independente sendo formada pela imagem de uma respectiva mão.
  10. 10. Método, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que o parâmetro de controle compreende o estiramento da imagem exibida com relação a uma distância de mudança entre as duas áreas independentes.
  11. 11. Método, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que o parâmetro de controle associado à relação entre duas áreas independentes controla uma das etapas de:
    - girar a imagem exibida com relação à rotação de uma linha entre as duas áreas independentes:
    - girar a imagem exibida em um sentido horário ou anti-horário quando ambas as áreas independentes se movimentam em uma direção de arco similar;
    - movimentar toda a imagem exibida quando ambas as áreas independentes se movimentam simultaneamente na mesma direção; e
    - aproximar a imagem exibida quando a distância entre as áreas independentes é alterada.
  12. 12. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a área do polegar e a área do dedo indicador de uma das áreas de mão definem uma interface de polegar e dedo indicador (TAFFI), a área do polegar e a área do dedo indicador se tocando entre si visualmente de modo a desconectar visualmente uma parte do fundo das demais partes do fundo e formar uma área independente.
  13. 13. Sistema, CARACTERIZADO pelo fato de compreender:
    - um sensor de imagem (104) a fim de detectar uma imagem que inclui uma ou mais mãos contra um fundo;
    - um separador de imagem (204) a fim de segmentar a imagem em uma ou mais áreas e o fundo;
    - um rastreador (206) para contar, em intervalos, o número de áreas independentes do fundo, em que cada parte do fundo visualmente independente das demais partes do fundo por pelo menos uma parte de uma das áreas de mão é definida como uma área independente;
    - um módulo de conexão (210) de modo a associar um parâmetro de controle para a manipulação de uma imagem exibida em uma interface de usuário com cada área independente contada; e
    - em que cada mudança na forma, na posição, ou as duas coisas, da área independente associada ao parâmetro de controle modifica a imagem exibida via o parâmetro de controle.
  14. 14. Sistema, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que, quando a área independente se conecta novamente, o móduio de conexão desassocia o respectivo parâmetro de controle.
  15. 15. Sistema, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que o módulo de conexão associa um parâmetro de controle que emula a atuação de um botão de mouse quando uma área independente se forma, desaparece, e se forma novamente dentro de um intervalo de tempo limite.
  16. 16. Sistema, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que o módulo de conexão associa um parâmetro de controle a fim de emular o movimento de um indicador visual selecionado dentre o grupo de indicadores visuais que consiste da imagem de um ponteiro de mouse, a imagem de um cursor, e pelo menos parte da imagem de exibição, e no qual o movimento compreende um movimento selecionado dentre o grupo de movimentos que consiste de um movimento vertical, um movimento horizontal, um movimento rotacional, um movimento de aproximação (zoom in), ou um movimento de afastamento (zoom out).
  17. 17. Sistema, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que o módulo de conexão associa o parâmetro de controle a uma relação entre duas áreas independentes, cada área independente sendo formada pela imagem de uma respectiva mão.
  18. 18. Sistema, de acordo com a reivindicação 17, CARACTERIZADO pelo fato de que o módulo de conexão associa o parâmetro de controle no sentido de estirar a imagem exibida com relação a uma distância de mudança entre as duas áreas independentes.
  19. 19. Sistema, de acordo com a reivindicação 17, CARACTERIZADO pelo fato de que o módulo de conexão associa um parâmetro de controle no sentido de girar a imagem exibida com relação à rotação de uma linha entre as duas áreas independentes.
  20. 20. Sistema para modificar uma imagem exibida em uma interface de usuário via um parâmetro de controle atribuído a um movimento de uma mão, o sistema sendo CARACTERIZADO pelo fato de compreender:
    - um meio (104) para a detecção de uma imagem de uma ou mais mãos contra um fundo;
    - um meio (204) para a segmentação da imagem em uma ou mais áreas de mão e fundo;
    - um meio (206) para a contagem, em intervalos fixos, do número de áreas independentes do fundo, em que cada parte do fundo visualmente independente das demais partes do fundo, por pelo menos uma parte de uma área de mão, é definida como uma área independente;
    - um meio (210) para a associação de um parâmetro de controle de modo a manipular uma imagem exibida em uma interface de usuário à cada área independente contada, e modificar a da imagem exibida via o parâmetro de controle com relação à cada mudança de forma e/ou posição da área independente associada ao parâmetro de controle.
BRPI0714232A 2006-08-08 2007-05-29 controladora virtual para exibições visuais BRPI0714232B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/463,183 US7907117B2 (en) 2006-08-08 2006-08-08 Virtual controller for visual displays
US11/463.183 2006-08-08
PCT/US2007/012546 WO2008018943A1 (en) 2006-08-08 2007-05-29 Virtual controller for visual displays

Publications (3)

Publication Number Publication Date
BRPI0714232A2 BRPI0714232A2 (pt) 2013-01-15
BRPI0714232A8 BRPI0714232A8 (pt) 2017-01-17
BRPI0714232B1 true BRPI0714232B1 (pt) 2018-09-18

Family

ID=39033312

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0714232A BRPI0714232B1 (pt) 2006-08-08 2007-05-29 controladora virtual para exibições visuais

Country Status (14)

Country Link
US (4) US7907117B2 (pt)
EP (1) EP2049976B1 (pt)
JP (1) JP4965653B2 (pt)
KR (1) KR101292467B1 (pt)
CN (1) CN101501614B (pt)
BR (1) BRPI0714232B1 (pt)
CA (4) CA2880054C (pt)
IL (1) IL196018A (pt)
MX (1) MX2009000305A (pt)
MY (1) MY161823A (pt)
NO (1) NO20090116L (pt)
RU (1) RU2439653C2 (pt)
WO (1) WO2008018943A1 (pt)
ZA (1) ZA200810106B (pt)

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
KR101183000B1 (ko) 2004-07-30 2012-09-18 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8060840B2 (en) * 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US8941588B2 (en) * 2008-04-24 2015-01-27 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US20080189661A1 (en) * 2007-02-06 2008-08-07 Jazzbo Technology Inc. Video user interface
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
US20080229232A1 (en) * 2007-03-16 2008-09-18 Apple Inc. Full screen editing of visual media
AU2008299883B2 (en) 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
TW201005579A (en) * 2008-07-22 2010-02-01 Asustek Comp Inc Apparatus for reading electric document and method for operating electric document read
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
EP2342642A1 (en) * 2008-09-04 2011-07-13 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
CN101727177B (zh) * 2008-10-30 2012-09-19 深圳富泰宏精密工业有限公司 鼠标模拟系统及其应用方法
TWI486821B (zh) * 2008-11-28 2015-06-01 Chi Mei Comm Systems Inc 滑鼠類比系統及其應用方法
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8121640B2 (en) * 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100309140A1 (en) * 2009-06-05 2010-12-09 Microsoft Corporation Controlling touch input modes
KR20110007806A (ko) 2009-07-17 2011-01-25 삼성전자주식회사 카메라를 이용하여 손동작을 인식하는 장치 및 방법
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
TWI371681B (en) * 2009-09-18 2012-09-01 Primax Electronics Ltd Notebook computer with multi-image capture function
EP2480951A4 (en) 2009-09-21 2014-04-30 Extreme Reality Ltd METHOD, CIRCUITS, DEVICES AND SYSTEMS FOR A HUMAN MACHINE INTERFACE WITH AN ELECTRONIC DEVICE
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
JP2011234229A (ja) * 2010-04-28 2011-11-17 Olympus Imaging Corp 撮像装置
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
CN101901052B (zh) * 2010-05-24 2012-07-04 华南理工大学 双手互为参考的目标控制方法
FR2960986A1 (fr) 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
US9009594B2 (en) 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
US9132352B1 (en) * 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8963836B2 (en) 2010-09-17 2015-02-24 Tencent Technology (Shenzhen) Company Limited Method and system for gesture-based human-machine interaction and computer-readable medium thereof
CN102402279B (zh) * 2010-09-17 2016-05-25 腾讯科技(深圳)有限公司 基于手势的人机交互方法及系统
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
WO2012093394A2 (en) * 2011-01-06 2012-07-12 Pointgrab Ltd. Computer vision based two hand control of content
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9189825B2 (en) * 2011-04-12 2015-11-17 Lg Electronics Inc. Electronic device and method for displaying stereoscopic image
WO2012145011A1 (en) * 2011-04-22 2012-10-26 Hewlett-Packard Development Company, L.P. Systems and methods for displaying data on large interactive devices
GB2491473B (en) * 2011-05-31 2013-08-14 Pointgrab Ltd Computer vision based control of a device using machine learning
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20130009989A1 (en) * 2011-07-07 2013-01-10 Li-Hui Chen Methods and systems for image segmentation and related applications
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US20130080932A1 (en) * 2011-09-27 2013-03-28 Sanjiv Sirpal Secondary single screen mode activation through user interface toggle
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
WO2013095671A1 (en) 2011-12-23 2013-06-27 Intel Corporation Transition mechanism for computing system utilizing user sensing
US9678574B2 (en) 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
US10345911B2 (en) 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
ES2443265B1 (es) * 2012-08-16 2014-11-13 Eads Construcciones Aeronauticas, S.A. Banco de fabricación o verificación de mazos eléctricos
GB2507963A (en) * 2012-11-14 2014-05-21 Renergy Sarl Controlling a Graphical User Interface
TWI502519B (zh) 2012-11-21 2015-10-01 Wistron Corp 手勢辨識模組及手勢辨識方法
US20140152566A1 (en) * 2012-12-05 2014-06-05 Brent A. Safer Apparatus and methods for image/sensory processing to control computer operations
KR20140085055A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
US9201589B2 (en) 2013-05-21 2015-12-01 Georges Antoine NASRAOUI Selection and display of map data and location attribute data by touch input
US9696812B2 (en) * 2013-05-29 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
EP2846243B1 (en) * 2013-09-04 2019-08-14 Matthias Rath Graphical user interface providing virtual super-zoom functionality
US9727915B2 (en) * 2013-09-26 2017-08-08 Trading Technologies International, Inc. Methods and apparatus to implement spin-gesture based trade action parameter selection
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
US11435895B2 (en) 2013-12-28 2022-09-06 Trading Technologies International, Inc. Methods and apparatus to enable a trading device to accept a user input
WO2015102658A1 (en) * 2014-01-03 2015-07-09 Intel Corporation Systems and techniques for user interface control
KR20160037508A (ko) * 2014-09-29 2016-04-06 삼성전자주식회사 디스플레이 장치 및 그의 표시 방법
DE102014226553A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
CN104850340B (zh) 2015-01-30 2018-11-30 小米科技有限责任公司 触控显示屏上的文档显示方法及装置
CN106406507B (zh) * 2015-07-30 2020-03-27 株式会社理光 图像处理方法以及电子设备
CN105159524A (zh) * 2015-08-03 2015-12-16 小米科技有限责任公司 界面显示方法及装置
US20170249061A1 (en) * 2016-02-29 2017-08-31 Lampix Method and Apparatus for Providing User Interfaces with Computerized Systems and Interacting with a Virtual Environment
TWI695296B (zh) * 2016-04-29 2020-06-01 姚秉洋 內建感應器及光源模組之鍵盤裝置
US11182853B2 (en) 2016-06-27 2021-11-23 Trading Technologies International, Inc. User action for continued participation in markets
EP3629973A4 (en) * 2017-05-26 2021-01-27 Covidien LP CONTROL DEVICE FOR IMAGING DEVICE
US11360558B2 (en) 2018-07-17 2022-06-14 Apple Inc. Computer systems with finger devices
KR102164706B1 (ko) * 2018-07-19 2020-10-12 한남대학교 산학협력단 초고속 문서작성을 위한 손가락 제스처 인식 기반 마우스
TWI710973B (zh) * 2018-08-10 2020-11-21 緯創資通股份有限公司 手勢識別方法、手勢識別模組及手勢識別系統
CN110286780B (zh) * 2019-06-26 2022-06-07 西南民族大学 一种基于机器视觉的机电混合式无人值守计算机操作装置
US11430414B2 (en) 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
US11360587B1 (en) 2020-04-07 2022-06-14 Apple Inc. Deployment systems for computer system finger devices
US20240069643A1 (en) * 2022-08-31 2024-02-29 Youjean Cho Physical gesture interaction with objects based on intuitive design

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US484568A (en) * 1892-10-18 Farm-gate
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH0736142B2 (ja) * 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6269172B1 (en) * 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
US6771834B1 (en) 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
RU2175143C1 (ru) 2000-04-04 2001-10-20 Свириденко Андрей Владимирович Способ дистанционного управления
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
JP2002259046A (ja) 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6888960B2 (en) * 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
US6539931B2 (en) * 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US7821541B2 (en) * 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US20030214481A1 (en) * 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
US20040001113A1 (en) * 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
US6996460B1 (en) * 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
WO2005084209A2 (en) * 2004-02-27 2005-09-15 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) * 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
CN100573548C (zh) * 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7710395B2 (en) * 2004-07-14 2010-05-04 Alken, Inc. Head-mounted pointing and control device
EP2000894B1 (en) 2004-07-30 2016-10-19 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP4088282B2 (ja) 2004-08-20 2008-05-21 清実 中村 コンピュータ入力方法と装置
US7359564B2 (en) 2004-10-29 2008-04-15 Microsoft Corporation Method and system for cancellation of ambient light using light frequency
US8137195B2 (en) * 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7492367B2 (en) * 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
JP4686595B2 (ja) * 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US9292092B2 (en) 2007-10-30 2016-03-22 Hewlett-Packard Development Company, L.P. Interactive display system with collaborative gesture detection
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game

Also Published As

Publication number Publication date
US8115732B2 (en) 2012-02-14
CA2880054A1 (en) 2008-02-14
US8049719B2 (en) 2011-11-01
US20120105315A1 (en) 2012-05-03
BRPI0714232A2 (pt) 2013-01-15
MY161823A (en) 2017-05-15
US7907117B2 (en) 2011-03-15
NO20090116L (no) 2009-01-09
MX2009000305A (es) 2009-01-26
IL196018A0 (en) 2009-09-01
CA2654744A1 (en) 2008-02-14
CA2880052C (en) 2017-06-27
RU2009104062A (ru) 2010-08-20
EP2049976A4 (en) 2013-06-19
CA2880053C (en) 2016-08-23
US20110025601A1 (en) 2011-02-03
ZA200810106B (en) 2010-02-24
IL196018A (en) 2012-06-28
CN101501614B (zh) 2012-04-18
RU2439653C2 (ru) 2012-01-10
CA2880054C (en) 2016-08-23
US20080036732A1 (en) 2008-02-14
KR20090047454A (ko) 2009-05-12
CA2880052A1 (en) 2008-02-14
CA2654744C (en) 2015-10-06
CN101501614A (zh) 2009-08-05
BRPI0714232A8 (pt) 2017-01-17
WO2008018943A1 (en) 2008-02-14
JP4965653B2 (ja) 2012-07-04
US20090208057A1 (en) 2009-08-20
KR101292467B1 (ko) 2013-08-05
EP2049976A1 (en) 2009-04-22
EP2049976B1 (en) 2018-03-07
JP2010500645A (ja) 2010-01-07
CA2880053A1 (en) 2008-02-14
US8552976B2 (en) 2013-10-08

Similar Documents

Publication Publication Date Title
BRPI0714232B1 (pt) controladora virtual para exibições visuais
US10739965B2 (en) Virtual interactions for machine control
US10001838B2 (en) Feature tracking for device input
JP6207659B2 (ja) コンピュータ装置の遠隔制御
CN108399010B (zh) 增强的基于相机的输入
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
US8959013B2 (en) Virtual keyboard for a non-tactile three dimensional user interface
US20060284874A1 (en) Optical flow-based manipulation of graphical objects
CN105046249B (zh) 一种人机交互方法
Iannizzotto et al. A multimodal perceptual user interface for video-surveillance environments
Costanzo et al. Virtualboard: Real-time visual gesture recognition for natural human-computer interaction
Verdié Surface gesture & object tracking on tabletop devices
Genç Vision-based hand interface systems in human computer interaction

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: MICROSOFT TECHNOLOGY LICENSING, LLC (US)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B15K Others concerning applications: alteration of classification

Ipc: G06F 3/01 (2006.01)

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 18/09/2018, OBSERVADAS AS CONDICOES LEGAIS.