BR112013014287B1 - Método e aparelho para reconhecimento de gesto - Google Patents

Método e aparelho para reconhecimento de gesto Download PDF

Info

Publication number
BR112013014287B1
BR112013014287B1 BR112013014287-1A BR112013014287A BR112013014287B1 BR 112013014287 B1 BR112013014287 B1 BR 112013014287B1 BR 112013014287 A BR112013014287 A BR 112013014287A BR 112013014287 B1 BR112013014287 B1 BR 112013014287B1
Authority
BR
Brazil
Prior art keywords
gesture
subgestion
possible commands
fact
recognized
Prior art date
Application number
BR112013014287-1A
Other languages
English (en)
Other versions
BR112013014287A2 (pt
Inventor
Wei Zhou
Jun Xu
Xiaojun Ma
Original Assignee
Interdigital Ce Patent Holdings
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Ce Patent Holdings filed Critical Interdigital Ce Patent Holdings
Publication of BR112013014287A2 publication Critical patent/BR112013014287A2/pt
Publication of BR112013014287B1 publication Critical patent/BR112013014287B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Abstract

INTERFACE DE USUÁRIO, APARELHO E MÉTODO PARA RECONHECIMENTO DE GESTO Interface de usuário, aparelho e método para o reconhecimento de gesto compreendendo: prever um ou mais comandos possíveis para o aparelho com base em um ou mais gestos complementares executados por um usuário anteriormente, indicar o comando ou comandos possíveis.

Description

CAMPO DA INVENÇÃO
A presente invenção refere-se, em geral, ao reconhecimento de gestos, e mais particularmente, a uma interface de usuário, aparelho e método para o reconhecimento de gesto em um sistema eletrônico.
FUNDAMENTOS DA INVENÇÃO
À medida que aumenta a faixa de atividades que se realizam com um computador, maneiras novas e inovadoras para proporcionar uma interface entre o usuário e a máquina são frequentemente desenvolvidas para proporcionar uma experiência mais natural para o usuário. Por exemplo, uma tela sensível ao toque pode permitir a um usuário o fornecimento de informações para um computador sem um mouse e/ou teclado, de maneira que não há necessidade de área com uma mesa para operar o computador. O reconhecimento do gesto também está recebendo mais e mais atenções devido ao seu uso potencial no reconhecimento de linguagem por sinais, interação homem-computador multimodal, realidade virtual e controle de robôs.
O reconhecimento de gestos é uma área que está se desenvolvendo rapidamente no mundo do computador, que permite que um dispositivo reconheça determinados gestos com a mão feitos por usuário, de modo que certas funções do dispositivo podem ser realizadas com base no gesto. Os sistemas de reconhecimento de gesto com base na visão pelo computador são propostos para facilitar uma interface usuário-máquina mais “natural”, eficiente e efetiva. Não visão pelo computador, para se aumentar a exatidão no reconhecimento do gesto, é necessário exibir o vídeo capturado relacionado da câmera na tela. E esse tipo de vídeo pode ajudar a indicar ao usuário se é possível que seu gesto vá ser reconhecido corretamente e se ele precisa fazer algum ajuste para a sua posição ou não. Entretanto, a exibição de vídeo capturado da câmera vai normalmente ter um impacto negativo para o usuário que está assistindo o programa em exibição na tela. Portanto, é necessário encontrar uma maneira que possa minimizar a alteração no programa em exibição na tela, e, ao mesmo tempo manter a alta precisão no reconhecimento.
Por outro lado, recentemente, mais e mais gestos compostos (tais como pegar e largar) são aplicados em UI (interface de usuário). Esses gestos compostos normalmente incluem subgestos e são mais difíceis de serem reconhecidos do que um único gesto. A Patente US20100050133 “Compound Gesture Recognition” de H. kieth Nishihara e outros, depositada em 22 de agosto de 2008, propõe um método que inclui múltiplas câmeras e tenta detectar e traduzir os diferentes subgestos em diferente informação para um dispositivo diferente. Entretanto, o custo e a distribuição de múltiplas câmeras limitam a aplicação desse método em usos domésticos.
Portanto, é importante estudar o reconhecimento de gesto composto no sistema de interface do usuário.
SUMÁRIO DA INVENÇÃO
A invenção se refere a uma interface de usuário em um sistema de reconhecimento de gesto compreendendo: uma janela de exibição adaptada para indicar um subgesto de pelo menos um comando por gesto, de acordo com um ou mais subgestos realizados por um usuário e recebidos pelo sistema de reconhecimento de gesto previamente.
A invenção também se refere a um aparelho compreendendo: uma unidade de previsão de gesto configurada para prever um ou mais comandos possíveis para o aparelho com base em um ou mais subgestos realizados por um usuário anteriormente; um visor configurado para indicar o comando ou comando possíveis.
A invenção também se refere a um método para reconhecimento de gesto compreendendo: prever um ou mais comandos possíveis para o aparelho com base em um ou mais subgestos realizados por um usuário anteriormente; indicar o comando ou comandos possíveis.
BREVE DESCRIÇÃO DOS DESENHOS
Esses e outros aspectos, características e vantagens da presente invenção se tornarão evidentes a partir da descrição a seguir de uma modalidade em conexão com os desenhos anexos:
A Figura 1 é um diagrama de blocos mostrando um exemplo de um sistema de reconhecimento de gesto de acordo com uma modalidade da invenção;
A Figura 2 mostra um diagrama de gestos manuais usados para explicar a invenção;
A Figura 3 é um diagrama mostrando exemplos da janela de exibição da interface de usuário de acordo com a modalidade da invenção;
A Figura 4 é diagrama mostrando uma região de interface de usuário na tela de exibição de acordo com a modalidade;
A Figura 5 é um fluxograma mostrando um método de controle da opacidade da janela de exibição;
A Figura 6 é um fluxograma mostrando um método para o reconhecimento de gesto de acordo com a modalidade da invenção.
Deve ser entendido que os desenhos têm o propósito de ilustrar os conceitos da divulgação e não são necessariamente a única configuração possível para ilustrar a divulgação.
DESCRIÇÃO DETALHADA DE MODALIDADES PREFERIDAS
Na descrição detalhada a seguir, uma interface de usuário, um aparelho e um método para reconhecimento de gesto estão descritos para proporcionar um completo entendimento da presente invenção. Entretanto, será reconhecido pelo especialista na técnica que a presente invenção pode ser praticada sem esses detalhes específicos ou com equivalentes dos mesmos. Em outros casos, métodos, procedimentos, componentes e circuitos bem conhecidos não foram descritos em detalhes para não desviar desnecessariamente a atenção dos aspectos da presente invenção.
Um usuário pode proporcionar informações simuladas para um computador, TV ou outro dispositivo eletrônico. Deve ser entendido que as informações simuladas podem ser proporcionadas por um gesto composto, um único gesto, ou mesmo qualquer gesto corporal realizado pelo usuário. Por exemplo, o usuário poderia proporcionar gestos que incluem um movimento pré-definido em um ambiente de reconhecimento de gesto. O usuário proporciona as informações de gesto, por exemplo, por uma ou por ambas as mãos do usuário; por um bastão, por uma agulha, por uma vareta pontiaguda; ou por uma variedade de outros dispositivos com os quais o usuário pode gesticular. As informações simuladas poderiam ser, por exemplo, informações simuladas de mouse, para estabelecer, por exemplo, uma referência para o teor visual exibido e executar um comando em porções do teor visual com as quais a referência se relaciona.
A Figura 1 é um diagrama de blocos mostrando um exemplo de um sistema de reconhecimento de gesto 100 de acordo com uma modalidade da invenção. Como mostrado na Figura 1, o sistema de reconhecimento de gesto 100 inclui uma câmera 101, uma tela de exibição 102, uma tela 108-1, uma tela 108-2, um controlador de exibição 104, um previsor de gesto 105, uma unidade de reconhecimento de gesto 106 e uma base de dados de gestos 107. Para exemplificar, a câmera 101 é montada acima da tela de exibição 102, e as telas 108-1 e 108-2 estão localizadas respectivamente nos lados esquerdo e direito da tela de exibição 102.
O usuário que está em frente à tela de exibição 102 pode proporcionar informações simuladas para o sistema de reconhecimento de gesto 100 por um objeto de entrada. Na modalidade, o objeto de entrada é demonstrado como sendo a mão de um usuário, de modo que as informações simuladas possam ser proporcionadas através de gestos com as mãos. Deve ser entendido que o uso da mão para proporcionar informações simuladas por gestos das mãos é apenas uma implementação de exemplo do sistema de reconhecimento de gesto 100. Além disso, no exemplo de se realizarem os gestos tendo a mão do usuário como objeto de informação para proporcionar informações simuladas, a mão do usuário pode incorporar uma luva e/ou sensores para a ponta ou junta dos dedos ou pode ser a mão nua de um usuário.
Na modalidade da Figura 1, a câmera 101 pode tirar rapidamente imagens fotográficas do gesto de mão dos usuários a, por exemplo, trinta vezes por segundo, e as imagens ao proporcionadas para a unidade de reconhecimento de gesto 106 para identificar o gesto do usuário. O reconhecimento do gesto está recebendo mais e mais atenção recentemente devido ao seu uso potencial no reconhecimento de linguagem de sinais, interação homem-computador multimodal, realidade virtual, e controle de robôs. A maioria dos métodos de reconhecimento de gesto da técnica anterior junta sequências de imagens observadas com amostras de treinamento ou com um modelo. A sequência de informação é classificada como sendo a classe cujas amostras ou modelos melhor se encaixam na mesma. Variação Temporal Dinâmica (DTW), Programação Dinâmica Contínua (CDP), Modelo Oculto de Markov (HMM) e Campo Aleatório Condicional (CRF) são métodos exemplificativos dessa categoria na técnica anterior. HMM é a técnica mais amplamente usada para o reconhecimento de gesto. O método de reconhecimento detalhado para subgestos não será descrito aqui.
A unidade de reconhecimento de gesto 106, o previsor de gesto 105, o controlador de exibição 104 e a base de dados de gestos 107 podem estar localizados, por exemplo, dentro de um computador (não ilustrado) ou em processadores embutidos, de modo a processarem as respectivas imagens associadas ao objeto de entrada para gerar a instrução de controle indicada em uma janela de exibição 103 da tela de exibição 102.
De acordo com a modalidade, entradas de um só gesto e de gestos compostos por parte de usuários podem ser identificadas. Um gesto composto pode ser um gesto com o qual múltiplos subgestos podem ser empregados para proporcionar múltiplas entradas de dispositivos relacionados. Por exemplo, um primeiro subgesto pode ser um gesto de referência para se relacionar a uma porção do teor visual e um segundo subgesto pode ser um gesto de execução que pode ser realizado imediatamente após o primeiro subgesto, de modo a executar um comando na porção do teor visual com o qual se relaciona o primeiro subgesto. O gesto único inclui apenas um subgesto, e é realizado imediatamente após o subgesto ser identificado. A Figura 2 mostra o gesto manual exemplificativo usado para explicar a invenção.
Como mostrado na Figura 2, um gesto composto inclui diversos subgestos (ou gestos subsequentes), e depende de qual função ele representa. Chamamos o primeiro subgesto de gesto principal e o último de gesto de terminação. Em 3D UI (interface tridimensional de usuário), existem muitas funções que compartilham esse mesmo primeiro gesto. Por exemplo, um gesto composto típico é o de “pegar e largar”. Nesse caso, um usuário pode pegar uma cena de um programa de TV utilizando seu gesto de mão e largá- la em um quadro próximo ou tela de dispositivo fazendo um gesto de mão que significa LARGAR. Aqui, a definição de gesto composto inclui três porções (subgestos): pegar, largar e onde largar. Por exemplo, na sala de estar do usuário existem um aparelho de TV e dois tablets que estão colocados respectivamente no lado esquerdo e direito direito da TV respectivamente como mostrado na Figura 1. E esses dois tablets já se registraram no sistema e se conectaram com a base de dados de gestos 107. Assim, os gestos compostos de “pegar e largar” incluem dois tipos. Um tem dois subgestos “pegar e largar à esquerda” como mostrado na Figura 2(b), o que quer dizer que o conteúdo de tela indicado pelo usuário será deixado no tablet à esquerda, e transmitido para o tablet à esquerda 108- 1 pela base de dados 107, e outro tipo tem “pegar e largar à direita” como mostrado na Figura 2(a), o que quer dizer que o conteúdo de tela indicado pelo usuário será deixado no tablet à direita, e transmitido para o tablet à direita 108-2 pela base de dados 107. Esses dois tipos têm em comum o mesmo primeiro subgesto “pegar”. Certamente, se o segundo subgesto ainda for “pegar”, que é o mesmo primeiro gesto “pegar” como mostrado na Figura 2(c), e a seguir “pegar” é mantido por mais de um segundo, isto significa que esse gesto composto contém apenas um subgesto de “pegar” e o conteúdo na tela será armazenado ou largado localmente.
Voltando à Figura 1, o previsor de gesto 105 do sistema de reconhecimento de gesto 100 é configurado para prever um ou mais comandos gestuais possíveis para o aparelho com base no gesto ou gestos de usuário anteriormente reconhecidos pela unidade de reconhecimento de gesto 106 e sua sequência ou ordem. Para realizar o prognóstico, outra base de dados de gesto composto 107 é necessária, a qual é configurada para armazenar os gestos pré-definidos com uma função de comando específica.
Quando as imagens de gesto obtidas pela câmera 101 são reconhecidas pela unidade de reconhecimento de gesto 106, o resultado do reconhecimento, por exemplo, um subgesto pré-definido será alimentado para o previsor de gesto 105. Então, consultando-se a base de dados de gestos 107 com base no resultado do reconhecimento, o previsor de gesto 105 vai prever um ou mais comandos gestuais possíveis e o subgesto seguinte dos comandos gestuais possíveis será mostrado como uma indicação em uma janela de exibição 103. Por exemplo, quando o primeiro subgesto “pegar” é reconhecido, consultando-se a base de dados 107, o previsor pode tirar uma conclusão de que existem três possíveis candidatos para esse gesto composto “pegar e largar à esquerda”, “pegar e largar à direita” e “só pegar”.
Na base de dados 107, existem ainda subgestos simples e compostos como: quando o subgesto principal é “acenar mão direita”, os gestos de terminação podem ser respectivamente “acenar mão direita”, “acenar as duas mãos”, “’levantar a mão direita”, ou “ficar parado”. Por exemplo, o gesto principal significa ligar o aparelho de TV. Se o gesto de terminação for “acenar mão direita”, isto quer dizer que o aparelho de TV exibe o programa set-to-box. Se o gesto de terminação for “acenar as duas mãos”, isto significa que o aparelho de TV exibe o programa a partir de um servidor de mídia. Se o gesto de terminação for “levantar a mão direita”, isto significa que o aparelho de TV exibe o programa a partir de um DVD (disco de vídeo digital). Se o gesto de terminação for “acenar as duas mãos”, isto significa que o aparelho de TV exibe o programa a partir de um servidor de mídia. Se o gesto de terminação for “ficar parado”, isto significa que o aparelho de TV não vai exibir nenhum programa. Embora a invenção seja explicada tomando-se o gesto composto “pegar e largar” e subgestos em duas etapas como exemplo, isto não pode ser considerado um limite para a invenção.
De acordo com a modalidade, a janela de exibição 103 apresentando uma interface de usuário do sistema de reconhecimento de gesto 100 é usada para indicar o seguinte subgesto do comando ou comandos possíveis obtidos pelo previsor de gesto 105, juntamente com informação sobre como desempenhar um gesto seguinte de um comando completo possível. A Figura 3 é um diagrama mostrando exemplos da janela de exibição 103 de acordo com a modalidade da invenção. Aqui, o tamanho e a localização da janela de exibição podem ser selecionados por um especialista na técnica conforme exigido, e podem cobrir a imagem em toda a tela na tela de exibição 102 ou serem transparentes para a imagem.
A janela de exibição 103 na tela de exibição 102 é controlada pelo controlador de exibição 104. O controlador de exibição 104 irá proporcionar algumas indicações ou instruções sobre como desempenhar o subgesto seguinte para cada gesto composto previsto pelo previsor de gesto 105 de acordo com os gestos pré-definidos na lista de base de dados 107, e essas indicações ou instruções são mostradas na janela de exibição 103 por sugestões juntamente com informação sobre os comandos. Por exemplo, a janela de exibição 103 na tela de exibição 102 poderia destacar uma região na tela como janela de exibição para ajudar o usuário ou a usuária a continuar com seus subgestos seguintes. Nessa região, diversas sugestões, por exemplo, linhas pontilhadas com flecha ou linhas pontilhadas curvas são usadas para mostrar o subgesto seguinte de comandos possíveis. A informação sobre os comandos inclui “pegar e largar à esquerda” para guiar o usuário a mover a mão esquerda, “pegar e largar à direita” para guiar o usuário a mover a mão direita, e “só pegar” para guiar o usuário a manter esse gesto de pegar. Além disso, uma indicação do subgesto recebida pelo sistema de reconhecimento de gesto 100 também é mostrada em um local correspondente para as sugestões na janela de exibição 103. A indicação pode ser a imagem recebida pelo sistema ou quaisquer imagens que representam o subgesto. Adobe Flash®, Microsoft Silverlight® e Java FX® podem todos ser usados pelo controlador de exibição para implementar esse tipo de aplicativo como a indicação na janela de exibição 103. Além disso, as sugestões não se limitam às descritas acima, e podem ser implementadas como quaisquer outras indicações conforme necessário por um especialista na técnica apenas se as sugestões puderem ajudar os usuários a seguir uma delas para completar o comando por gesto.
A Figura 4 é um diagrama mostrando uma região na tela de exibição 102 de acordo com a modalidade. Como mostrado na Figura 4, a opacidade da exibição da indicação e instruções acima é um parâmetro-chave para ajudar o processo de reconhecimento de gesto a tornar-se gradualmente mais claro. Por exemplo, o valor Alfa em tecnologia “RGBA” (Vermelho Verde Azul Alfa) é um valor de mistura (0 ~ 1), o qual é usado para descrever o valor de opacidade (0 ~ 1) da região para refletir o progresso do reconhecimento de gesto e ajudar o processo de reconhecimento de gesto a tornar-se gradualmente mais claro. Por exemplo, um primeiro subgesto de pegar foi reconhecido e as sugestões são mostradas na janela de exibição, a seguir o usuário está executando o gesto composto “pegar e largar à esquerda” seguindo uma das sugestões, que também é reconhecido pela unidade de reconhecimento, as sugestões dos gestos “pegar e largar à esquerda” e “só pegar” na janela de exibição vão desaparecer, como mostrado na Figura 4(a). Ao mesmo tempo, a opacidade da janela de exibição vai diminuir com o progresso na execução do gesto “pegar e largar à esquerda” como mostrado na Figura 4(b).
A Figura 5 é um fluxograma mostrando um método de controle para a opacidade da janela de exibição usada pelo controlador de exibição 104 tomando o gesto composto “pegar e largar” como exemplo. Na etapa 501, é implementada a decisão de se ver se um gesto de pegar é executado pelo usuário, o que significa se o gesto de pegar é reconhecido pela unidade de reconhecimento. Se a resposta for não, o método vai para a etapa 510, e o controlador se mantém em stand by. Por outro lado, o valor de mistura alfa das linhas de direção ou sugestões de onde largar para todas as etapas de subgesto adjacentes e etapa de subgesto corrente são todos ajustados para ser 1 na etapa 502. Isto significa que toda informação na janela de exibição é exibida com clareza. Então, na etapa 503, julgar se o gesto de agarrar fica parado por um tempo específico de acordo com o resultado da unidade de reconhecimento, e se a resposta for afirmativa, isto significa que está sendo executado “pegar apenas”, e então o valor de mistura alfa das linhas de direção ou sugestões de onde largar para todas as etapas de subgesto adjacentes são todos ajustados para ser 0 na etapa 506. Isso significa que todos os subgestos adjacentes vão desaparecer na janela. E se a resposta na etapa 503 for não, então o método vai para a etapa 505 para julgar a direção do movimento do gesto de pegar. Se o gesto se move para uma direção de acordo com o resultado do reconhecimento, o valor de mistura alfa das linhas de direção ou sugestões de onde largar para outras direções são todos ajustados para ser 0 na etapa 507. Então, se o gesto de largar é executado de acordo com o resultado do reconhecimento na etapa 508, o valor de mistura alfa das linhas de direção ou sugestões de onde largar para a direção naquele momento também vão ser ajustados para ser 0 ou diminuídos gradualmente até 0 na etapa 509. Por outro lado, se está sendo executado o gesto de “só pegar”, e a etapa de largar ou armazenar está sendo implementada, o valor de mistura alfa de sua sugestão será também ajustado em zero ou gradualmente diminuído até zero.
A Figura 6 é um fluxograma mostrando um método para o reconhecimento de gesto de acordo com a modalidade da invenção. De acordo com a modalidade da invenção, quando o primeiro subgesto é reconhecido com base na localização da mão e outras características da mão, a estimativa sobre quais gestos manuais serão feitos pode ser conseguida com base no conhecimento de toda a definição de gestos na base de dados. Então uma janela vai surgir na tela de exibição para mostrar o gesto e as sugestões para os comandos por gestos avaliados. Então quando o segundo subgesto for reconhecido, o número de resultados de estimativa para os comandos por gesto com base no resultado do reconhecimento do primeiro e segundo subgestos vai mudar. Normalmente, o número será inferior ao que é baseado apenas no primeiro subgesto. Da mesma forma que na descrição no parágrafo acima, o novo resultado de estimativa será analisado e as sugestões de como terminar o subgesto seguinte dos comandos serão dadas. Além disso, se o número de resultados de estimativa diminuir, a opacidade da janela vai diminuir também. A mudança na opacidade da janela pode ser vista como outro tipo de sugestão para identificação do gesto composto.
Como mostrado na Figura 6, o gesto do usuário, tal como o primeiro subgesto, é identificado pela unidade de identificação de gesto 106 na etapa 601. Então, na etapa 602 o previsor 105 vai prever um ou mais comandos possíveis para o sistema com base no subgesto ou subgestos reconhecidos na etapa 601, e o subgesto seguinte de pelo menos um comando possível é indicado por uma interface de usuário em uma janela de exibição na etapa 603. Então, quando outro subgesto de um comando está sendo executado, outros desaparecerão da interface de usuário na etapa 604, e a opacidade da janela de exibição será diminuída na etapa 605. Então, quando o usuário tiver terminado o comando por gesto, a janela de exibição também vai desaparecer na etapa 606.
Embora a modalidade seja descrita com base no primeiro e segundo subgestos, outro reconhecimento de subgesto e as sugestões de seu subgesto seguinte de comandos mostradas na interface de usuário também são aplicáveis na modalidade da invenção. Se não for recebido outro subgesto ou o gesto de comando terminou, a janela de exibição vai desaparecer da tela.
O que foi descrito apenas ilustra a modalidade da invenção, e, portanto, será apreciado que os especialistas na técnica poderão pensar em numerosos arranjos alternativos que, embora não explicitamente descritos aqui, incorporam os princípios da invenção e estão dentro do seu espírito e escopo.

Claims (9)

1. Aparelho, compreendendo: uma unidade de previsão de gesto configurada para prever um ou mais comandos possíveis ao aparelho baseados em um ou mais subgestos e uma ordem de um ou mais subgestos anteriormente executados por um usuário e reconhecidos pelo aparelho; um visor configurado para exibir uma indicação de um subgesto seguinte de um ou mais comandos possíveis em uma interface de usuário em uma janela de exibição, CARACTERIZADO pelo fato de que a janela de exibição tem uma opacidade, e após uma previsão inicial, a opacidade da janela de exibição é reduzida quando o número de um ou mais comandos possíveis diminui em comparação ao número de um ou mais comandos possíveis anteriormente previstos.
2. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o visor também é configurado para indicar um subgesto seguinte na interface de usuário por uma sugestão juntamente com informação sobre como executar o gesto seguinte para completar os comandos.
3. Aparelho, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o visor também é configurado para indicar um ou mais subgestos reconhecidos pelo aparelho.
4. Aparelho, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que quando o subgesto seguinte de um ou mais comandos possíveis é executado pelo usuário e reconhecido pelo aparelho, o visor também sendo também configurado para fazer os subgestos seguintes de outros comandos possíveis desaparecer na interface de usuário.
5. Aparelho, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que a unidade de previsão de gestos é configurada para prever o um ou mais comandos possíveis utilizando o um ou mais subgestos reconhecidos e a ordem do um ou mais subgestos para buscar em uma base de dados, em que a base de dados compreende definição de gestos de pelo menos um comando por gesto, cada comando por gesto compreende pelo menos um subgesto em uma ordem pré-definida.
6. Método para o reconhecimento de gesto em um aparelho, compreendendo: prever um ou mais comandos possíveis ao aparelho baseados em um ou mais subgestos e uma ordem de um ou mais subgestos anteriormente reconhecidos pelo aparelho; indicar um subgesto seguinte do um ou mais comandos possíveis por uma interface de usuário em uma indicação em uma janela de exibição, CARACTERIZADO pelo fato de que a janela de exibição tem uma opacidade, e após a previsão inicial, a opacidade da janela de exibição é reduzida quando o número de um ou mais comandos possíveis diminui em comparação com o número de um ou mais comandos possíveis anteriormente previstos.
7. Método, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o subgesto seguinte é indicado por uma sugestão mostrada na interface de usuário, e uma indicação de um ou mais subgestos reconhecidos pelo aparelho também é mostrada na 5 interface de usuário.
8. Método, de acordo com a reivindicação 6 ou 7, CARACTERIZADO pelo fato de que um ou mais comandos possíveis são previstos utilizando o um ou mais subgestos reconhecidos e a ordem do um ou mais subgestos para buscar em uma base de dados, em que a base de dados compreende a definição de gesto do pelo menos um comando por 10 gesto, cada comando por gesto compreende pelo menos um subgesto em uma ordem pré- definida.
9. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a sugestão é mostrada juntamente com informação sobre como executar o subgesto seguinte para completar o pelo menos um comando.
BR112013014287-1A 2010-12-30 2010-12-30 Método e aparelho para reconhecimento de gesto BR112013014287B1 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/002206 WO2012088634A1 (en) 2010-12-30 2010-12-30 User interface, apparatus and method for gesture recognition

Publications (2)

Publication Number Publication Date
BR112013014287A2 BR112013014287A2 (pt) 2016-09-20
BR112013014287B1 true BR112013014287B1 (pt) 2020-12-29

Family

ID=46382154

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013014287-1A BR112013014287B1 (pt) 2010-12-30 2010-12-30 Método e aparelho para reconhecimento de gesto

Country Status (8)

Country Link
US (1) US20130283202A1 (pt)
EP (1) EP2659336B1 (pt)
JP (1) JP5885309B2 (pt)
KR (1) KR101811909B1 (pt)
CN (1) CN103380405A (pt)
AU (1) AU2010366331B2 (pt)
BR (1) BR112013014287B1 (pt)
WO (1) WO2012088634A1 (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5585505B2 (ja) * 2011-03-17 2014-09-10 セイコーエプソン株式会社 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
KR101322465B1 (ko) 2011-11-17 2013-10-28 삼성전자주식회사 셀프 카메라 촬영을 위한 방법 및 장치
SE537553C2 (sv) 2012-08-03 2015-06-09 Crunchfish Ab Förbättrad identifiering av en gest
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US20140215382A1 (en) * 2013-01-25 2014-07-31 Agilent Technologies, Inc. Method for Utilizing Projected Gesture Completion to Improve Instrument Performance
JP6212918B2 (ja) * 2013-04-18 2017-10-18 オムロン株式会社 遊技機
US20150007117A1 (en) * 2013-06-26 2015-01-01 Microsoft Corporation Self-revealing symbolic gestures
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
DE102014001183B4 (de) 2014-01-30 2022-09-22 Audi Ag Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens
CN103978487B (zh) * 2014-05-06 2017-01-11 宁波易拓智谱机器人有限公司 一种基于手势的通用机器人末端位置的操控方法
CN104615984B (zh) * 2015-01-28 2018-02-02 广东工业大学 基于用户任务的手势识别方法
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
WO2016167331A1 (ja) * 2015-04-17 2016-10-20 三菱電機株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
WO2017104525A1 (ja) * 2015-12-17 2017-06-22 コニカミノルタ株式会社 入力装置、電子機器及びヘッドマウントディスプレイ
US10082877B2 (en) * 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9584653B1 (en) * 2016-04-10 2017-02-28 Philip Scott Lyren Smartphone with user interface to externally localize telephone calls
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
DE102016212240A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems
CN108520228A (zh) * 2018-03-30 2018-09-11 百度在线网络技术(北京)有限公司 手势匹配方法及装置
CN112527093A (zh) * 2019-09-18 2021-03-19 华为技术有限公司 手势输入方法及电子设备
CN110795015A (zh) * 2019-09-25 2020-02-14 广州视源电子科技股份有限公司 操作提示方法、装置、设备及存储介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2323856A1 (en) * 2000-10-18 2002-04-18 602531 British Columbia Ltd. Method, system and media for entering data in a personal computing device
US7343566B1 (en) * 2002-07-10 2008-03-11 Apple Inc. Method and apparatus for displaying a window for a user interface
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7466859B2 (en) * 2004-12-30 2008-12-16 Motorola, Inc. Candidate list enhancement for predictive text input in electronic devices
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP4684745B2 (ja) * 2005-05-27 2011-05-18 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
JP4602166B2 (ja) * 2005-06-07 2010-12-22 富士通株式会社 手書き情報入力装置。
WO2007052382A1 (ja) * 2005-11-02 2007-05-10 Matsushita Electric Industrial Co., Ltd. 表示オブジェクト透過装置
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
US20090049413A1 (en) * 2007-08-16 2009-02-19 Nokia Corporation Apparatus and Method for Tagging Items
US20090100383A1 (en) * 2007-10-16 2009-04-16 Microsoft Corporation Predictive gesturing in graphical user interface
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US7983450B2 (en) * 2009-03-16 2011-07-19 The Boeing Company Method, apparatus and computer program product for recognizing a gesture
US8285499B2 (en) * 2009-03-16 2012-10-09 Apple Inc. Event recognition
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
CN101706704B (zh) * 2009-11-06 2011-05-25 谢达 一种会自动改变不透明度的用户界面显示方法
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
TWI514194B (zh) * 2010-06-18 2015-12-21 Prime View Int Co Ltd 電子閱讀器及其顯示方法
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
DE112011102383T5 (de) * 2010-08-17 2013-04-25 Google Inc. Berührungsbasierte Gestenerfassung für eine berührungsempfindliche Vorrichtung
US8701050B1 (en) * 2013-03-08 2014-04-15 Google Inc. Gesture completion path display for gesture-based keyboards

Also Published As

Publication number Publication date
BR112013014287A2 (pt) 2016-09-20
KR20140014101A (ko) 2014-02-05
KR101811909B1 (ko) 2018-01-25
CN103380405A (zh) 2013-10-30
JP2014501413A (ja) 2014-01-20
JP5885309B2 (ja) 2016-03-15
AU2010366331B2 (en) 2016-07-14
EP2659336A4 (en) 2016-09-28
EP2659336B1 (en) 2019-06-26
EP2659336A1 (en) 2013-11-06
US20130283202A1 (en) 2013-10-24
AU2010366331A1 (en) 2013-07-04
WO2012088634A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
BR112013014287B1 (pt) Método e aparelho para reconhecimento de gesto
JP6038898B2 (ja) エッジ・ジェスチャー
US10127011B2 (en) Device and method for performing functions
KR102151286B1 (ko) 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법
RU2604993C2 (ru) Жест от границы
US10275122B2 (en) Semantic card view
CN106687889A (zh) 显示器便捷式文本输入和编辑
US20150177843A1 (en) Device and method for displaying user interface of virtual input device based on motion recognition
US20180321739A1 (en) Electronic device and method for controlling display
US20150234567A1 (en) Information processing apparatus, information processing method and computer program
JP2016192122A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016053768A (ja) 情報処理装置、情報処理方法およびプログラム
KR20160101605A (ko) 제스처 입력 처리 방법 및 이를 지원하는 전자 장치
CN106796810A (zh) 在用户界面上从视频选择帧
US20220221970A1 (en) User interface modification
WO2018004200A1 (en) Electronic device and information providing method thereof
US10580382B2 (en) Power and processor management for a personal imaging system based on user interaction with a mobile device
JP2015035120A5 (pt)
US20160274723A1 (en) Mobile gesture reporting and replay with unresponsive gestures identification and analysis
Spano Developing touchless interfaces with gestit
US11093122B1 (en) Graphical user interface for displaying contextually relevant data
KR20180055638A (ko) 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법
CN116382469A (zh) 双手手势识别方法、交互界面显示方法和头戴式显示设备
JP2012003723A (ja) 動作解析装置、動作解析方法、およびプログラム
BR112012005342B1 (pt) Método para controlar a operação de um sistema operacional e programa de aplicativos associados

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B25A Requested transfer of rights approved

Owner name: INTERDIGITAL CE PATENT HOLDINGS (FR)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 30/12/2010, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 12A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2703 DE 25-10-2022 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.