BR112020001729A2 - método, aparelho e dispositivo de reconhecimento de gestos - Google Patents

método, aparelho e dispositivo de reconhecimento de gestos Download PDF

Info

Publication number
BR112020001729A2
BR112020001729A2 BR112020001729-9A BR112020001729A BR112020001729A2 BR 112020001729 A2 BR112020001729 A2 BR 112020001729A2 BR 112020001729 A BR112020001729 A BR 112020001729A BR 112020001729 A2 BR112020001729 A2 BR 112020001729A2
Authority
BR
Brazil
Prior art keywords
image
images
gesture recognition
video segment
optical flow
Prior art date
Application number
BR112020001729-9A
Other languages
English (en)
Other versions
BR112020001729A8 (pt
Inventor
Liang Wang
Songcen Xu
Chuanjian Liu
Jun He
Original Assignee
Huawei Technologies Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co., Ltd. filed Critical Huawei Technologies Co., Ltd.
Publication of BR112020001729A2 publication Critical patent/BR112020001729A2/pt
Publication of BR112020001729A8 publication Critical patent/BR112020001729A8/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data

Abstract

A presente invenção refere-se a um método de reconhecimento de gestos, relacionado ao campo técnico de interação homem-computador. O método compreende: extrair imagens de quadro M de um primeiro segmento de vídeo em um fluxo de vídeo; efetuar, por meio de um algoritmo de aprendizado profundo, o reconhecimento de gestos nas imagens de quadro M para obter um resultado de reconhecimento de gestos correspondente ao primeiro segmento de vídeo; e efetuar uma combinação dos resultados de reconhecimento de gestos dos segmentos de vídeo contínuos N contidos no primeiro segmento de vídeo, para obter um resultado combinado de reconhecimento de gestos. O processo de reconhecimento descrito acima não exige a segmentação nem o rastreamento de gestos em um fluxo de vídeo. O método reconhece ações progressivas por meio de um algoritmo de aprendizado profundo com uma alta velocidade de computação. O método também combina ações progressivas, aumentando desse modo a velocidade de reconhecimento de gestos e reduzindo os atrasos no reconhecimento de gestos.

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO, APARELHO E DISPOSITIVO DE RECONHECIMENTO DE GESTOS".
CAMPO TÉCNICO
[001] A presente invenção refere-se ao campo das tecnologias de interação homem-máquina e, especialmente, a um método, aparelho e dispositivo de reconhecimento de gestos.
ANTECEDENTES
[002] A inserção de gestos é uma tecnologia essencial e indispensável para implantar interação homem-máquina natural e direta. Um método de reconhecimento de gestos com base em visão computacional tornou-se um ponto crucial das pesquisas atuais porque o método de reconhecimento de gestos não dependente de um dispositivo, possui um efeito de interação homem-máquina mais natural e possui um melhor senso de imersão.
[003] Em uma tecnologia relacionada, uma solução de reconhecimento de gestos baseada em visão computacional é como se segue: Um fluxo de vídeo com imagem de gestos é primeiramente capturado usando-se uma câmera, o fluxo de vídeo é convertido em um quadro de imagem; em seguida, um formato, uma característica e as informações de localização de um gesto são extraídas do quadro de imagem por meio de segmentação e rastreamento com base em um algoritmo de rastreamento de imagem específica; e por fim, o gesto é reconhecido com base no formato, na característica e nas informações de localização do gesto que extraídas são com referência a uma regra de classificação pré-estabelecida.
[004] Na tecnologia relacionada, quando o formato, a característica e as informações de localização do gesto são extraídas do quadro de imagem, o gesto em uma imagem precisa ser segmentado e rastreado, e tal processo de segmentação e rastreamento exige um tempo de processamento relativamente longo. Consequentemente, o atraso gerado é excessivo.
SUMÁRIO
[005] As modalidades deste pedido de patente provêm um método, aparelho e dispositivo de reconhecimento de gestos, para reduzir atrasos no reconhecimento de gestos.
[006] De acordo com um primeiro aspecto, um método de reconhecimento de gestos é provido, e o método inclui: obter as M imagens, as quais são extraídas de um primeiro segmento de vídeo em um fluxo de vídeo, o primeiro segmento de vídeo é qualquer segmento de vídeo no fluxo de vídeo, e M é um número inteiro maior ou igual a 2; efetuar o reconhecimento de gestos nas M imagens usando-se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo; e depois que os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos no fluxo de vídeo que incluem o primeiro segmento de vídeo forem obtidos, efetuar uma combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos, em que N≥2 e N é um número inteiro.
[007] No método de reconhecimento de gestos mencionado acima, as M imagens em cada segmento de vídeo no fluxo de vídeo são obtidas, o reconhecimento de gestos é executado nas M imagens usando-se o algoritmo de aprendizado profundo, para a obtenção de um resultado de reconhecimento de gestos que corresponde ao segmento de vídeo e por fim, os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos que incluem o segmento de vídeo são combinados, para a obtenção de um resultado de reconhecimento de gestos dos N segmentos de vídeo consecutivos. Mais especificamente,
no processo de reconhecimento mencionado acima, um gesto no fluxo de vídeo não precisa ser segmentado ou rastreado, pois as ações de fase são reconhecidas usando-se o algoritmo de aprendizado profundo com uma velocidade de cálculo relativamente alta, e as ações de fase são combinadas, de modo a aumentar a velocidade do reconhecimento de gestos e reduzir atrasos no reconhecimento de gestos.
[008] Em uma solução de implementação possível, efetuar a combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos inclui: inserir os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos em um primeiro modelo pré-treinado de aprendizado de máquina, para a obtenção do resultado combinado de reconhecimento de gestos, com o primeiro modelo de aprendizado de máquina sendo usado para determinar uma tendência de moção gestual geral que inclui os resultados N de reconhecimento de gestos consecutivos que foram inseridos, e para enviar um gesto que corresponde à tendência de moção gestual geral como o resultado combinado de reconhecimento de gestos.
[009] Em uma aplicação real, durante a execução de uma operação gestual, um usuário pode fazer, em um curto período de tempo durante um processo de operação de gestos, um gesto que não se conforma à operação de gesto atual. No entanto, na solução de implementação possível mencionada acima, depois que um resultado de reconhecimento de gestos de cada segmento de vídeo é reconhecido, um resultado final de reconhecimento de gestos pode ser obtido com base em uma tendência de moção gestual indicada pelos resultados de reconhecimento de gestos de uma pluralidade de segmentos de vídeo consecutivos, para eliminar o impacto exercido por um gesto errôneo executado pelo usuário no curto período de tempo sobre o resultado de reconhecimento de gestos obtido por último, aprimorando desse modo a precisão no reconhecimento de gestos.
[0010] Em uma solução de implementação possível, o primeiro modelo de aprendizado de máquina é um modelo de rede neural e o modelo de rede neural possui neurônios N; ou o primeiro modelo de aprendizado de máquina é um modelo de máquina de vetor de suporte SVM.
[0011] Em uma solução de implementação possível, efetuar a combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos inclui: obter os coeficientes de peso predefinidos respectivamente que correspondem aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos; e efetuar uma média ponderada nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos com base nos coeficientes de peso que correspondem respectivamente aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos.
[0012] Na solução de implementação possível mencionada acima, depois que um resultado de reconhecimento de gestos de cada segmento de vídeo é reconhecido, a média ponderada pode ser executada nos resultados de reconhecimento de gestos de uma pluralidade de segmentos de vídeo consecutivos com base em um peso predefinido, para reduzir o impacto exercido por um gesto errôneo executado pelo usuário no curto período de tempo sobre o resultado de reconhecimento de gestos obtido por último, aprimorando desse modo a precisão no reconhecimento de gestos.
[0013] Em uma solução de implementação possível, efetuar o reconhecimento de gestos nas M imagens usando-se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo inclui: efetuar um processamento nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, em que a imagem com informações de fluxo ópticas incluem informações de fluxo ópticas entre uma primeira imagem nas M imagens e uma imagem pésima antes de a primeira imagem, a primeira imagem é qualquer um das M imagens, e as informações de fluxo ópticas incluem informações instantâneas de vetor de velocidade de um pixel na imagem, e efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas usando um primeiro algoritmo de aprendizado profundo, para obter um primeiro resultado de reconhecimento, em que p é um número inteiro maior ou igual a 1; efetuar um processamento nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, em que a imagem com as informações de cor inclui as informações de cor das M imagens, e as informações de cor inclui um valor de cor de cada pixel na imagem, e efetuar o reconhecimento de gestos na imagem com as informações de cor usando um segundo algoritmo de aprendizado profundo, para obter um segundo resultado de reconhecimento; e combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
[0014] Na solução de implementação possível mencionada acima, as informações de fluxo ópticas e as informações de cor do segmento de vídeo são extraídas com base nas M imagens, o reconhecimento de gestos é executado de forma separada com base nas informações de fluxo ópticas e nas informações de cor extraídas e em seguida, os resultados de reconhecimento de gestos que foram reconhecidos são combinados para solucionar o problema em que um gesto reconhecido usando-se um único algoritmo de aprendizado profundo é impreciso, aprimorando desse modo a precisão do resultado de reconhecimento de gestos do segmento de vídeo.
[0015] Em uma solução de implementação possível, efetuar o processamento de imagem nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo inclui: para a primeira imagem, obter, com base em uma regra ésima predefinida, a imagem p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima, e gerar a imagem com informações de fluxo ópticas que incluem as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima, em que um intervalo de tempo entre a primeira imagem e a imagem p ésima não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas; ou para a primeira imagem, obter, com base em uma regra predefinida, todas as imagens p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre cada duas imagens adjacentes na primeira imagem e nas M imagens, e depois que as informações de fluxo ópticas entre cada duas imagens adjacentes forem acumuladas, gerar uma imagem com informações de fluxo ópticas que incluem as informações de fluxo ópticas acumuladas, em que um intervalo de tempo entre a primeira imagem e a imagem p ésima antes da primeira imagem não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas.
[0016] Na solução de implementação possível mencionada acima,
uma imagem com informações de fluxo ópticas entre uma imagem ésima atualmente obtida e a imagem p antes da imagem atual pode ser obtida com base na imagem atual e nas imagens p antes da imagem atual, de modo a efetuar em seguida o reconhecimento de gestos na imagem com informações de fluxo ópticas usando o algoritmo de aprendizado profundo. Um gesto na imagem não precisa ser segmentado ou rastreado, de modo que o processamento do resultado de reconhecimento de gestos é simplificado, a velocidade do reconhecimento de gestos é aumentada e o atraso no reconhecimento de gestos é reduzido.
[0017] Na solução de implementação possível mencionada acima, efetuar o processamento de imagem nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo inclui: extrair as informações de cor das M imagens nas M imagens, gerar, com base nas informações de cor extraída, imagens com informações de cor que correspondem respectivamente à M imagens e obter as imagens com informações de cor que correspondem respectivamente à M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, em que as M imagens são M imagens aleatórias nas M imagens, ou as M imagens são M imagens que estão nas M imagens e que cada uma possui uma variação maior em relação a uma imagem anterior no fluxo de vídeo, e m é um número inteiro maior ou igual a 1; ou detectar uma localização de pixel nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor nas M imagens que corresponde às localizações de pixel reconhecidas para obter novas informações de cor nas localizações de pixel reconhecidas, e gerar, com base nas novas informações de cor nas localizações de pixel reconhecidas, a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0018] Em uma solução de implementação possível, antes de obter as M imagens, o método também inclui: determinar uma janela de tempo com um período de tempo predefinido no fluxo de vídeo, em que um momento final da janela de tempo está dentro de um período de tempo que corresponde ao primeiro segmento de vídeo; determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, em que pelo menos uma imagem de referência é qualquer imagem na janela de tempo que não seja a última imagem; e se um resultado de determinação indicar que uma ação é executada no primeiro segmento de vídeo, efetuar a etapa para obter as M imagens.
[0019] Visto que uma operação gestual envolve inevitavelmente uma ação gestual, na solução de implementação possível mencionada acima, antes do reconhecimento de gestos ser executado no segmento de vídeo, verifica-se primeiramente se uma ação está sendo executada no segmento de vídeo usando-se uma imagem no segmento de vídeo e pelo menos uma imagem antes da imagem, e uma operação de reconhecimento subsequente é executada apenas quando é determinado que uma ação é executada, para reduzir etapas desnecessárias de reconhecimento, poupar recursos de computação e aumentar a eficiência do reconhecimento.
[0020] Em uma solução de implementação possível, determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo inclui: para cada imagem de referência, calcular uma imagem de derivada parcial da última imagem, em que um valor de cada pixel na imagem de derivada parcial é uma derivada parcial de um valor de um pixel correspondente na última imagem em relação a um valor de um pixel correspondente na imagem de referência; normalizar o valor de cada pixel na imagem de derivada parcial, para obter uma imagem de derivada parcial normalizada; binarizar a imagem de derivada parcial normalizada com base em um limite de binarização predefinido, para obter uma imagem binarizada da imagem de derivada parcial, em que um valor de cada pixel na imagem binarizada é 0 ou 1; calcular uma soma de valores de escala de cinza dos pixels na imagem binarizada; e quando a soma dos valores de escala de cinza for maior que 0, determinar que uma ação está sendo executada no primeiro segmento de vídeo.
[0021] Em uma solução de implementação possível, combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo inclui: efetuar um cálculo de valor médio no primeiro resultado de reconhecimento e no segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo com base em um resultado de cálculo do cálculo de valor médio; ou inserir o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento dentro de um segundo modelo pré-treinado de aprendizado de máquina, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
[0022] De acordo com um segundo aspecto, um aparelho de reconhecimento de gestos é provido, e o aparelho possui a função de implementar o método de reconhecimento de gestos provido no primeiro aspecto e as soluções de implementação possíveis do primeiro aspecto. Tal função pode ser implantada usando-se hardware, ou pode ser implantada executando-se um software correspondente por meio de um hardware. O hardware ou o software inclui uma ou mais unidades correspondentes à função mencionada acima.
[0023] De acordo com um terceiro aspecto, um dispositivo de reconhecimento de gestos é provido. O dispositivo inclui um processador e uma memória, e o processador no dispositivo implementa, executando um programa ou uma instrução armazenada na memória, o método de reconhecimento de gestos provido no primeiro aspecto e as soluções de implementação possíveis do primeiro aspecto.
[0024] De acordo com um quarto aspecto, um meio de armazenamento legível por computador é provido. O meio de armazenamento legível por computador armazena um programa executável, e um processador executa o programa executável para implementar o método de reconhecimento de gestos provido no primeiro aspecto e as soluções de implementação possíveis do primeiro aspecto.
BEVE DESCRIÇÃO DOS DESENHOS
[0025] A figura 1 é um diagrama arquitetural de um sistema de reconhecimento de gestos de acordo com este pedido de patente;
[0026] A figura 2 é um diagrama esquemático de reconhecimento de gestos da modalidade mostrada na figura 1;
[0027] A figura 3 é um fluxograma de um método de reconhecimento de gestos de acordo com uma modalidade exemplar deste pedido de patente;
[0028] A figura 4 é um diagrama esquemático de intervalos de duas janelas de tempo da modalidade mostrada na figura 3;
[0029] A figura 5 é um diagrama esquemático de combinação de resultados de reconhecimento da modalidade mostrada na figura 3;
[0030] A figura 6 é um fluxograma esquemático de reconhecimento de gestos da modalidade mostrada na figura 3;
[0031] A figura 7 é um diagrama estrutural esquemático de um dispositivo de reconhecimento de gestos de acordo com um exemplo de uma modalidade deste pedido de patente; e
[0032] A figura 8 é um diagrama em bloco estrutural de um aparelho de reconhecimento de gestos de acordo com um exemplo de uma modalidade deste pedido de patente.
DESCRIÇÃO DAS MODALIDADES
[0033] Para tornar os objetivos, as soluções técnicas e vantagens deste pedido de patente mais claros, o trecho a seguir também descreverá em detalhes as implementações deste pedido de patente com referência aos desenhos em anexo.
[0034] A figura 1 é um diagrama arquitetural de um sistema de reconhecimento de gestos de acordo com uma modalidade deste pedido de patente. O sistema de reconhecimento de gestos pode incluir os seguintes dispositivos: um dispositivo de captura de imagens 110 e um dispositivo de reconhecimento de gestos 120.
[0035] O dispositivo de captura de imagens 110 pode ser uma câmera. Por exemplo, o dispositivo de captura de imagens 110 pode ser uma única câmera, ou o dispositivo de captura de imagens 110 pode ser um módulo de câmera que inclui duas ou mais câmeras.
[0036] O dispositivo de captura de imagens 110 pode ser disposto de maneira fixa, ou o dispositivo de captura de imagens 110 pode ser integrado a um servo motor. O servo motor pode acionar, sob o controle do dispositivo de reconhecimento de gestos, o dispositivo de captura de imagens 110 para girar ou mover, para mudar o ângulo de captura ou a localização de captura do dispositivo de captura de imagens 110.
[0037] O dispositivo de reconhecimento de gestos 120 pode ser um computador de propósito geral, ou o dispositivo de reconhecimento de gestos pode ser um dispositivo de computação embutido.
[0038] O dispositivo de captura de imagens 110 e o dispositivo de reconhecimento de gestos 120 podem ser dispositivos mutualmente independentes, e o dispositivo de captura de imagens 110 e o dispositivo de reconhecimento de gestos 120 são conectados um ao outro usando-se uma rede com fio ou sem fio.
[0039] De maneira alternativa, o dispositivo de captura de imagens 110 e o dispositivo de reconhecimento de gestos 120 podem ser integrados a um mesmo dispositivo físico, e o dispositivo de captura de imagens 110 e o dispositivo de reconhecimento de gestos 120 são conectados um ao outro por meio de um barramento de comunicação.
[0040] De maneira opcional, depois de reconhecer um gesto em um fluxo de vídeo, o dispositivo de reconhecimento de gestos 120 transmite o gesto reconhecido para um dispositivo de controle 130. O dispositivo de controle 130 determina uma instrução de controle correspondente com base no gesto reconhecido e executa uma operação de controle correspondente com base na instrução de controle determinada, por exemplo, controla a exibição de gráfica com base na instrução de controle, ou controla, com base na instrução de controle, um dispositivo controlado para executar uma operação.
[0041] Nesta modalidade do presente pedido de patente, o dispositivo de captura de imagens 110 transmite um fluxo de vídeo capturado para o dispositivo de reconhecimento de gestos 120 e o dispositivo de reconhecimento de gestos 120 executa uma análise de imagens e reconhecimento de gestos no fluxo de vídeo para reconhecer de imediato um gesto no fluxo de vídeo. Com referência à figura 2, a figura 2 é um diagrama esquemático de reconhecimento de gestos de acordo com uma modalidade deste pedido de patente. Conforme mostrado na figura 2, durante um reconhecimento de gestos, o dispositivo de reconhecimento de gestos 120 pode extrair M imagens (M é um número inteiro maior ou igual a 2) de um segmento de vídeo em um fluxo de vídeo. O dispositivo de reconhecimento de gestos 120 executa o reconhecimento de gestos nas M imagens usando um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao segmento de vídeo e depois de obter os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos no fluxo de vídeo que incluem o segmento de vídeo, realiza a combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos.
[0042] Na solução mostrada nesta modalidade do presente pedido de patente, uma ação gestual completa é dividida em uma pluralidade de ações de fase. As ações de fase são reconhecidas usando-se o algoritmo de aprendizado profundo e por fim, as ações de fase reconhecidas são combinadas como a ação gestual completa. Em um processo de reconhecimento, o gesto no fluxo de vídeo não precisa ser segmentado ou rastreado, pois as ações de fase são reconhecidas usando-se o algoritmo de aprendizado profundo com uma velocidade de cálculo relativamente alta, de modo a aumentar a velocidade do reconhecimento de gestos e reduzir os atrasos no reconhecimento de gestos.
[0043] Por exemplo, o algoritmo de aprendizado profundo mencionado acima é um algoritmo de canal dual de aprendizado profundo baseado em informações de fluxo ópticas e informações de cor. Com referência à figura 3, a figura 3 é um fluxograma de um método de reconhecimento de gestos de acordo com uma modalidade exemplar deste pedido de patente. Conforme mostrado na figura 3, o método de reconhecimento de gestos pode incluir as etapas a seguir.
[0044] Etapa 301: Para um primeiro segmento de vídeo em um fluxo de vídeo, determinar uma janela de tempo com um período de tempo predefinido no fluxo de vídeo, em que um momento final da janela de tempo está dentro de um período de tempo que corresponde ao primeiro segmento de vídeo.
[0045] O primeiro segmento de vídeo é qualquer segmento de vídeo no fluxo de vídeo. Nesta modalidade do presente pedido de patente, um dispositivo de reconhecimento de gestos pode dividir o fluxo de vídeo em vários segmentos de vídeo conectados de um modo "head-to-tail" e efetuar o reconhecimento de gestos para cada segmento de vídeo.
[0046] O fluxo de vídeo inclui uma série de imagens de vídeo que corresponde a intervalos de tempo diferentes. Nesta modalidade do presente pedido de patente, a janela de tempo pode ser uma janela de tempo entre intervalos de tempo que correspondem a duas imagens de vídeo diferentes, entre um intervalo de tempo que corresponde à primeira imagem na janela de tempo e um intervalo de tempo que corresponde à última imagem na janela de tempo está o período de tempo predefinido.
[0047] A última imagem na janela de tempo é uma imagem a ser reconhecida no primeiro segmento de vídeo, e outra imagem do fluxo de vídeo na janela de tempo pode ser uma imagem no primeiro segmento de vídeo, ou pode ser uma imagem antes do primeiro segmento de vídeo no fluxo de vídeo.
[0048] Por exemplo, com referência à figura 4, a figura 4 é um diagrama esquemático de intervalos de duas janelas de tempo de acordo com uma modalidade deste pedido de patente. Na figura 4, um momento inicial da janela de tempo é t1 e um momento final da janela de tempo é t2; e um momento inicial do primeiro segmento de vídeo é t3 e um momento final do primeiro segmento de vídeo é t4.
[0049] Conforme mostrado na figura 4 (a), em uma implementação possível, t1 e t2 estão entre t3 e t4. Em outras palavras, a janela de tempo está totalmente dentro do primeiro segmento de vídeo.
[0050] Conforme mostrado na figura 4 (b), em outra implementação possível, t2 está entre t3 e t4, e t1 vem antes de t3. Em outras palavras, uma parte da janela de tempo está dentro do primeiro segmento de vídeo e a outra parte da janela de tempo vem antes do primeiro segmento de vídeo.
[0051] Além disso, o período de tempo predefinido mencionado acima pode ser predefinido pelo desenvolvedor do dispositivo de reconhecimento de gestos.
[0052] Etapa 302: Determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, e se sim, executar a etapa 303, ou então retornar para a etapa 301 para determinar uma próxima anela de tempo com o período de tempo predefinido.
[0053] Pelo menos uma imagem de referência é qualquer imagem na janela de tempo que não seja a última imagem.
[0054] Nesta modalidade do presente pedido de patente, o dispositivo de reconhecimento de gestos determina, com base em uma diferença entre a última imagem do fluxo de vídeo na janela de tempo e pelo menos uma outra imagem do fluxo de vídeo na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo.
[0055] Em uma aplicação real, a etapa mencionada acima para determinar, com base em uma última imagem na janela de tempo e pelo menos uma outra imagem na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo pode incluir as seguintes subetapas.
[0056] Etapa 302a: Para cada imagem de referência, calcular uma imagem de derivada parcial da última imagem, em que um valor de cada pixel na imagem de derivada parcial é uma derivada parcial de um valor de um pixel correspondente na última imagem em relação a um valor de um pixel correspondente na imagem de referência.
[0057] Nesta modalidade do presente pedido de patente, uma imagem de um fluxo de vídeo inserido pode ser definida como f(𝑥, 𝑦, 𝑡),
em que x é um componente horizontal da imagem, y é um componente vertical da imagem e t representa um tempo: t=1, 2, …, t 0 .… Dois quadros de imagens do fluxo de vídeo inserido são f(x, y, t 0 ) e f(x, y, t 0 – q). Para dois quadros de imagens adjacentes, q=1.
[0058] Isso é definido como se segue: um quadro de imagem em um tempo t 0 é f(x, y, t 0 ) e a imagem no momento t 0 é a última imagem na janela de tempo. Neste caso, uma imagem em um momento q antes do momento t 0 é f(x, y, t 0 – q). O dispositivo de reconhecimento de gestos calcula uma derivada parcial do fluxo de vídeo, em relação ao tempo t, no momento t 0 em relação a um momento t 0 –q: 𝜕𝑓(𝑥,𝑦,𝑡) f(x,y,t0 )−f(x,y,t0 −q) 𝑔(𝑥, 𝑦, 𝑡0 ) ≜ [ ] ≜[ ] (1) 𝜕𝑡 𝑡=𝑡0 𝑞 𝑡=𝑡0
[0059] Etapa 302b: Normalizar o valor de cada pixel na imagem de derivada parcial, para obter uma imagem de derivada parcial normalizada.
[0060] O dispositivo de reconhecimento de gestos pode normalizar g(x, y, t 0 ) em uma faixa [a, b], por exemplo, selecionar uma faixa de normalização [a, b] = [0,1]. Mais especificamente, o dispositivo de reconhecimento de gestos normaliza o valor de cada pixel em g(x, y, t 0 ) em um valor na faixa [0,1].
[0061] Etapa 302c: Binarizar a imagem de derivada parcial normalizada com base em um limite de binarização predefinido para obter uma imagem binarizada da imagem de derivada parcial, em que um valor de cada pixel na imagem binarizada é 0 ou 1.
[0062] Nesta modalidade do presente pedido de patente, depois que a imagem de derivada parcial normalizada é obtida, a imagem de derivada parcial normalizada pode ser binarizada com base em uma relação de valor entre o valor de cada pixel na imagem de derivada parcial normalizada e o limite de binarização predefinido, e o valor de cada pixel na imagem de derivada parcial normalizada é binarizado em 0 ou 1. Uma fórmula para binarizar o valor de cada pixel na imagem de derivada parcial normalizada é como se segue: 1 𝑖𝑓𝑔(𝑥, 𝑦, 𝑡0 ) > 𝑍 𝑔𝑏 (𝑥, 𝑦, 𝑡0 ) = { (2) 0 𝑖𝑓𝑔(𝑥, 𝑦, 𝑡0 ) ≤ 𝑍
[0063] Na fórmula mencionada acima 2, Z é o limite de binarização predefinido. Para um valor de um pixel na imagem de derivada parcial normalizada 𝑔𝑏 (𝑥, 𝑦, 𝑡0 ), quando o valor do pixel é maior que Z, o valor do pixel é binarizado em 1, e quando o valor do pixel é menor ou igual a Z, o valor do pixel é binarizado em 0.
[0064] O limite de binarização predefinido é predefinido, e é um valor entre (0, 1). Por exemplo, o limite de binarização predefinido pode ser 0,5, ou o limite de binarização predefinido pode ser 0,4 ou 0,6. O limite de binarização pode ser predefinido por um desenvolvedor com base em um efeito de processamento real.
[0065] Etapa 302d: Calcular uma soma de valores de escala de cinza dos pixels na imagem binarizada.
[0066] Etapa 302e: Quando a soma dos valores de escala de cinza for maior que 0, determinar que uma ação está sendo executada no primeiro segmento de vídeo.
[0067] Nesta modalidade do presente pedido de patente, depois de obter a imagem binarizada g b (x, y, t 0 ), o dispositivo de reconhecimento de gestos calcula a soma Soma(t 0 ) dos valores de escala de cinza em g b (x, y, t 0 ). Quando a soma Soma(t 0 ) é maior que 0, o dispositivo de reconhecimento de gestos pode determinar que uma ação está sendo executada no primeiro segmento de vídeo. Caso contrário, o dispositivo de reconhecimento de gestos considera que "nenhuma ação" está sendo executada no primeiro segmento de vídeo. Uma fórmula da soma Soma(t 0 ) é como se segue: Soma(t 0 ) = ∑(x,y) g b (x, y, t 0 ) (3)
[0068] Se Soma(t 0 ) > 0, o dispositivo de reconhecimento de gestos determina que uma ação está sendo executada, e executa etapa 303. Se Soma(t 0 ) ≤ 0, o dispositivo de reconhecimento de gestos determina que nenhuma ação está sendo executada e retorna para a etapa 301.
[0069] Etapa 303: Obter as M imagens, em que as M imagens são M imagens extraídas do primeiro segmento de vídeo.
[0070] Ao determinar, na etapa 302, que uma ação é executada no primeiro segmento de vídeo, o dispositivo de reconhecimento de gestos pode extrair as M imagens do primeiro segmento de vídeo, e M é um número inteiro maior ou igual a 2.
[0071] Em uma aplicação real, o dispositivo de reconhecimento de gestos pode extrair cada imagem no primeiro segmento de vídeo para obter as M imagens. De maneira alternativa, o dispositivo de reconhecimento de gestos pode extrair uma imagem do primeiro segmento de vídeo a cada uma ou mais imagens para obter as M imagens.
[0072] Etapa 304: Realizar o processamento de imagem nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo.
[0073] A imagem com informações de fluxo ópticas inclui informações de fluxo ópticas entre uma primeira imagem nas M imagens ésima e uma imagem p antes da primeira imagem. A primeira imagem é qualquer uma das M imagens, as informações de fluxo ópticas incluem as informações instantâneas de vetor de velocidade de um pixel na imagem, e p é um número inteiro maior ou igual a 1.
[0074] Um fluxo óptico é a velocidade instantânea de moção de pixel de um objeto que se move espacialmente em um plano de imagens de observação. O dispositivo de reconhecimento de gestos pode encontrar uma correspondência entre uma imagem anterior e uma imagem atual usando uma mudança de um pixel em uma sequência de imagens no domínio de tempo e uma correlação entre quadros adjacentes, para obter as informações de moção de um objeto entre as duas imagens por meio de cálculo. As informações de moção, obtidas por meio de cálculo, do objeto entre as duas imagens são as informações de fluxo ópticas entre as duas imagens. O método mencionado acima para calcular as informações de moção do objeto entre as duas imagens é referido como um método de fluxo óptico. As informações de fluxo ópticas também são referidas como um campo de fluxo óptico (campo de fluxo óptico) e indicam uma moção aparente em um modo de escala de cinza em imagem. O campo de fluxo óptico é um campo de vetor bidimensional e as informações incluídas no campo de vetor bidimensional são informações do vetor de velocidade de moção instantânea de cada pixel. Portanto, as informações de fluxo ópticas podem ser representadas como uma imagem de canal dual com tamanho ao de uma imagem original.
[0075] Ao extrair a imagem com informações de fluxo ópticas, o dispositivo de reconhecimento de gestos pode obter uma imagem com informações de fluxo ópticas (a despeito da quantidade de quadros incluídos no primeiro segmento de vídeo) usando uma sequência de imagens RGB no primeiro segmento de vídeo. Nesta modalidade do presente pedido de patente, a imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo pode ser obtida das duas maneiras a seguir.
[0076] Maneira 1: Para a primeira imagem nas M imagens, obter, ésima com base em uma regra predefinida, a imagem p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ésima ópticas entre a primeira imagem e a imagem p , e gerar a imagem com informações de fluxo ópticas que incluem as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima.
[0077] Um intervalo de tempo entre a primeira imagem e a imagem p ésima não é inferior a um tempo de cálculo progressivo de um primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas. O primeiro algoritmo de aprendizado profundo é um algoritmo usado pelo dispositivo de reconhecimento de gestos para reconhecer em seguida um gesto com base na imagem com informações de fluxo ópticas.
[0078] A regra predefinida pode ser uma regra que é estipulada de forma independente por um desenvolvedor ou um usuário. Por exemplo, o desenvolvedor ou o usuário pode definir manualmente um valor de p. De maneira alternativa, o dispositivo de reconhecimento de gestos pode definir de forma independente um valor de p com base na regra predefinida e no desempenho de processamento do dispositivo. Por exemplo, o dispositivo de reconhecimento de gestos pode pré-executar o cálculo progressivo do primeiro algoritmo de aprendizado profundo e o cálculo da imagem com informações de fluxo ópticas uma vez, gravar o tempo de cálculo progressivo e o tempo usado para calcular a imagem com informações de fluxo ópticas e definir o valor de p com base no tempo de cálculo progressivo, o tempo usado para calcular a imagem com informações de fluxo ópticas e uma taxa de quadro (mais especificamente, a quantidade de imagens incluídas em um vídeo por segundo) de um fluxo de vídeo. De maneira específica, por exemplo, o dispositivo de reconhecimento de gestos pode determinar que um valor maior entre o tempo de cálculo progressivo e o tempo usado para calcular a imagem com informações de fluxo ópticas corresponde a uma quantidade de imagens no fluxo de vídeo, e definir um valor que corresponde à quantidade de imagens determinada no valor de p.
[0079] Para um vídeo em tempo real, se T for um intervalo de tempo ésima entre uma imagem e a imagem p antes da imagem, um valor mínimo de T pode ser um valor maior entre um tempo necessário para o cálculo progressivo de rede de aprendizado profundo usado pelo dispositivo de reconhecimento de gestos para executar o reconhecimento de gestos usando a imagem com informações de fluxo ópticas e um tempo necessário pelo dispositivo de reconhecimento de gestos para calcular a imagem com informações de fluxo ópticas.
[0080] Assume-se que OF[•] representa um algoritmo de fluxo óptico. Em uma implementação possível, o dispositivo de reconhecimento de gestos pode obter diretamente, por meio de cálculo, as informações de fluxo ópticas que correspondem a uma imagem nas M imagens usando um algoritmo de campo de fluxo óptico de Euler (campo de moção de Euler) com base em uma imagem It (x, y) nas M M imagense uma pésima imagem It−T (x, y) antes de It (x, y), gerar uma imagem com informações de fluxo ópticas que incluem as informações de fluxo ópticas obtido por meio de cálculo e usar a imagem com informações de fluxo ópticas como a imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo. Uma fórmula para calcular a imagem com informações de fluxo ópticas pode ser representada simplesmente como se segue: 𝑈𝑡 (𝑥, 𝑦) = 𝑂𝐹 [𝐼𝑡−𝑇 (𝑥, 𝑦), 𝐼𝑡 (𝑥, 𝑦)] (4)
[0081] Na fórmula mencionada acima (4), 𝑈𝑡 (𝑥,y) é uma imagem com informações de fluxo ópticas que correspondem à imagem It (x, y), e OF[•] representa o algoritmo de campo de fluxo óptico de Euler.
[0082] Maneira 2: Para a primeira imagem nas M imagens, obter, com base em uma regra predefinida, todas as imagens p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre cada duas imagens adjacentes na primeira imagem e as imagens p, e depois que as informações de fluxo ópticas entre cada duas imagens adjacentes forem acumuladas, gerar uma imagem com informações de fluxo ópticas que incluem as informações de fluxo ópticas acumuladas.
[0083] Em outra implementação possível, o dispositivo de reconhecimento de gestos pode calcular as informações de fluxo ópticas entre cada duas imagens adjacentes em uma imagem It (x, y) nas M imagens e imagens p It−1 (x, y), It−2 (x, y), … e It−T (x, y) antes de
It (x, y) usar um algoritmo de campo de fluxo óptico de Lagrange (campo de moção de Lagrange) e em seguida, acumula as informações de fluxo ópticas entre cada duas imagens adjacentes para gerar uma imagem Ut (x, y) que inclui as informações de fluxo ópticas acumuladas. A interpolação de dados faltantes é envolvida em um processo para acumular as informações de fluxo ópticas. Formas de interpolação, tais como linear (linear), bilinear (bilinear) e uma curva cúbica (cúbica) podem ser selecionadas. Uma fórmula para calcular a imagem com informações de fluxo ópticas pode ser representada simplesmente como se segue: 𝑈𝑡 (𝑥, 𝑦) = ∑𝑘=𝑇 𝑘=1 𝑂𝐹[𝐼𝑡−𝑘 (𝑥, 𝑦), 𝐼𝑡−𝑘+1 (𝑥, 𝑦)] (5)
[0084] Na fórmula mencionada acima (5), 𝑈𝑡 (𝑥,y) é uma imagem com informações de fluxo ópticas que corresponde à imagem It (x, y) e OF[•] representa o algoritmo de campo de fluxo óptico de Lagrange.
[0085] Na maneira 1, o campo de fluxo óptico precisa ser calculado apenas uma vez. Portanto, um campo de algoritmo de fluxo óptico relativamente preciso precisa ser selecionado. Na maneira 2, o campo de fluxo óptico precisa ser calculado diversas vezes. Portanto, um campo de algoritmo de fluxo óptico com pouca precisão, mas com alta velocidade pode ser usado.
[0086] Etapa 305: Realizar o processamento de imagem nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0087] A imagem com as informações de cor inclui as informações de cor das M imagens. As informações de cor incluem um valor de cor de cada pixel na imagem.
[0088] O dispositivo de reconhecimento de gestos processa uma sequência de imagens no primeiro segmento de vídeo, e envia m imagens com informações de cor, tais como uma imagem RGB (vermelha, verde azul), para representar a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, em que m é um número inteiro maior ou igual a 1. Assume-se que todas as imagens It−T (x, y), It−T+1 (x, y), …, It−1 (x, y) e It (x, y) no primeiro segmento de vídeo são inseridas e que as informações de cor das imagens no primeiro segmento de vídeo que são representadas pelas M imagens ItT (x, y) em um momento final do segmento de vídeo são geradas.
[0089] Durante a execução de processamento de imagem nas M imagens para obter a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, o dispositivo de reconhecimento de gestos pode obter a imagem com as informações de cor usando os seguintes métodos.
[0090] (1) Extrair as informações de cor de M imagens nas M imagens, gerar, com base nas informações de cor extraída, imagens com informações de cor que correspondem respectivamente à M imagens e obter as imagens com informações de cor que correspondem respectivamente à M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo. Por exemplo, depois de extrair as informações de cor de qualquer imagem nas M imagens, o dispositivo de reconhecimento de gestos gera uma imagem com as informações de cor que corresponde a qualquer imagem, e a imagem gerada com as informações de cor inclui as informações de cor dessa imagem qualquer.
[0091] As M imagens são M imagens aleatórias nas M imagens. Por exemplo, uma única imagem com as informações de cor é obtida. Nesta modalidade do presente pedido de patente, quando o período de tempo do primeiro segmento de vídeo é relativamente pequeno, uma imagem com as informações de cor que corresponde a uma imagem que é selecionada de forma aleatória diretamente a partir do primeiro segmento de vídeo pode ser usada para representar ItT (x, y). Mais especificamente,
𝐼𝑡𝑇 (𝑥, 𝑦) = 𝐼𝑘 (𝑥, 𝑦), 𝑡−𝑇 ≤𝑘 ≤𝑡 (6), onde t–T é um intervalo de tempo que corresponde a uma primeira imagem no primeiro segmento de vídeo, e t é um intervalo de tempo que corresponde a uma última imagem no primeiro segmento de vídeo.
[0092] De maneira opcional, além de selecionar de forma aleatória as imagens com informações de cor das M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, o dispositivo de reconhecimento de gestos pode selecionar de maneira alternativa, usando outra política, as imagens com informações de cor das M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo. Por exemplo, o dispositivo de reconhecimento de gestos pode usar as imagens com informações de cor de M imagens no primeiro ou último tempo correspondente nas M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0093] Em outra implementação possível, as M imagens podem ser M imagens que estão nas M imagens e com cada uma tendo uma variação maior em relação a uma imagem anterior no fluxo de vídeo.
[0094] Por exemplo, para cada uma das M imagens, o dispositivo de reconhecimento de gestos pode detectar um pixel contido na imagem e que muda em relação a uma imagem antes da imagem no fluxo de vídeo, e o dispositivo de reconhecimento de gestos pode obter as imagens com informações de cor que correspondem à M imagens que estão nas M imagens, com cada uma tendo uma maior quantidade de pixels modificados em relação a uma imagem anterior como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0095] (2) Detectar uma localização de pixel nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor nas M imagens que corresponde às localizações de pixel reconhecidas, para obter novas informações de cor nas localizações de pixel reconhecidas, e gerar, com base nas novas informações de cor nas localizações de pixel reconhecidas, a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0096] Nesta modalidade do presente pedido de patente, o dispositivo de reconhecimento de gestos também pode comparar os pixels em uma mesma localização nas M imagens para reconhecer a localização de pixel (a localização de pixel pode ser as coordenadas de um pixel em uma imagem) nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor dos pixels que estão nas M imagens e que correspondem às localizações de pixel reconhecidas para obter as novas informações de cor que correspondem às localizações de pixel reconhecidas, e gerar as novas informações de cor imagem. As informações de cor que correspondem às localizações de pixel reconhecidas que estão na nova imagem com as informações de cor são as novas informações de cor obtidas calculando-se a média.
[0097] O algoritmo mencionado acima para detectar um pixel que está em uma imagem e que muda em relação a uma imagem anterior e o algoritmo mencionado acima para detectar uma localização de pixel que está na imagem e que muda com tempo pode ser coletivamente referido como um algoritmo de detecção de imagem saliente espacial- temporal.
[0098] (3) Extrair as informações de cor de algumas ou todas as imagens nas M imagens para obter as imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens, e calcular o valor médio das informações de cor de pixels nas imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens, para obter a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
[0099] Por exemplo, as M imagens são todas as imagens no segmento de vídeo, e uma única imagem com as informações de cor é obtida. Uma fórmula para calcular o valor médio das informações de cor de todas as imagens no primeiro segmento de vídeo como a imagem com as informações de cor do primeiro segmento de vídeo pode ser como se segue: 1 ItT (x, y) = ∑k=T ′ k=1 I k (x, y) , 𝑡 − 𝑇 ≤ 𝑘 ≤ 𝑡 (7), onde n t–T é um intervalo de tempo que corresponde à primeira imagem no primeiro segmento de vídeo, t é um intervalo de tempo que corresponde à última imagem no primeiro segmento de vídeo, e n é uma quantidade de imagens no primeiro segmento de vídeo.
[0153] (4) Extrair as informações de cor de algumas ou todas as imagens nas M imagens para gerar imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens, calcular o valor médio das informações de cor de pixels nas imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens e em seguida, utilizar, como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, uma imagem com as informações de cor obtidas depois da subtração das informações de cor dos pixels calculadas e mencionadas acima a partir das informações de cor dos pixels nas imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens.
[0154] Visto que o pixel nas M imagens que muda é geralmente uma parte de primeiro plano (mais especificamente, uma parte que corresponde a uma mão humana), e um pixel que corresponde a uma parte de plano de fundo geralmente permanece inalterado, nas imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens, as informações de cor do pixel que correspondem à parte de plano de fundo são geralmente iguais ou similares a um valor médio das informações de cor na parte de plano de fundo, e as informações de cor do pixel que correspondem à parte de primeiro plano são geralmente muito diferentes de um valor médio das informações de cor na parte de primeiro plano. Portanto, nesta modalidade do presente pedido de patente, as imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens que não são a parte de plano de fundo podem ser obtidas subtraindo-se um valor médio de localizações de pixel correspondentes a partir das informações de cor dos pixels nas imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens. O dispositivo de reconhecimento de gestos pode usar, como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, as imagens com informações de cor que correspondem respectivamente a algumas ou todas as imagens que não seja a parte de plano de fundo.
[0155] Etapa 306: Efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas usando um primeiro algoritmo de aprendizado profundo para obter um primeiro resultado de reconhecimento, e efetuar o reconhecimento de gestos na imagem com as informações de cor usando um segundo algoritmo de aprendizado profundo para obter um segundo resultado de reconhecimento.
[0156] Nesta modalidade do presente pedido de patente, a imagem com as informações de cor (tal como uma imagem RGB) e a imagem com informações de fluxo ópticas podem ser obtidas durante as etapas mencionadas acima com base no fluxo de vídeo inserido. Dois modelos de aprendizado profundo são respectivamente usados para o reconhecimento de gestos na etapa 306, e o resultado dos reconhecimentos obtidos usando-se os dois modelos de aprendizado profundo são combinados em uma próxima etapa.
[0157] Nesta modalidade do presente pedido de patente, um modelo de aprendizado profundo de canal dual é usado para o reconhecimento de gestos. Um canal é um fluxo temporal (que corresponde ao primeiro algoritmo de aprendizado profundo). A imagem com informações de fluxo ópticas é inserida no fluxo temporal e por fim, um resultado de reconhecimento de gestos de uma imagem atual de informações de fluxo ópticas é gerado. Por exemplo, na etapa 304, depois de obter uma imagem com informações de fluxo ópticas de cada uma das M imagens, o dispositivo de reconhecimento de gestos salva em cache a imagem com informações de fluxo ópticas. Durante a execução do reconhecimento de gestos na imagem com informações de fluxo ópticas, o dispositivo de reconhecimento de gestos insere as imagens X com informações de fluxo ópticas recentemente armazenadas dentro do canal de aprendizado profundo, mais especificamente, no fluxo temporal, para gerar resultados de reconhecimento de gestos que correspondem às imagens X com informações de fluxo ópticas e utiliza os resultados de reconhecimento de gestos gerados como um resultado para efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas do primeiro segmento de vídeo.
[0158] No modelo de aprendizado profundo de canal dual, o outro canal é um fluxo espacial (que corresponde ao segundo algoritmo de aprendizado profundo). Uma imagem com as informações de cor que são obtidas na etapa 305 e que representam pelo menos uma imagem com as informações de cor no primeiro segmento de vídeo é inserida no fluxo espacial e um resultado de reconhecimento de gestos de pelo menos uma imagem com as informações de cor é gerado.
[0159] O modelo de aprendizado profundo de canal dual é um modelo pré-treinado de aprendizado de máquina.
[0160] Etapa 307: Combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento para a obtenção de um resultado de reconhecimento de gestos do primeiro segmento de vídeo.
[0161] Nesta modalidade do presente pedido de patente, visto que o resultado de reconhecimento de gestos da imagem com informações de fluxo ópticas e o resultado de reconhecimento de gestos da imagem com as informações de cor obtidos na etapa 306 são resultados de reconhecimento de gestos para um mesmo segmento de vídeo, depois de obter o resultado de reconhecimento de gestos da imagem com informações de fluxo ópticas e o resultado de reconhecimento de gestos da imagem com as informações de cor, o dispositivo de reconhecimento de gestos pode combinar os dois resultados para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
[0162] O primeiro resultado de reconhecimento e o segundo resultado de reconhecimento podem ser combinados nas duas maneiras a seguir:
[0163] Uma maneira é executar o cálculo do valor médio no primeiro resultado de reconhecimento e no segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo com base no resultado de cálculo do valor médio.
[0164] A outra maneira é inserir o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento em um segundo modelo pré-treinado de aprendizado de máquina, tal como um modelo linear de máquina de vetor de suporte (Máquina de Vetor de Suporte, SVM), para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo. O segundo modelo de aprendizado de máquina é um modelo de aprendizado usado para determinar um único resultado de reconhecimento com base nos dois resultados de reconhecimento inseridos, e o segundo modelo de aprendizado de máquina pode ser obtido por meio de treinamento usando-se um segmento de vídeo no qual um gesto é pré-classificado. De maneira específica, os dois resultados de reconhecimento podem ser, por exemplo, dois valores. O dispositivo de reconhecimento de gestos pode inserir os dois valores dentro do segundo modelo de aprendizado de máquina, e o segundo modelo de aprendizado de máquina obtém um valor combinado por meio de cálculo com base em uma fórmula de cálculo pré-treinada e os dois input valores e envia o valor combinado como o resultado de reconhecimento de gestos do primeiro segmento de vídeo.
[0165] O dispositivo de reconhecimento de gestos obtém, em tempo real, um resultado de reconhecimento de fase de gestos que corresponde a cada segmento de vídeo e salva o resultado de reconhecimento de fase de gestos em uma biblioteca temporária de resultados de reconhecimento de gestos.
[0166] Etapa 308: Depois que os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos no fluxo de vídeo que incluem o primeiro segmento de vídeo são obtidos, efetuar uma combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos para a obtenção de um resultado combinado de reconhecimento de gestos.
[0167] N≥2 e N é um número inteiro.
[0168] Nesta modalidade do presente pedido de patente, durante a execução de uma combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, o dispositivo de reconhecimento de gestos pode inserir os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos dentro de um primeiro modelo pré-treinado de aprendizado de máquina, para a obtenção do resultado combinado de reconhecimento de gestos. O primeiro modelo de aprendizado de máquina é usado para determinar uma tendência de moção gestual geral que inclui os resultados N de reconhecimento de gestos consecutivos que foram inseridos e para enviar um gesto que corresponde à tendência de moção gestual geral como o resultado combinado de reconhecimento de gestos. De maneira específica, os resultados N de reconhecimento de gestos consecutivos podem ser, por exemplo, valores N. O dispositivo de reconhecimento de gestos pode inserir os valores N dentro do primeiro modelo de aprendizado de máquina com base em uma sequência de tempo dos N segmentos de vídeo, e o primeiro modelo de aprendizado de máquina obtém um valor combinado por meio de cálculo com base em uma fórmula de cálculo pré-treinada e nos valores N que são inseridos em sequência, e envia o valor combinado como o resultado combinado de reconhecimento de gestos.
[0169] O primeiro modelo de aprendizado de máquina é um modelo de rede neural e o modelo de rede neural possui neurônios N; ou o primeiro modelo de aprendizado de máquina é um modelo de máquina de vetor de suporte SVM.
[0170] De maneira alternativa, nesta modalidade do presente pedido de patente, durante a execução de uma combinação de resultados nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, o dispositivo de reconhecimento de gestos pode obter os coeficientes de peso predefinidos respectivamente que correspondem aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, e executar uma média ponderada nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos com base nos coeficientes de peso que correspondem respectivamente aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos.
[0171] Em uma aplicação real, em um processo no qual um usuário efetua uma única operação gestual, uma tendência de moção gestual geral se conforma a uma ação gestual que o usuário espera executar, porém, um gesto do usuário pode não se conforma, em um curto período de tempo, à ação gestual que o usuário espera executar. Por exemplo, supondo que a operação gestual que o usuário espera executar seja levantar a mão. O usuário executa a operação gestual de levantar a mão em 1s, mas não levanta a mão em um período de tempo muito curto (tais como 0,2s) durante esse 1s, e sim abaixa um pouco a mão e continua levantando a mão depois desse período de tempo muito curto. Neste caso, o resultado de reconhecimento de gestos que durante este período de tempo muito curto e que é reconhecido pelo dispositivo de reconhecimento de gestos não se conforma à operação gestual que o usuário espera executar no momento. Portanto, nesta modalidade do presente pedido de patente, para aumentar a precisão no reconhecimento de gestos, o dispositivo de reconhecimento de gestos pode combinar os resultados de reconhecimento de gestos (mais especificamente, uma sequência de resultados de reconhecimento de gestos) de uma pluralidade de segmentos de vídeo consecutivos e utilizar, como um resultado combinado de reconhecimento de gestos, uma tendência de moção gestual geral refletida pelos resultados de reconhecimento de gestos da pluralidade de segmentos de vídeo.
[0172] De maneira específica, isso é definido como se segue: Em um fluxo de vídeo consecutivo e em tempo real, o dispositivo de reconhecimento de gestos calcula um resultado de reconhecimento de ação de fase N vezes em um N×T1 tempo (T1 é um período de tempo de um segmento de vídeo), e provê um resultado final de reconhecimento usando uma decisão combinada dos resultados N de reconhecimento de fase (depois do tempo N×T1). O valor de N×T1 pode ser, neste caso, de aproximadamente 1 segundo com base em um período de tempo médio usado pelo usuário para executar uma ação gestual. Os resultados N de reconhecimento de fase são combinados usando-se uma pluralidade de implementações, por exemplo, as duas maneiras a seguir:
[0173] (1) Combinação linear: 𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 = 𝛼1 𝑟1 + 𝛼2 𝑟2 + ⋯ ⋯ + 𝛼𝑁 𝑟𝑁 (8), onde r1 , r2 , … e rN são, neste caso, os resultados de reconhecimento de fase e os coeficientes de peso antes dos resultados são α1 , α2 , … e αN . Esses coeficientes de peso podem ser coeficientes predeterminados usando-se um algoritmo de aprendizado de máquina, e diferentes maneiras de combinação são geradas com base em diferentes combinações de coeficiente.
[0174] (2) Método de máquina de vetor de suporte SVM:
[0175] Com referência à figura 5, a figura 5 é um diagrama esquemático de combinação de resultados de reconhecimento de acordo com uma modalidade deste pedido de patente. Conforme mostrado na figura 5, nesta modalidade do presente pedido de patente, os resultados de reconhecimento de fase r1 , r2 , … e rN podem ser inseridos dentro de um modelo pré-treinado de aprendizado de máquina, mais especificamente, um módulo SVM (uma função kernel de SVM no módulo SVM é uma função kernel predefinida ou pré- treinada) mostrado na figura 5, para gerar um resultado combinado.
[0176] Depois de obter o resultado combinado de reconhecimento de gestos, o dispositivo de reconhecimento de gestos pode evocar um módulo correspondente (tal como uma apresentação de slides ou uma reprodução de imagens em tela cheia) com base no resultado de reconhecimento de gestos, para implementar a interação homem- máquina.
[0177] Nesta modalidade do presente pedido de patente, se o dispositivo de reconhecimento de gestos determinar que nenhuma ação está sendo executada em um segmento de vídeo, o dispositivo de reconhecimento de gestos pode não efetuar o reconhecimento de gestos no segmento de vídeo, para reduzir a frequência de reconhecimento de gestos e evitar um processo de reconhecimento desnecessário. De maneira específica, o dispositivo de reconhecimento de gestos pode definir diretamente o resultado de reconhecimento de gestos do segmento de vídeo como nulo, ou pode não definir um resultado de reconhecimento de gestos do segmento de vídeo.
[0178] Com referência à figura 6, a figura 6 é um fluxograma esquemático de reconhecimento de gestos de acordo com uma modalidade deste pedido de patente. Por exemplo, este procedimento é usado para o sistema de reconhecimento de gestos mostrado na figura 1. Conforme mostrado na figura 6, um dispositivo de captura de imagens insere um fluxo de vídeo capturado dentro de um dispositivo de reconhecimento de gestos. Depois de extrair uma imagem no fluxo de vídeo, o dispositivo de reconhecimento de gestos determina, usando o método mostrado na etapa 302 e com base na imagem e em pelo menos uma imagem antes da imagem em um período de tempo, se uma ação está sendo executada na imagem em relação a pelo menos uma imagem antes da imagem. Se for determinado que uma ação está sendo executada, para imagens em um segmento de vídeo no qual a imagem atual no fluxo de vídeo está localizada (ou em algumas das imagens), o dispositivo de reconhecimento de gestos respectivamente extrai uma imagem com informações de fluxo ópticas e uma imagem com as informações de cor do segmento de vídeo usando os métodos na etapa 304 e na etapa 305, executando respectivamente o reconhecimento de gestos na imagem com informações de fluxo ópticas e na imagem com as informações de cor por meio do método mostrado na etapa 306 e em seguida, combina, usando o método mostrado na etapa 307, os resultados de reconhecimento de gestos obtido efetuando respectivamente o reconhecimento de gestos na imagem com informações de fluxo ópticas e na imagem com as informações de cor, para obter um resultado de reconhecimento de fase de gestos que corresponde ao segmento de vídeo. Depois de obter consecutivamente os resultados N de reconhecimento de fase de gestos, o dispositivo de reconhecimento de gestos combina os resultados N de reconhecimento de gestos usando o método mostrado na etapa 308, para a obtenção de um resultado combinado de reconhecimento de gestos.
[0179] De maneira opcional, o modelo de aprendizado de máquinas mencionado acima (que inclui o primeiro modelo de aprendizado de máquina, o segundo modelo de aprendizado de máquina, o modelo de aprendizado profundo de canal dual na etapa 306 e similares) pode ser obtido por meio de treinamento de máquina usando uma amostra de vídeo na qual um gesto correspondente é pré-classificado.
[0180] O processo de treinamento de máquina mencionado acima pode ser implantado por um dispositivo de treinamento de modelo. De maneira específica, por exemplo, o primeiro modelo de aprendizado de máquina, o segundo modelo de aprendizado de máquina e o modelo de aprendizado profundo de canal dual são obtidos por meio de treinamento de máquina. Em uma implementação possível, um desenvolvedor insere várias amostras de fluxo de vídeo dentro do dispositivo de treinamento de modelo, com cada amostra de fluxo de vídeo incluindo um gesto, e pré-classifica o gesto em cada amostra de fluxo de vídeo. Além disso, o desenvolvedor divide cada fluxo de vídeo em uma pluralidade de segmentos de vídeo e classifica um gesto de fase que corresponde a cada segmento de vídeo. Durante o treinamento de máquina, o dispositivo de treinamento de modelo extrai uma imagem com informações de fluxo ópticas e uma imagem com as informações de cor de cada segmento de vídeo usando as soluções mostradas na etapa 304 e na etapa 305, insere a imagem com informações de fluxo ópticas e a imagem com as informações de cor do segmento de vídeo dentro do modelo de aprendizado profundo de canal dual e insere, dentro do segundo modelo de aprendizado de máquina, dois resultados de reconhecimento gerados pelo modelo de aprendizado profundo de canal dual e um gesto de fase classificado no segmento de vídeo, para efetuar um treinamento no modelo de aprendizado profundo de canal dual e no segundo modelo de aprendizado de máquina. Além disso, para cada amostra de fluxo de vídeo, o dispositivo de treinamento de modelo insere um gesto de fase de cada segmento de vídeo na amostra de fluxo de vídeo e um gesto pré-classificado na amostra de fluxo de vídeo dentro do primeiro modelo de aprendizado de máquina para treinamento de máquina, para obter o primeiro modelo de aprendizado de máquina.
[0181] Para outro exemplo, o primeiro modelo de aprendizado de máquina, o segundo modelo de aprendizado de máquina e o modelo de aprendizado profundo de canal dual são obtidos por meio de treinamento de máquina. Em outra implementação possível, um desenvolvedor insere várias amostras de fluxo de vídeo dentro de um dispositivo de treinamento de modelo, com cada amostra de fluxo de vídeo incluindo um gesto, e o desenvolvedor pré-classifica o gesto em cada amostra de fluxo de vídeo. O dispositivo de treinamento de modelo divide um fluxo de vídeo em uma pluralidade de segmentos de vídeo, extrai uma imagem com informações de fluxo ópticas e uma imagem com as informações de cor de cada segmento de vídeo, insere a imagem com informações de fluxo ópticas e a imagem com as informações de cor do segmento de vídeo dentro do modelo de aprendizado profundo de canal dual, insere, dentro do segundo modelo de aprendizado de máquina, dois resultados de reconhecimento gerados pelo modelo de aprendizado profundo de canal dual e em seguida, insere, dentro do primeiro modelo de aprendizado de máquina, os resultados de reconhecimento de fase de gestos que são da pluralidade de segmentos de vídeo e que são gerado pelo segundo modelo de aprendizado de máquina. Além disso, o dispositivo de treinamento de modelo insere um gesto classificado que corresponde ao fluxo de vídeo dentro do primeiro modelo de aprendizado de máquina, para efetuar simultaneamente um treinamento de máquina no primeiro modelo de aprendizado de máquina, no segundo modelo de aprendizado de máquina e no modelo de aprendizado profundo de canal dual.
[0182] É válido observar que o método mostrado nesta modalidade da presente invenção é descrito usando-se o modelo de aprendizado profundo de canal dual como um exemplo. Em uma aplicação real, durante o reconhecimento de cada segmento de vídeo, o dispositivo de reconhecimento de gestos pode reconhecer um gesto em um único segmento de vídeo usando outro algoritmo de aprendizado profundo. Por exemplo, o dispositivo de reconhecimento de gestos pode reconhecer, usando apenas a imagem com informações de fluxo ópticas, um resultado de reconhecimento de gestos que corresponde ao segmento de vídeo, ou o dispositivo de reconhecimento de gestos pode reconhecer, usando apenas a imagem com as informações de cor, um resultado de reconhecimento de gestos que corresponde ao segmento de vídeo. O algoritmo de aprendizado profundo mencionado acima usado para reconhecer o resultado de reconhecimento de gestos do segmento de vídeo não é limitado nesta modalidade da presente invenção.
[0183] Em suma, de acordo com o método mostrado nesta modalidade do presente pedido de patente, o dispositivo de reconhecimento de gestos respectivamente extrai uma imagem com informações de fluxo ópticas e uma imagem com as informações de cor de cada segmento de vídeo em um fluxo de vídeo, e respectivamente executa o reconhecimento de gestos na imagem com informações de fluxo ópticas e na imagem com as informações de cor usando-se um algoritmo de aprendizado profundo. Depois do reconhecimento de gestos, o dispositivo de reconhecimento de gestos combina os resultados de reconhecimento de gestos que correspondem às duas imagens para determinar um resultado de reconhecimento de gestos que corresponde ao segmento de vídeo e por fim, combina os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos que incluem o segmento de vídeo, para a obtenção de um resultado de reconhecimento de gestos dos N segmentos de vídeo consecutivos. Mais especificamente, no método mencionado acima, o dispositivo de reconhecimento de gestos divide uma ação gestual completa em uma pluralidade de ações de fase, reconhece as ações de fase usando o algoritmo de aprendizado profundo e por fim, combina as ações de fase reconhecidas como a ação gestual completa. Em um processo de reconhecimento, um gesto no fluxo de vídeo não precisa ser segmentado ou rastreado, pois as ações de fase são reconhecidas usando-se o algoritmo de aprendizado profundo com uma velocidade de cálculo relativamente alta, de modo a aumentar a velocidade do reconhecimento de gestos e reduzir os atrasos no reconhecimento de gestos.
[0184] A figura 7 é um diagrama estrutural esquemático de um dispositivo de reconhecimento de gestos 70 de acordo com um exemplo de uma modalidade deste pedido de patente. O dispositivo de reconhecimento de gestos 70 pode ser implantado como o dispositivo de reconhecimento de gestos 120 no sistema mostrado na figura 1. Conforme mostrado na figura 7, o dispositivo de reconhecimento de gestos 70 pode incluir um processador 71 e uma memória 73.
[0185] O processador 71 pode incluir uma ou mais unidades de processamento, e a unidade de processamento pode ser uma unidade de processamento central (CPU), um processador de rede (NP) ou similares.
[0186] De maneira opcional, o dispositivo de reconhecimento de gestos 70 também pode incluir a memória 73, a qual pode ser configurada para armazenar um programa de software, e o programa de software pode ser executado pelo processador 71. Além disso, a memória 73 também pode armazenar vários tipos de dados de serviço ou dados de usuário. O programa de software pode incluir um módulo de obtenção de imagens, um módulo de reconhecimento e um módulo de combinação. De maneira opcional, o programa de software também pode incluir um módulo de determinação de janela de tempo e um módulo de julgamento.
[0187] O módulo de obtenção de imagens é executado pelo processador 71, para implementar a função de obtenção das M imagens extraídas de um primeiro segmento de vídeo em um fluxo de vídeo na modalidade mostrada na figura 3.
[0188] O módulo de reconhecimento é executado pelo processador 71 para implementar a função de reconhecimento de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo na modalidade mostrada na figura 3.
[0189] O módulo de combinação é executado pelo processador 71 para implementar a função de combinação dos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos na modalidade mostrada na figura 3.
[0190] O módulo de determinação de janela de tempo é executado pelo processador 71 para implementar a função de determinação de uma janela de tempo na modalidade mostrada na figura 3.
[0191] O módulo de julgamento é executado pelo processador 71, para implementar a função para verificar se uma ação está sendo executada no primeiro segmento de vídeo da modalidade mostrada na figura 3.
[0192] De maneira opcional, o dispositivo de reconhecimento de gestos 70 também pode incluir uma interface de comunicação 74, e a interface de comunicação 74 pode incluir uma interface de rede. A interface de rede é configurada para conectar-se a um dispositivo de captura de imagens. De maneira específica, a interface de rede pode incluir uma interface de rede cabeada, tal como uma interface Ethernet ou uma interface de fibra, ou a interface de rede pode incluir uma interface de rede sem fio, tal como uma interface de rede de área local sem fio ou uma interface de rede móvel de celular. O dispositivo de reconhecimento de gestos 70 se comunica com outro dispositivo usando a interface de rede 74.
[0193] De maneira opcional, o processador 71 pode ser conectado à memória 73 e à interface de comunicação 74 usando um barramento.
[0194] De maneira opcional, o dispositivo de reconhecimento de gestos 70 também pode incluir um dispositivo de saída 75 e um dispositivo de entrada 77. O dispositivo de saída 75 e o dispositivo de entrada 77 são conectados ao processador 71. O dispositivo de saída 75 pode ser uma tela configurada para exibir informações, um dispositivo de amplificação de energia que reproduz som, uma impressora ou similares. O dispositivo de saída 75 também pode incluir um controlador de saída, para prover saída para a tela, o dispositivo de amplificação de energia, ou a impressora. O dispositivo de entrada 77 pode ser um dispositivo, tal como um mouse, um teclado, um stylus eletrônico ou um painel de toque usado por um usuário para inserir informações. O dispositivo de entrada 77 também pode incluir um controlador de entrada, para receber e processar as entradas de dados de dispositivos, tais como o mouse, o teclado, o stylus eletrônico ou o painel de toque.
[0195] Será descrita a seguir uma modalidade de aparelho deste pedido de patente, a qual pode ser usada para executar a modalidade de método deste pedido de patente. Para detalhes não descritos na modalidade de aparelho deste pedido de patente, consulte a modalidade de método deste pedido de patente.
[0196] A figura 8 é um diagrama em bloco estrutural de um aparelho de reconhecimento de gestos de acordo com um exemplo de uma modalidade deste pedido de patente. O aparelho de reconhecimento de gestos pode ser implantado como uma parte ou a totalidade de um dispositivo de reconhecimento de gestos usando-se um circuito de hardware ou uma combinação de software e hardware. O dispositivo de reconhecimento de gestos pode ser o dispositivo de reconhecimento de gestos 120 da modalidade mostrada na figura 1. O aparelho de reconhecimento de gestos pode incluir uma unidade de obtenção de imagens 801, uma unidade de reconhecimento 802 e uma unidade de combinação 803. De maneira opcional, o programa de software também pode incluir uma unidade de determinação de janela de tempo 804 e uma unidade de julgamento 805.
[0197] A unidade de obtenção de imagens 801 é executada por um processador para implementar a função de obtenção das M imagens extraída a partir de um primeiro segmento de vídeo em um fluxo de vídeo na modalidade mostrada na figura 3.
[0198] A unidade de reconhecimento 802 é executada pelo processador para implementar a função de obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo na modalidade mostrada na figura 3.
[0199] A unidade de combinação 803 é executada pelo processador para implementar a função de combinação dos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos na modalidade mostrada na figura 3.
[0200] A unidade de determinação de janela de tempo 804 é executada pelo processador para implementar a função de determinação de uma janela de tempo na modalidade mostrada na figura 3.
[0201] A unidade de julgamento 805 é executada pelo processador, para implementar a função para verificar se uma ação está sendo executada no primeiro segmento de vídeo na modalidade mostrada na figura 3.
[0202] É válido observar que quando o aparelho de reconhecimento de gestos provido na modalidade mencionada acima executa o reconhecimento de gestos, a divisão das unidades funcionais mencionadas acima é meramente usada como um exemplo para descrição. Em uma aplicação real, as funções mencionadas acima podem ser alocadas em diferentes unidades funcionais para serem implantadas quando necessário. Mais especificamente, uma estrutura interna do dispositivo é dividida em diferentes unidades funcionais para implementar algumas ou todas as funções descritas acima. Além disso, o aparelho de reconhecimento de gestos provido na modalidade mencionada acima pertence a um mesmo conceito que a modalidade do método de reconhecimento de gestos. Para um processo de implementação específico, consulte a modalidade de método, pois esses detalhes não serão descritos aqui novamente.
[0203] Os números sequenciais das modalidades mencionadas acima deste pedido de patente servem apenas para fins de ilustração e não indicam prioridades entre as modalidades.
[0204] Uma pessoa versada na técnica compreenderá que algumas ou todas as etapas das modalidades podem ser implantadas por hardware ou programa que instrui o hardware relacionado. O programa pode ser armazenado em um meio de armazenamento legível por computador. O meio de armazenamento pode incluir uma memória apenas de leitura, um disco magnético ou um disco óptico.
[0205] As descrições mencionadas acima são meramente modalidades opcionais deste pedido de patente e não se destinam a limitá-lo.
Qualquer modificação, substituição equivalente ou aprimoramento feito sem desvio em relação ao princípio deste pedido de patente será abrangido pelo escopo de proteção deste pedido de patente.

Claims (30)

REIVINDICAÇÕES
1. Dispositivo de reconhecimento de gestos, caracterizado pelo fato de compreender um processador e uma memória; o processador é configurado para obter as M M imagens, no qual as M M imagenssão extraídas de um primeiro segmento de vídeo em um fluxo de vídeo, o primeiro segmento de vídeo é qualquer segmento de vídeo no fluxo de vídeo, e M é um número inteiro maior ou igual a 2; o processador é configurado para executar reconhecimento de gestos nas M M imagensusando-se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo; e o processador é configurado para: depois de obter resultados de reconhecimento de gestos de N N segmentos de vídeo consecutivos no fluxo de vídeo que compreende o primeiro segmento de vídeo, combinar os resultados de reconhecimento de gestos dos N N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos, no qual N é um número inteiro maior ou igual a 2.
2. Dispositivo de acordo com a reivindicação 1, caracterizado pelo fato de que ao combinar os resultados de reconhecimento de gestos dos N N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos, o processador é especificamente configurado para: inserir os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos dentro de um primeiro modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado combinado de reconhecimento de gestos, no qual o primeiro modelo de aprendizado de máquina é usado para determinar uma tendência de moção gestual geral composta pelo inserido resultados N de reconhecimento de gestos consecutivos, e para enviar um gesto que corresponde à tendência de moção gestual geral como o resultado combinado de reconhecimento de gestos.
3. Dispositivo de acordo com a reivindicação 2, caracterizado pelo fato de que o primeiro modelo de aprendizado de máquina é um modelo de rede neural e o modelo de rede neural possui neurônios N; ou o primeiro modelo de aprendizado de máquina é um modelo de máquina de vetor de suporte SVM.
4. Dispositivo de acordo com a reivindicação 1, caracterizado pelo fato de que durante a combinação dos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos, o processador é especificamente configurado para: obter os coeficientes de peso predefinidos respectivamente que correspondem aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos; e efetuar uma média ponderada nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos com base nos coeficientes de peso que correspondem respectivamente aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos.
5. Dispositivo de acordo com a reivindicação 1, caracterizado pelo fato de que durante a execução do reconhecimento de gestos nas M imagens usando-se o algoritmo de aprendizado profundo, para a obtenção do resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo, o processador é especificamente configurado para: realizar o processamento de imagem nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, no qual a imagem com informações de fluxo ópticas compreende as informações de fluxo ópticas entre uma primeira imagem nas M imagens e a imagem p ésima antes de a primeira imagem, a primeira imagem é qualquer um das M imagens, e as informações de fluxo ópticas compreendem informações instantâneas de vetor de velocidade de um pixel na imagem, e efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas usando um primeiro algoritmo de aprendizado profundo, para obter um primeiro resultado de reconhecimento, no qual p é um número inteiro maior ou igual a 1; realizar o processamento de imagem nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual a imagem com as informações de cor compreende as informações de cor das M imagens, e as informações de cor compreende um valor de cor de cada pixel na imagem, e efetuar o reconhecimento de gestos na imagem com as informações de cor usando um segundo algoritmo de aprendizado profundo, para obter um segundo resultado de reconhecimento; e combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
6. Dispositivo de acordo com a reivindicação 5, caracterizado pelo fato de que durante a execução de processamento de imagem nas M imagens, para obter a imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, o processador é especificamente configurado para: para a primeira imagem, obter, com base em uma regra ésima predefinida, a imagem p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima, e gerar a imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas entre a primeira ésima imagem e a imagem p , no qual um intervalo de tempo entre a primeira imagem e a imagem p ésima não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas; ou para a primeira imagem, obter, com base em uma regra predefinida, todas as imagens p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre cada duas imagens adjacentes na primeira imagem e nas Imagens p, e depois de acumular as informações de fluxo ópticas entre cada duas imagens adjacentes, gerar uma imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas acumuladas, no qual um intervalo de ésima tempo entre a primeira imagem e a imagem p antes da primeira imagem não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas.
7. Dispositivo de acordo com a reivindicação 5, caracterizado pelo fato de que durante a execução de processamento de imagem nas M imagens, para obter a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, o processador é especificamente configurado para: extrair as informações de cor de M imagens nas M imagens, gerar, com base nas informações de cor extraída, imagens com informações de cor que correspondem respectivamente à M imagens, e obter as imagens com informações de cor que correspondem respectivamente à M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual as M imagens são M imagens aleatórias nas M imagens, ou as M imagens são M imagens que estão nas M imagens e que cada uma possui uma variação maior em relação a uma imagem anterior no fluxo de vídeo, e m é um número inteiro maior ou igual a 1; ou detectar uma localização de pixel nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor nas M imagens que corresponde às localizações de pixel reconhecidas, para obter novas informações de cor nas localizações de pixel reconhecidas, e gerar, com base nas novas informações de cor nas localizações de pixel reconhecidas, a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
8. Dispositivo de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que antes de obter as M imagens, o processador é configurado ainda para: determinar uma janela de tempo com um período de tempo predefinido no fluxo de vídeo, no qual um momento final da janela de tempo está dentro de um período de tempo que corresponde ao primeiro segmento de vídeo; determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, no qual a imagem de referência é qualquer imagem na janela de tempo que não seja a última imagem; e se o resultado de determinação indicar que uma ação está sendo executada no primeiro segmento de vídeo, executar a etapa para obter as M imagens.
9. Dispositivo de acordo com a reivindicação 8, caracterizado pelo fato de que quando determinar, com base na última imagem e pelo menos uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, o processador é especificamente configurado para: para cada uma das pelo menos uma imagem de referência, calcular uma imagem de derivada parcial da última imagem, no qual um valor de cada pixel na imagem de derivada parcial é uma derivada parcial de um valor de um pixel correspondente na última imagem em relação a um valor de um pixel correspondente na imagem de referência; normalizar o valor de cada pixel na imagem de derivada parcial, para obter uma imagem de derivada parcial normalizada; binarizar a imagem de derivada parcial normalizada com base em um limite de binarização predefinido, para obter uma imagem binarizada da imagem de derivada parcial, no qual um valor de cada pixel na imagem binarizada é 0 ou 1; calcular uma soma de valores de escala de cinza dos pixels na imagem binarizada; e quando a soma dos valores de escala de cinza for maior que 0, determinar que uma ação está sendo executada no primeiro segmento de vídeo.
10. Dispositivo de acordo com qualquer uma das reivindicações 5 a 7, caracterizado pelo fato de que durante a combinação do primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo, o processador é especificamente configurado para: efetuar um cálculo de valor médio no primeiro resultado de reconhecimento e no segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo com base em um resultado de cálculo do cálculo de valor médio; ou inserir o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento dentro de um segundo modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
11. Aparelho de reconhecimento de gestos, caracterizado pelo fato de compreender: uma unidade de obtenção de imagens, configurado para obter as M imagens, no qual as M imagens são extraídas de um primeiro segmento de vídeo em um fluxo de vídeo, o primeiro segmento de vídeo é qualquer segmento de vídeo no fluxo de vídeo, e M é um número inteiro maior ou igual a 2; uma unidade de reconhecimento, configurado para executar reconhecimento de gestos nas M imagens usando-se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo; e uma unidade de combinação, configurada ainda para: depois que os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos no fluxo de vídeo que compreendem o primeiro segmento de vídeo serem obtidos, combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos, no qual N≥2 e N é um número inteiro.
12. Aparelho de acordo com a reivindicação 11, caracterizado pelo fato de que ao combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos, a unidade de combinação é especificamente configurada para: inserir os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos dentro de um primeiro modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado combinado de reconhecimento de gestos, no qual o primeiro modelo de aprendizado de máquina é usado para determinar uma tendência de moção gestual geral composta pelo inserido resultados N de reconhecimento de gestos consecutivos, e para enviar um gesto que corresponde à tendência de moção gestual geral como o resultado combinado de reconhecimento de gestos.
13. Aparelho de acordo com a reivindicação 12, caracterizado pelo fato de que o primeiro modelo de aprendizado de máquina é um modelo de rede neural e o modelo de rede neural possui neurônios N; ou o primeiro modelo de aprendizado de máquina é um modelo de máquina de vetor de suporte SVM.
14. Aparelho de acordo com a reivindicação 11, caracterizado pelo fato de que ao combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos, a unidade de combinação é especificamente configurada para: obter os coeficientes de peso predefinidos respectivamente que correspondem aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos; e efetuar uma média ponderada nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos com base nos coeficientes de peso que correspondem respectivamente aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos.
15. Aparelho de acordo com a reivindicação 11, caracterizado pelo fato de que a unidade de reconhecimento é especificamente configurada para: realizar o processamento de imagem nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, no qual a imagem com informações de fluxo ópticas compreende as informações de fluxo ópticas entre uma primeira imagem nas M imagens e a imagem p ésima antes de a primeira imagem, a primeira imagem é qualquer um das M imagens, e as informações de fluxo ópticas compreendem informações instantâneas de vetor de velocidade de um pixel na imagem, e efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas usando um primeiro algoritmo de aprendizado profundo, para obter um primeiro resultado de reconhecimento, no qual p é um número inteiro maior ou igual a 1; realizar o processamento de imagem nas M imagens, para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual a imagem com as informações de cor compreende as informações de cor das M imagens, e as informações de cor compreende um valor de cor de cada pixel na imagem, e efetuar o reconhecimento de gestos na imagem com as informações de cor usando um segundo algoritmo de aprendizado profundo, para obter um segundo resultado de reconhecimento; e combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
16. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que durante a execução de processamento de imagem nas M imagens para obter a imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, a unidade de reconhecimento é especificamente configurada para: para a primeira imagem, obter, com base em uma regra ésima predefinida, a imagem p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima, e gerar a imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas entre a primeira ésima imagem e a imagem p , no qual um intervalo de tempo entre a primeira imagem e a imagem p ésima não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas; ou para a primeira imagem, obter, com base em uma regra predefinida, todas as imagens p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre cada duas imagens adjacentes na primeira imagem e nas M imagens, e depois de acumular as informações de fluxo ópticas entre cada duas imagens adjacentes, gerar uma imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas acumuladas, no qual um intervalo de ésima tempo entre a primeira imagem e a imagem p antes da primeira imagem não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas.
17. Aparelho de acordo com a reivindicação 15, caracterizado pelo fato de que durante a execução de processamento de imagem nas M imagens para obter a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, a unidade de reconhecimento é especificamente configurada para: extrair as informações de cor de M imagens nas M imagens, gerar, com base nas informações de cor extraída, imagens com informações de cor que correspondem respectivamente à M imagens, e obter as imagens com informações de cor que correspondem respectivamente à M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual as M imagens são M imagens aleatórias nas M imagens, ou as M imagens são M imagens que estão nas M imagens e que cada uma possui uma variação maior em relação a uma imagem anterior no fluxo de vídeo, e m é um número inteiro maior ou igual a 1; ou detectar uma localização de pixel nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor nas M imagens que corresponde às localizações de pixel reconhecidas, para obter novas informações de cor nas localizações de pixel reconhecidas, e gerar, com base nas novas informações de cor nas localizações de pixel reconhecidas, a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
18. Aparelho de acordo com qualquer uma das reivindicações 11 a 17, caracterizado por compreender ainda : uma unidade de determinação de janela de tempo, configurada para determinar uma janela de tempo com um período de tempo predefinido no fluxo de vídeo antes da unidade de obtenção de imagens obtém as M imagens, no qual um momento final da janela de tempo está dentro de um período de tempo que corresponde ao primeiro segmento de vídeo; e um módulo de julgamento, configurado para determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, no qual pelo menos uma imagem de referência é qualquer imagem na janela de tempo que não seja a última imagem, no qual a unidade de obtenção de imagens é configurada para: se um resultado de determinação é que a ação é executada no primeiro segmento de vídeo, executar a etapa para obter as M imagens.
19. Aparelho de acordo com a reivindicação 18, caracterizado pelo fato de que a unidade de julgamento é especificamente configurada para: para cada uma das pelo menos uma imagem de referência, calcular uma imagem de derivada parcial da última imagem, no qual um valor de cada pixel na imagem de derivada parcial é uma derivada parcial de um valor de um pixel correspondente na última imagem em relação a um valor de um pixel correspondente na imagem de referência; normalizar o valor de cada pixel na imagem de derivada parcial, para obter uma imagem de derivada parcial normalizada; binarizar a imagem de derivada parcial normalizada com base em um limite de binarização predefinido, para obter uma imagem binarizada da imagem de derivada parcial, no qual um valor de cada pixel na imagem binarizada é 0 ou 1; calcular uma soma de valores de escala de cinza dos pixels na imagem binarizada; e quando a soma dos valores de escala de cinza for maior que 0, determinar que uma ação está sendo executada no primeiro segmento de vídeo.
20. Aparelho de acordo com qualquer uma das reivindicações 15 a 17, caracterizado pelo fato de que durante a combinação do primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo, a unidade de reconhecimento é especificamente configurada para: efetuar um cálculo de valor médio no primeiro resultado de reconhecimento e no segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo com base em um resultado de cálculo do cálculo de valor médio; ou inserir o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento dentro de um segundo modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
21. Método de reconhecimento de gestos, caracterizado por compreender: obter as M imagens, no qual as M imagens são extraídas de um primeiro segmento de vídeo em um fluxo de vídeo, o primeiro segmento de vídeo é qualquer segmento de vídeo no fluxo de vídeo, e M é um número inteiro maior ou igual a 2; efetuar o reconhecimento de gestos nas M imagens usando- se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo; e depois que os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos no fluxo de vídeo que compreendem o primeiro segmento de vídeo forem obtidos, combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos, no qual N≥2 e N é um número inteiro.
22. Método de acordo com a reivindicação 21, caracterizado pelo fato de que combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos compreende: inserir os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos dentro de um primeiro modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado combinado de reconhecimento de gestos, no qual o primeiro modelo de aprendizado de máquina é usado para determinar uma tendência de moção gestual geral composta pelo inserido resultados N de reconhecimento de gestos consecutivos, e para enviar um gesto que corresponde à tendência de moção gestual geral como o resultado combinado de reconhecimento de gestos.
23. Método de acordo com a reivindicação 22, caracterizado pelo fato de que: o primeiro modelo de aprendizado de máquina é um modelo de rede neural e o modelo de rede neural possui neurônios N; ou o primeiro modelo de aprendizado de máquina é um modelo de máquina de vetor de suporte SVM.
24. Método de acordo com a reivindicação 21, caracterizado pelo fato de que combinar os resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção de um resultado combinado de reconhecimento de gestos compreende: obter os coeficientes de peso predefinidos respectivamente que correspondem aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos; e efetuar uma média ponderada nos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos com base nos coeficientes de peso que correspondem respectivamente aos resultados de reconhecimento de gestos dos N segmentos de vídeo consecutivos, para a obtenção do resultado combinado de reconhecimento de gestos.
25. Método de acordo com a reivindicação 21, caracterizado pelo fato de que efetuar o reconhecimento de gestos nas M imagens usando-se um algoritmo de aprendizado profundo para a obtenção de um resultado de reconhecimento de gestos que corresponde ao primeiro segmento de vídeo compreende: efetuar um processamento nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo, no qual a imagem com informações de fluxo ópticas compreende as informações de fluxo ópticas entre uma primeira imagem nas M imagens e a imagem p ésima antes de a primeira imagem, a primeira imagem é qualquer uma das M imagens, e as informações de fluxo ópticas compreendem informações instantâneas de vetor de velocidade de um pixel na imagem, e efetuar o reconhecimento de gestos na imagem com informações de fluxo ópticas usando um primeiro algoritmo de aprendizado profundo, para obter um primeiro resultado de reconhecimento, no qual p é um número inteiro maior ou igual a 1; efetuar um processamento de imagem nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual a imagem com as informações de cor compreende as informações de cor das M imagens, e as informações de cor compreende um valor de cor de cada pixel na imagem, e efetuar o reconhecimento de gestos na imagem com as informações de cor usando um segundo algoritmo de aprendizado profundo, para obter um segundo resultado de reconhecimento; e combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
26. Método de acordo com a reivindicação 25, caracterizado pelo fato de que efetuar o processamento de imagem nas M imagens para obter uma imagem com informações de fluxo ópticas que corresponde ao primeiro segmento de vídeo compreende: para a primeira imagem, obter, com base em uma regra ésima predefinida, a imagem p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre a primeira imagem e a imagem p ésima, e gerar a imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas entre a primeira ésima imagem e a imagem p , no qual um intervalo de tempo entre a primeira imagem e a imagem p ésima não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas; ou para a primeira imagem, obter, com base em uma regra predefinida, todas as imagens p antes de a primeira imagem no fluxo de vídeo calcular as informações de fluxo ópticas entre cada duas imagens adjacentes na primeira imagem e nas M imagens, e depois que as informações de fluxo ópticas entre cada duas imagens adjacentes forem acumuladas, gerar uma imagem com informações de fluxo ópticas que compreende as informações de fluxo ópticas acumuladas, no qual um intervalo de tempo entre a primeira imagem e a imagem p ésima antes da primeira imagem não é inferior a um tempo de cálculo progressivo do primeiro algoritmo de aprendizado profundo ou um tempo necessário para calcular a imagem com informações de fluxo ópticas.
27. Método de acordo com a reivindicação 25, caracterizado pelo fato de que efetuar o processamento de imagem nas M imagens para obter uma imagem com as informações de cor que corresponde ao primeiro segmento de vídeo compreende: extrair as informações de cor das M imagens nas M imagens, gerar, com base nas informações de cor extraída, imagens com informações de cor que correspondem respectivamente à M imagens, e obter as imagens com informações de cor que correspondem respectivamente à M imagens como a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo, no qual as M imagens são M imagens aleatórias nas M imagens, ou as M imagens são M imagens que estão nas M imagens e que cada uma possui uma variação maior em relação a uma imagem anterior no fluxo de vídeo, e m é um número inteiro maior ou igual a 1; ou detectar uma localização de pixel nas M imagens em que o conteúdo da imagem muda com o tempo, calcular o valor médio das informações de cor nas M imagens que corresponde às localizações de pixel reconhecidas para obter novas informações de cor nas localizações de pixel reconhecidas, e gerar, com base nas novas informações de cor nas localizações de pixel reconhecidas, a imagem com as informações de cor que corresponde ao primeiro segmento de vídeo.
28. Método de acordo com qualquer uma das reivindicações 21 a 27, caracterizado pelo fato de que antes de obter as M imagens, o método compreende ainda : determinar uma janela de tempo com um período de tempo predefinido no fluxo de vídeo, no qual um momento final da janela de tempo está dentro de um período de tempo que corresponde ao primeiro segmento de vídeo; determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo, no qual pelo menos uma imagem de referência é qualquer imagem na janela de tempo que não seja a última imagem; e se o resultado de determinação indicar que uma ação está sendo executada no primeiro segmento de vídeo, efetuar a etapa para obter as M imagens.
29. Método de acordo com a reivindicação 28, caracterizado pelo fato de que determinar, com base em uma última imagem e pelo menos em uma imagem de referência na janela de tempo, se uma ação está sendo executada no primeiro segmento de vídeo compreende: para cada uma das pelo menos uma imagem de referência, calcular uma imagem de derivada parcial da última imagem, no qual um valor de cada pixel na imagem de derivada parcial é uma derivada parcial de um valor de um pixel correspondente na última imagem em relação a um valor de um pixel correspondente na imagem de referência; normalizar o valor de cada pixel na imagem de derivada parcial, para obter uma imagem de derivada parcial normalizada; binarizar a imagem de derivada parcial normalizada com base em um limite de binarização predefinido, para obter uma imagem binarizada da imagem de derivada parcial, no qual um valor de cada pixel na imagem binarizada é 0 ou 1; calcular uma soma de valores de escala de cinza dos pixels na imagem binarizada; e quando a soma dos valores de escala de cinza for maior que 0, determinar que uma ação está sendo executada no primeiro segmento de vídeo.
30. Método de acordo com qualquer uma das reivindicações 25 a 27, caracterizado pelo fato de que combinar o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo compreende: efetuar um cálculo de valor médio no primeiro resultado de reconhecimento e no segundo resultado de reconhecimento, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo com base em um resultado de cálculo do cálculo de valor médio; ou inserir o primeiro resultado de reconhecimento e o segundo resultado de reconhecimento dentro de um segundo modelo pré- treinado de aprendizado de máquina, para a obtenção do resultado de reconhecimento de gestos do primeiro segmento de vídeo.
BR112020001729A 2017-08-01 2017-08-01 Método, aparelho e dispositivo de reconhecimento de gestos BR112020001729A8 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/095388 WO2019023921A1 (zh) 2017-08-01 2017-08-01 一种手势识别方法、装置及设备

Publications (2)

Publication Number Publication Date
BR112020001729A2 true BR112020001729A2 (pt) 2020-07-21
BR112020001729A8 BR112020001729A8 (pt) 2023-04-11

Family

ID=65232224

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020001729A BR112020001729A8 (pt) 2017-08-01 2017-08-01 Método, aparelho e dispositivo de reconhecimento de gestos

Country Status (6)

Country Link
US (1) US11450146B2 (pt)
EP (1) EP3651055A4 (pt)
KR (1) KR102364993B1 (pt)
CN (1) CN110959160A (pt)
BR (1) BR112020001729A8 (pt)
WO (1) WO2019023921A1 (pt)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CA3115784A1 (en) 2018-10-11 2020-04-16 Matthew John COOPER Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
WO2020251385A1 (en) * 2019-06-14 2020-12-17 Ringcentral, Inc., (A Delaware Corporation) System and method for capturing presentation gestures
CN110728209B (zh) * 2019-09-24 2023-08-08 腾讯科技(深圳)有限公司 一种姿态识别方法、装置、电子设备及存储介质
CN111368770B (zh) * 2020-03-11 2022-06-07 桂林理工大学 基于骨骼点检测与跟踪的手势识别方法
CN114600072A (zh) * 2020-03-20 2022-06-07 华为技术有限公司 用于基于手势控制设备的方法和系统
CN112115801B (zh) * 2020-08-25 2023-11-24 深圳市优必选科技股份有限公司 动态手势识别方法、装置、存储介质及终端设备
US11481039B2 (en) * 2020-08-28 2022-10-25 Electronics And Telecommunications Research Institute System for recognizing user hand gesture and providing virtual reality content based on deep learning using transfer learning
US20220129667A1 (en) * 2020-10-26 2022-04-28 The Boeing Company Human Gesture Recognition for Autonomous Aircraft Operation
US20220292285A1 (en) * 2021-03-11 2022-09-15 International Business Machines Corporation Adaptive selection of data modalities for efficient video recognition
WO2022217290A1 (en) * 2021-04-09 2022-10-13 Google Llc Using a machine-learned module for radar-based gesture detection in an ambient computer environment
CN114564104A (zh) * 2022-02-17 2022-05-31 西安电子科技大学 一种基于视频中动态手势控制的会议演示系统
CN115809006B (zh) * 2022-12-05 2023-08-08 北京拙河科技有限公司 一种画面控制人工指令的方法及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5149033B2 (ja) * 2008-02-26 2013-02-20 岐阜車体工業株式会社 動作解析方法及び動作解析装置並びにその動作解析装置を利用した動作評価装置
WO2010119410A1 (en) * 2009-04-14 2010-10-21 Koninklijke Philips Electronics N.V. Key frames extraction for video content analysis
US20120056846A1 (en) * 2010-03-01 2012-03-08 Lester F. Ludwig Touch-based user interfaces employing artificial neural networks for hdtp parameter and symbol derivation
JP5604256B2 (ja) * 2010-10-19 2014-10-08 日本放送協会 人物動作検出装置およびそのプログラム
CN102155933B (zh) * 2011-03-08 2013-04-24 西安工程大学 一种基于视频差异分析的输电线路导线舞动测量方法
CN102854983B (zh) 2012-09-10 2015-12-02 中国电子科技集团公司第二十八研究所 一种基于手势识别的人机交互方法
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN103514608B (zh) * 2013-06-24 2016-12-28 西安理工大学 基于运动注意力融合模型的运动目标检测与提取方法
KR102214922B1 (ko) * 2014-01-23 2021-02-15 삼성전자주식회사 행동 인식을 위한 특징 벡터 생성 방법, 히스토그램 생성 방법, 및 분류기 학습 방법
CN103984937A (zh) * 2014-05-30 2014-08-13 无锡慧眼电子科技有限公司 基于光流法的行人计数方法
CN104182772B (zh) * 2014-08-19 2017-10-24 大连理工大学 一种基于深度学习的手势识别方法
US20160092726A1 (en) * 2014-09-30 2016-03-31 Xerox Corporation Using gestures to train hand detection in ego-centric video
CN105550699B (zh) * 2015-12-08 2019-02-12 北京工业大学 一种基于cnn融合时空显著信息的视频识别分类方法
US10157309B2 (en) * 2016-01-14 2018-12-18 Nvidia Corporation Online detection and classification of dynamic gestures with recurrent convolutional neural networks
CN105787458B (zh) * 2016-03-11 2019-01-04 重庆邮电大学 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN106295531A (zh) * 2016-08-01 2017-01-04 乐视控股(北京)有限公司 一种手势识别方法和装置以及虚拟现实终端
CN106991372B (zh) * 2017-03-02 2020-08-28 北京工业大学 一种基于混合深度学习模型的动态手势识别方法

Also Published As

Publication number Publication date
KR20200036002A (ko) 2020-04-06
WO2019023921A1 (zh) 2019-02-07
US11450146B2 (en) 2022-09-20
CN110959160A (zh) 2020-04-03
EP3651055A1 (en) 2020-05-13
US20200167554A1 (en) 2020-05-28
KR102364993B1 (ko) 2022-02-17
EP3651055A4 (en) 2020-10-21
BR112020001729A8 (pt) 2023-04-11

Similar Documents

Publication Publication Date Title
BR112020001729A2 (pt) método, aparelho e dispositivo de reconhecimento de gestos
CN109977262B (zh) 从视频中获取候选片段的方法、装置及处理设备
US10891473B2 (en) Method and device for use in hand gesture recognition
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
WO2020103647A1 (zh) 物体关键点的定位方法、图像处理方法、装置及存储介质
JP6458394B2 (ja) 対象追跡方法及び対象追跡装置
US20180211104A1 (en) Method and device for target tracking
WO2023082882A1 (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
CN114787865A (zh) 轻追踪:用于在线自顶向下人体姿态追踪的系统和方法
KR102349059B1 (ko) 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법
US11948340B2 (en) Detecting objects in video frames using similarity detectors
CN107851192B (zh) 用于检测人脸部分及人脸的设备和方法
US9082000B2 (en) Image processing device and image processing method
US11074713B2 (en) Recognition device, recognition system, recognition method, and non-transitory computer readable recording medium
US20150199592A1 (en) Contour-based classification of objects
WO2023109361A1 (zh) 用于视频处理的方法、系统、设备、介质和产品
CN111079507A (zh) 一种行为识别方法及装置、计算机装置及可读存储介质
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
Yang et al. Real-time facial pose estimation and tracking by coarse-to-fine iterative optimization
JP6713422B2 (ja) 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム
US20170147873A1 (en) Motion recognition method and motion recognition device
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
Xie et al. Dynamic Dual-Peak Network: A real-time human detection network in crowded scenes
JPWO2017170087A1 (ja) 画像検出装置、画像検出方法、及びプログラムを記憶する記憶媒体
JP2018005510A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: G06K 9/00

Ipc: G06F 18/25 (2023.01), G06V 10/80 (2022.01), G06V 4

B06A Patent application procedure suspended [chapter 6.1 patent gazette]