BRPI0922694A2 - método e aparelho para gerar animação de vídeo - Google Patents

método e aparelho para gerar animação de vídeo Download PDF

Info

Publication number
BRPI0922694A2
BRPI0922694A2 BRPI0922694-0A BRPI0922694A BRPI0922694A2 BR PI0922694 A2 BRPI0922694 A2 BR PI0922694A2 BR PI0922694 A BRPI0922694 A BR PI0922694A BR PI0922694 A2 BRPI0922694 A2 BR PI0922694A2
Authority
BR
Brazil
Prior art keywords
action
control point
head
frame
coordinate
Prior art date
Application number
BRPI0922694-0A
Other languages
English (en)
Inventor
Xiaxiang LIN
Yisha Lu
Jianyu Wang
Original Assignee
Tencent Technology (Shenzhen) Company Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology (Shenzhen) Company Limited filed Critical Tencent Technology (Shenzhen) Company Limited
Publication of BRPI0922694A2 publication Critical patent/BRPI0922694A2/pt
Publication of BRPI0922694B1 publication Critical patent/BRPI0922694B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

MÉTODO E APARELHO PARA GERAR ANIMAÇÃO DE VÍDEO. Trata-se de exemplos da presente invenção que fornecem um método e aparelho para gerar uma animação de vídeo, e o método e o aparelho referem-se ao campo de animação. O método inclui: receber um comando de acordo com o comando, e determinar o número total de quadros que corresponde à ação e a um coeficiente de movimento de cada quadro; calcular um deslocamento de cada ponto de controle em cada quadro de acordo com a coeficiente de movimento de cada quadro, e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros. Um aparelho para gerar uma animação de vídeo também é fornecido.

Description

Relatório Descritivo da Patente de Invenção para "MÉTODO E APARELHO PARA GERAR ANIMAÇÃO DE VÍDEO".
CAMPO DA INVENÇÃO - A presente invenção refere-se a tecnologias de animação, e mais particularmente, a um método e aparelho para gerar uma animação de vídeo.
ANTECEDENTE DA INVENÇÃO A maioria dos usuários de Internet aprecia a autoapresentação e a mostra da personalidade, de modo a receber atenção dos outros. E assim, as animações de vídeo são favorecidas por um ou mais usuários da Internet por causa das ricas formas de expressão. Com o desenvolvimento das tecnologias de animação de vídeo, as tecnologias de animação de vídeo são direcionadas para a combinação LEREM de tecnologias de áudio e tecnologias de vídeo, e tecnologias de movimento emecanismos faciais, especialmente, as tecnologias de movimento e meca- Im nismos faciais são tecnologias principais aplicadas às animações de vídeo. A fim de fornecer uma animação de vídeo, fornece-se um méto- do convencional para gerar a animação de vídeo. No método, um modelo em grade baseado na musculatura facial é estabelecido, e um sistema de í 20 símbolo é estabelecido para o modelo em grade. O sistema de símbolo im- plementa a codificação de expressão ao controlar o modelo em grade, de modo a gerar a animação de vídeo. Durante a implementação da solução técnica convencional aci- ma, o inventor encontra os seguintes problemas.
Na solução técnica convencional, a animação de vídeo é gerada ao estabelecer o modelo em grade e o sistema de símbolo, e a quantidade de cálculo de estabelecer o modelo em grade e o sistema de símbolo é mui- to grande, assim, o tempo de gerar a animação de vídeo é longo, e as cenas de aplicação são limitadas.
SUMÁRIO DA INVENÇÃO Os exemplos da presente invenção fornecem um método e apa- relho para gerar uma animação de vídeo, e no método e no aparelho, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e adicionalmente, o método e o aparelho podem ser aplicados em um escopo de ampla aplicação. - Os exemplos da presente invenção fornecem um método para geraruma animação de vídeo, que inclui: receber um comando enviado por um usuário, determinar uma ação que corresponde ao comando, e determinar o número total de quadros que corresponde à ação e um coeficiente de movimento de cada quadro; calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro, e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros.
Os exemplos da presente invenção também fornecem um apare- “mL lho para gerar uma animação de vídeo, que inclui: uma unidade de recebimento, configurada para receber um co- im mando enviado por um usuário; uma unidade de determinação, configurada para determinar uma ação que corresponde ao comando, de acordo com o comando, e determi- nar o número total de quadros que corresponde à ação e a um coeficiente de movimento de cada quadro; uma unidade de calcular, configurada para calcular um desloca- mento de cada ponto de controle em cada quadro, de acordo com o coefici- ente de movimento de cada quadro; e uma unidade de geração, configurada para gerar uma animação de vídeo, de acordo com o deslocamento de cada ponto de controle em ca- da quadro e o número total de quadros.
Pode-se ver, a partir das soluções técnicas acima fornecidas pe- los exemplos da presente invenção que, depois de a ação e o coeficiente de movimento que corresponde à ação serem determinados de acordo com o comando recebido do usuário, os deslocamentos são calculados de acordo com o coeficiente de movimento, e a animação de vídeo é gerada de acordo com os deslocamentos e o número total de quadros. No método, a animação de vídeo é gerada sem estabelecer um modelo em grade e um sistema de símbolo, a quantidade de cálculo de gerar a animação de vídeo, de acordo ' com os deslocamentos e o número total de quadros, é pequena, o tempo de e gerar a animação de vídeo é curto, e adicionalmente, o método pode ser aplicado em um escopo de ampla aplicação.
BREVE DESCRIÇÃO DOS DESENHOS A figura 1 é um fluxograma que ilustra um método para gerar uma animação de vídeo, de acordo com um exemplo da presente invenção. A figura 2 é um fluxograma que ilustra um método para gerar uma animação de vídeo, de acordo com um outro exemplo da presente in- venção. A figura 3 é um diagrama esquemático que ilustra a estrutura de um aparelho para gerar uma animação de vídeo, de acordo com um exem- “. plo da presente invenção.
DESCRIÇÃO DETALHADA DA INVENÇÃO E Um exemplo da presente invenção fornece um método para ge- rar uma animação de vídeo. O método é mostrado na figura 1, e inclui as seguintes etapas. Na etapa 11, um comando enviado por um usuário é recebido, e uma ação que corresponde ao comando é determinada.
À O comando nesta etapa pode ser um comando de áudio enviado pelo usuário, ou um comando enviado pelo usuário através de chaves, por exemplo, inserir o número "1" representa balançar a cabeça, e inserir o nú- mero "2" representa acenar. Os exemplos da presente invenção não limitam aimplementação do comando, contanto que o comando seja reconhecido. O comando enviado pelo usuário, nesta etapa, pode ser um comando de uma única ação, ou um comando de combinação de múltiplas ações. Quando o comando for o comando de combinação de múltiplas ações, as emoções de uma pessoa são apresentadas de acordo com a combinação das múltiplas ações, ,ea expressão facial mostrada na animação de vídeo é enriquecida.
Na etapa 12, determina-se o número total de quadros que cor- responde à ação e a um coeficiente de movimento de cada quadro.
Esta etapa pode ser implementada através de qualquer um dos seguintes métodos.
í Método A): o número total de quadros que corresponde a cada . ação e o coeficiente de movimento de cada quadro são predeterminados, por exemplo, o número total de quadros que corresponde a uma ação de balançar a cabeça é pré-determinado como 10, e o coeficiente de movimen- to de cada quadro é pré-determinado como 0,01xN. Nas aplicações reais, os coeficientes de movimento de diferentes quadros podem ser configurados como valores diferentes, por exemplo, os coeficientes de movimento dos primeiros 5 quadros são configurados como 0,01xN, e os coeficientes de movimento dos últimos 5 quadros são configurados como 0,05+0,008x ( N— 5), onde N é o número de série de quadro. Os parâmetros que incluem 0,01 e 0,008 nos coeficientes de movimento acima podem ser configurados ra pelo próprio usuário, e os exemplos da presente invenção não limitam os —valoresdos parâmetros. nm Método B): o usuário configura, diretamente, o número total de quadros que corresponde a cada ação e o coeficiente de movimento de cada quadro. Uma vez que o usuário configura o número total de quadros que corresponde a cada ação e o coeficiente de movimento de cada quadro ele mesmo, a animação de vídeo gerada pode apresentar melhor a personalida- de do usuário.
Na etapa 13, o deslocamento de cada ponto de controle em ca- da quadro é calculado de acordo com o coeficiente de movimento de cada quadro.
O deslocamento, nesta etapa, pode incluir um deslocamento em uma direção horizontal (eixo geométrico X) e um deslocamento em uma di- reção vertical (eixo geométrico Y).
Os pontos de controle no exemplo são usados para apresentar o contorno dos instrumentos faciais, tais como cabeça, olhos e sobrancelhas, etc, em outras palavras, os pontos de controle são vértices dos instrumen- tos. Os pontos de controle e as linhas entre os pontos de controle constituem um modelo em grade.
A fim de ser conveniente para a descrição, o método para im- plementar esta etapa pode incluir configurar o coeficiente de movimento de f cada instrumento em cada ação, por exemplo, o coeficiente de movimento E de olhos ou sobrancelhas é m eyeCoef, o coeficiente de movimento de in- clinara cabeça para a esquerda e para a direita é m angle (unidade: radia- no), o coeficiente de movimento de acenar com a cabeça ou balançar a ca- beça é v angle, e os coeficientes de movimento horizontal e vertical da boca são, respectivamente, horModelCoef e verModelCoef.
Um método de cálculo específico é conforme segue.
O deslocamento de olhos ou sobrancelhas no eixo geométrico X (a direção horizontal) é (A x —Src x) xm eyeCoef, e o deslocamento de olhos ou sobrancelhas no eixo geométrico Y (a direção vertical) é (A y — Src y ) xm eyeCoef. No presente, (A x, A y) é uma coordenada do ponto “.. de cruzamento entre um prumo e uma linha de referência quando o prumo é desenhado a partir de uma coordenada original do ponto de controle para a nm linha de referência. Quando a ação é uma ação dos olhos, a linha de refe- rência é uma ligação de ângulo palpebral, e quando a ação é uma ação de sobrancelhas, a linha de referência é uma linha de eixo geométrico da face.
(Src x, Src y) é a coordenada original do ponto de controle, e o ponto de controle pode ser o vértice dos. olhos ou sobrancelhas quando o modelo em grade é usado, a coordenada original é uma coordenada do ponto de contro- le em uma figura original, e a figura original pode ser uma figura inserida pe- lo usuário ou uma figura predefinida, isto é, uma figura antes de a animação de vídeo ser gerada.
O deslocamento de inclinar a cabeça para a esquerda e para a direita no eixo geométrico X (a direção horizontal) pode ser (Src x—Pivot x) x cos (m angle ) x(Src y—Pivot y) x sin(m angle), e o deslocamento de inclinar a cabeça para a esquerda e para a direita no eixo geométrico Y (a direção vertical) pode ser (Src x—Pivot x) x sin( m angle) + (Src y— Pivoty)x*x cos(m angle). No presente, (Src x, Src y) é a coordenada original do ponto de controle, e (Pivot x, Pivot y) é uma coordenada de um ponto fixo. O ponto fixo é um ponto de cruzamento entre uma linha do eixo geométrico da cabeça e do contorno inferior da cabeça. ' O deslocamento de acenar ou balançar a cabeça no eixo geo- NM métrico X pode ser Ste x+Kixv anglexV x, eo deslocamento de ace- ' nar ou balançar a cabeça no eixo geométrico Y pode ser Ste y + Kixv angex*xVWV /y No presente, (Src x, Src y) é a coordenada original do ponto de controle, onde K i é um coeficiente de rotação de acenar ou balançar a cabeça, e K i=Delta 1/ Dis 1. Para a ação de acenar com a cabeça, Del- ta 1 representa a quantidade de movimento no eixo geométrico Y (a direção vertical) quando a cabeça gira para um grau fixo (por exemplo, 1 grau), e Dis 1 representa o comprimento máximo da cabeça no eixo geométrico Y (a direção vertical). para a ação de balançar a cabeça, Delta 1 representa a quantidade de movimento no eixo geométrico X (a direção horizontal) quan- do a cabeça gira para um grau fixo (por exemplo, 1 grau), e Dis 1 represen- no ta o comprimento máximo da cabeça no eixo geométrico X (a direção hori- zontal). (V x, V y) é uma coordenada de um vetor padrão. Para a ação de EN acenar com a cabeça, o vetor padrão é um vetor a partir de um ponto mais superior da cabeça para um ponto mais inferior da cabeça; para a ação de balançar a cabeça, o vetor padrão é um vetor a Partir de um ponto mais a esquerda da cabeça para um ponto mais a direita da cabeça. Quando a ação for uma ação da boca, o deslocamento da boca no eixo geométrico X pode ser mouthWidthx cos(m horAngle) x horizonCoefx horModelCoef + mouthHeightx cos(m verAngle) x verticeCoefx verModelCoef, e o deslocamento da boca no eixo geométrico Y pode ser mouthWidthx sin(ím horAngle) x horizonCoefx horModelCoef + mouthHeightx sin(m verAngle) x verticeCoefx verModelCoef.
Onde, mouthWidth é uma distância entre o canto esquerdo da boca e o canto direito da boca, mouthHeight é a altura de um ápice de uma linha do eixo geométrico do lábio superior para o ponto do fundo de uma |i- —nhado eixo geométrico do lábio inferior, m verAngle é um ângulo entre a linha do eixo geométrico da cabeça e o eixo geométrico X, m horAngle é um ângulo entre uma linha de cantos da boca e o eixo geométrico X, horizonCo-
ef e verticeCoef são, respectivamente, coeficientes de extensão de movi- À mento na horizontal e na vertical da boca. Os coeficientes de extensão de movimento podem ser configurados pelo usuário ou configurados antecipa- - damente.
Na Etapa 14, uma animação de vídeo é gerada de acordo com o deslocamento de cada ponto de controle em cada quadro e de acordo com o número total de quadros.
Esta etapa pode ser implementada conforme segue. Uma coordenada-alvo de cada ponto de controle em cada qua- droé calculada de acordo com o deslocamento de cada ponto de controle em cada quadro.
O método de implementar esta etapa pode incluir que: a coorde- nada-alvo de cada ponto de controle pode ser a coordenada de um ponto de AN referência + o deslocamento. Para a ação dos olhos, sobrancelhas, boca, acenarcom a cabeça ou balançar a cabeça, a coordenada do ponto de refe- nm rência é a coordenada original do ponto de controle; para a ação de inclinar a cabeça para a esquerda e para a direita, a coordenada do ponto de refe- rência é a coordenada de um ponto de cruzamento entre a linha do eixo ge- ométrico da face e do contorno inferior da cabeça.
Então, gera-se uma imagem que corresponde a cada quadro de acordo com a coordenada-alvo de cada ponto de controle em cada quadro, e gera-se a animação de vídeo de acordo com a imagem que corresponde a cada quadro e ao número total de quadros.
Nesta etapa, a animação de vídeo pode ser gerada de acordo coma imagem que corresponde a cada quadro e ao número total de qua- dros ao usar um método de compressão de vídeo comum ou outros métodos convencionais. O método específico para gerar a animação de vídeo, de a- cordo com a imagem que corresponde a cada quadro e ao número total de quadros, não é limitado nos exemplos da presente invenção.
No método acima, se o comando recebido do usuário for um comando de múltiplas ações, o comando é decomposto em comandos de únicas ações, o deslocamento de cada ponto de controle em cada quadro
; que corresponde a cada única ação é gerada de acordo com os comandos de únicas ações, os deslocamentos de cada ponto de controle nos quadros " que correspondem, respectivamente, às únicas ações são sobrepostos no by deslocamento de cada ponto de controle em um quadro que corresponde às múltiplas ações, e gera-se a animação de vídeo de acordo com o desloca- mento de cada ponto de controle no quadro que corresponde às múltiplas ações. No método acima, a figura original da animação de vídeo pode ser uma figura que se autodefine inserida pelo usuário, ou uma figura recomen- dada ao usuário.
Nas aplicações reais, a expressão pode ser determinada de a- cordo com a animação de vídeo gerada que inclui a ação em combinação ou uma única ação, por exemplo, quando a animação de vídeo inclui as ações de acenar e piscar, a expressão pode ser satisfeita; quando a animação de rs vídeo incluir as ações de inclinar a cabeça para a esquerda e para a direita ou balançar a cabeça, a expressão pode ser insatisfeita. A expressão que me corresponde à animação de vídeo que inclui a ação em combinação ou a única ação pode ser autoconfigurada pelo usuário, a qual não se limita nos exemplos da presente invenção.
No método fornecido pelos exemplos da presente invenção, de- poisda ação eo coeficiente de movimento que corresponde à ação são de- terminados de acordo com o comando recebido pelo usuário, os desloca- mentos são calculados de acordo com o coeficiente de movimento, e gera- se a animação de vídeo de acordo com os deslocamentos e o número total de quadros. No método, uma vez que a animação de vídeo é gerada sem estabelecer um modelo em grade e um sistema de símbolo, e a quantidade de cálculo de gerar a animação de vídeo de acordo com os deslocamentos e o número total de quadros é pequena, o tempo de gerar a animação de ví- deo é curto, e, adicionalmente, o método pode ser aplicado em um escopo de ampla aplicação. Além do mais, no método, o comando de múltiplas a- ções pode ser recebido, e uma animação de vídeo em combinação de múlti- plas animações de vídeo é gerada de acordo com o comando, de modo que a animação de vídeo em combinação de múltiplas ações possa ser obtida ao
. combinar as animações de vídeo de únicas ações para expressar a emoção do usuário. - A fim de melhor descrever o método da presente invenção, um E exemplo é fornecido para ilustrar o método específico da presente invenção. Um exemplo fornece um método para gerar uma animação de vídeo. No exemplo, uma figura original da animação de vídeo é uma figura que se autodefine do usuário. Supõe-se que a figura original seja uma figura A e o comando do usuário inclua uma ação de acenar e piscar ao mesmo tempo, o método é mostrado na figura 2 e inclui as seguintes etapas especí- ficas. Etapa 21, o comando que inclui a ação de acenar e piscar é re- cebido a partir do usuário, e é decomposta em um comando que inclui a a- ção de acenar e um comando que inclui a ação de piscar. *.. Etapa 22, determina-se o número total de quadros que corres- ponde à ação de acenar, o número total de quadros que corresponde à ação Em de piscar, e um a coeficiente de movimento de cada quadro. Nesta etapa, o método para determinar o coeficiente de movi- mento pode se referir à descrição da etapa 12. Etapa 23, os deslocamentos de cada ponto de controle em cada quadro para as ações de acenar e piscar são calculados de acordo com os coeficientes de movimento de cada quadro para as ações de acenar e pis- car.
Nesta etapa, o método para calcular os deslocamentos pode se referir à descrição da etapa 13.
Etapa 24, uma animação de vídeo de acenar e uma animação de vídeo de piscar são geradas respectivamente de acordo com os deslo- camentos de cada ponto de controle em cada quadro para as ações de ace- nar e piscar.
Etapa 25, a animação de vídeo de acenar e a animação de ví- deo de piscarsão combinadas em uma animação de vídeo em combinação de acenar e piscar.
Preferivelmente, no exemplo, pode-se determinar, de acordo com a animação de vídeo em combinação de acenar e piscar, que a expres- Ô são fornecida pelo usuário é satisfeita. úá No exemplo, depois de o comando que inclui as ações de ace- nar e piscar ser recebido a partir do usuário, o comando de múltiplas ações é decompostoem únicos comandos, calcula-se o deslocamento de cada ponto de controle em cada quadro para cada ação, a animação de vídeo de única ação é gerada de acordo com o deslocamento e o número total de quadros, e as animações de vídeo de únicas ações são combinadas na animação de vídeo em combinação de múltiplas ações.
No método, uma vez que a ani- mação de vídeo é gerada ao calcular os deslocamentos, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e, adicio- nalmente, o método pode ser aplicada em um escopo de ampla aplicação.
Além do mais, ao usar o método, pode-se gerar a animação de vídeo em tm combinação de múltiplas ações, e a emoção do usuário pode ser expressa pela combinação de múltiplas ações, e a expressão facial mostrada na ani- EE mação de vídeo é enriquecida.
Os exemplos da presente invenção também fornecem um apare- lho para gerar uma animação de vídeo, conforme mostrado na figura 3. O aparelho inclui: uma unidade de recebimento 31 configurada para receber um comando enviado por um usuário; uma unidade de determinação 32 con- figurada para determinar uma ação que corresponde ao comando e determi- na o número total de quadros que corresponde à ação e um coeficiente de movimento de cada quadro; uma unidade de calcular 33 configurada para calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro; uma unidade de geração 34, configurada para gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle de cada quadro e o número total de quadros.
Preferivelmente, a unidade de determinação 32 inclui um módulo de configuração de usuário configurado para configurar o número total de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro pelo usuário; ou um módulo de configuração, configurado para configurar o nú- É mero total de quadros que corresponde à ação e ao coeficiente de movimen- a to de cada quadro antecipadamente. " Preferivelmente, se for determinado que a ação é uma ação de —olhosou sobrancelha, a unidade de calcular 33 inclui: um módulo de calcular a parte do olho configurado para calcular o deslocamento de cada ponto de controle para a ação de olhos ou sobran- celhas, o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
Preferivelmente, se for determinado que a ação é uma ação de inclinar a cabeça para a esquerda e para a direita, a unidade de calcular 33 inclui: um módulo de calcular a inclinação da cabeça configurado para “. calcular o deslocamento de cada ponto de controle para a ação de inclinar a Lp 15 cabeça para a esquerda e para a direita, e o módulo de calcular do deslo- ms camento pode se referir à descrição dos exemplos do método.
Preferivelmente, se for determinado que a ação é uma ação de acenar ou balançar a cabeça, a unidade de calcular 33 inclui: um módulo de calcular a parte da cabeça configurado para calcular o deslocamento de ca- da ponto de controle para a ação de acenar ou balançar a cabeça, e o mó- dulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
Preferivelmente, se for determinado que a ação é uma ação da boca, a unidade de calcular 33 inclui: um módulo de calcular a boca configu- rado para calcular o deslocamento de cada ponto de controle para a ação da boca, e o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
Preferivelmente, a unidade de geração 34 inclui: um módulo de calcular a coordenada e um módulo de geração de vídeo.
O módulo de calcular a coordenada é configurado para calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro. Especifi-
camente, a coordenada-alvo do ponto de controle é conforme segue: ô uma coordenada-alvo na direção horizontal = uma coordenada ” de um ponto de referência na direção horizontal + o deslocamento na dire- . ção horizontal; uma coordenada-alvo na direção vertical = uma coordenada do ponto de referência na direção vertical + o deslocamento na direção vertical; O ponto de referência pode ser um ponto de controle quando a ação for uma ação de olhos, sobrancelhas, acenar, balançar a cabeça ou boca; o ponto de referência pode ser um ponto de cruzamento da linha do eixo geométrico da face e do contorno inferior da cabeça quando a ação for uma ação de inclinar a cabeça para a esquerda ou para a direita; O módulo de geração de vídeo é configurado para gerar a ani- mação de vídeo de acordo com a coordenada-alvo de cada ponto de contro- e. le em cada quadro e de acordo com o número total de quadros.
No aparelho fornecido pelos exemplos da presente invenção, ee depois de a unidade de recebimento 31 receber o comando do usuário, a unidade de determinação 32 determina a ação e o coeficiente de movimento que corresponde à ação, a unidade de calcular 33 calcula os deslocamentos de acordo com o coeficiente de movimento, e a unidade de geração 34 gera a animação de vídeo de acordo com os deslocamentos e o número total de quadros.
No aparelho, uma vez que a animação de vídeo é gerada sem es- tabelecer um modelo em grade e um sistema de símbolo, e a quantidade de cálculo de gerar a animação de vídeo de acordo com os deslocamentos e o número total de quadros for pequena, o tempo de gerar a animação de vídeo écurtoeo aparelho pode ser aplicado em um escopo de ampla aplicação.
Aqueles versados na técnica podem compreender que todas ou parte das etapas do método para implementar os exemplos podem ser im- plementadas ao instruir o hardware relacionado através de um programa, e o programa pode ser armazenado em um meio de armazenamento legível de um computador.
Quando o programa for operado, as etapas do método aci- ma são incluídas, e o meio de armazenamento inclui uma ROM/RAM, um disco, um Disco Compacto (CD) e assim por diante.
O método e o aparelho fornecidos por meio de exemplos da pre- ] sente invenção podem ser aplicados nas animações de vídeo de telefones e. móveis ou nas animações de vídeo de página da web para entretenimento.
- Para resumir, ao usar as soluções técnicas fornecidas pelos e- xemplosda presente invenção, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e, adicionalmente, as soluções técni- cas podem ser aplicadas em um escopo de ampla aplicação. Os antecedentes são apenas modalidades preferidas da presen- te invenção e não são para o uso em limitar o escopo de proteção da pre- sente invenção. Qualquer modificação, substituição equivalente e aperfeiço- amento feito no escopo da presente invenção deve ser coberto no escopo de proteção da presente invenção. Portanto, o escopo de proteção da presente invenção deve ser definido de acordo com as reivindicações.

Claims (17)

REIVINDICAÇÕES
1. Método para gerar uma animação de vídeo, que compreende: - receber um comando enviado por um usuário, determinar uma . ação que corresponde ao comando, e determinar o número total de quadros que corresponde à ação e um coeficiente de movimento de cada quadro; calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro, e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros.
2. Método, de acordo com a reivindicação 1, em que a ação é uma ação facial, o ponto de controle é baseado no contorno dos instrumen- tos faciais, e o instrumento facial compreende pelo menos um dentre olhos, sobrancelhas, boca e cabeça.
e.
3. Método, de acordo com a reivindicação 2, em que gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de contro- f Ê le em cada quadro e o número total de quadros compreende: A) calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro, em que o deslocamento do ponto de controle compreende um deslocamento em uma direção horizontal e um deslocamento em uma dire- ção vertical, e a coordenada-alvo de cada ponto de controle compreende: uma coordenada-alvo em uma direção horizontal = uma coorde- nada de um ponto de referência na direção horizontal + o deslocamento na direção horizontal, uma coordenada-alvo em uma direção vertical = uma coordena- da do ponto de referência na direção vertical + o deslocamento na direção vertical.
onde a ação é uma ação dos olhos, sobrancelhas, acenar com a cabeça, balançar a cabeça ou da boca, o ponto de referência é um ponto de cruzamento entre uma linha do eixo geométrico da cabeça e um contorno inferior da cabeça; B) gerar a animação de vídeo de acordo com a coordenada-alvo de cada ponto de controle em cada quadro e o número total de quadros.
4. Método, de acordo com a reivindicação 1, em que determinar - o número total de quadros que compreende a ação e um coeficiente de mo- . vimento de cada quadro compreende: configurar o número total de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro pelo usuário, ou configurar o número total de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro antecipadamente.
5. Método, de acordo com a reivindicação 3, em que quando a açãoéa ação de olhos ou sobrancelhas, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimen- to de cada quadro compreende: o deslocamento na direção horizontal = (Ax — S&S Ep re x)xm eyeCoef, o deslocamento na direção vertical = (A y —Src y)xm eyeCoef; Ns em que (Src x, Src y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes de a animação de vídeo ser ge- rada(Ax A y)é uma coordenada de um ponto de cruzamento entre um prumo e uma linha de referência quando o prumo é desenhado a partir da coordenada original do ponto de controle para a linha de referência; quando a ação é a ação dos olhos, a linha de referência é uma ligação de ângulo palpebral, e quando a ação é a ação da sobrancelha, a linha de referência é umalinhado eixo geométrico do rosto; m eyeCoef é o coeficiente de movi- mento.
6. Método, de acordo com a reivindicação 3, em que quando a ação é a ação de inclinar a cabeça para esquerda e para a direita, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com ocoeficiente de movimento de cada quadro compreende: o deslocamento na direção horizontal = (Src x - Pivot x) x cos(m angle) - (Src y - Pivot y) x sin(m angle),
o deslocamento na direção vertical = (Src x - Pivot x) x i sin(m angle) + (Src y - Pivot y) x cos(m angle); em que - (Src x, Src y) é uma coordenada original do ponto de controle, b. a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes de a animação de vídeo ser ge- rada; (Pivot x, Pivot y) é uma coordenada do ponto de referência; m angle é o coeficiente de movimento.
7. Método, de acordo com a reivindicação 3, em que quando a ação é a ação de acenar ou balançar a cabeça, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro compreende: o deslocamento na direção horizontal = Src x + K ix v anglex Vx Pp o deslocamento na direção vertical = Srce y + Kix v anglex Vyemque ' (Src x, Src y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes de a animação de vídeo ser ge- rada; K j=Delta 1/ Dis 1, e (V x, V y) é uma coordenada de um vetor pa- drão, quando a ação é a ação de acenar com a cabeça, Delta 1 re- presenta a quantidade de movimento na direção vertical quando a cabeça gira para um grau fixo, Dis 1 representa o comprimento máximo da cabeça na direção vertical, e o vetor padrão é um vetor de um ponto mais acima da cabeça para um ponto mais abaixo da cabeça; quando a ação for a ação de balançar a cabeça, Delta 1 representa a quantidade de movimento na dire- ção horizontal quando a cabeça gira para um grau fixo, Dis 1 representa o comprimento máximo da cabeça na direção horizontal, e o vetor padrão é um vetor de um ponto mais à esquerda da cabeça para um ponto mais à direitadacabeça;v angle é o coeficiente de movimento.
8. Método, de acordo com a reivindicação 3, em que quando a ação é a ação de boca, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro compreende: - o deslocamento na direção horizontal = —mouthWid- - thxcos(m horAngle)xhorizonCoefx horModelCoef + mouthHei- ghtxcos(m verAngle)xverticeCoefx verModelCoef, o deslocamento na direção vertical = mouthWid- thxsin(m horAngle)xhorizonCoefx horModelCoef + mouthHei- ghtxsin(m verAngle)xverticeCoefx verModelCoef; em que mouthWidth é uma distância de um canto esquerdo da boca pa- raum canto direito da boca, mouthHeight é a altura de um ápice de uma |li- nha do eixo geométrico de um lábio superior para um ponto do fundo de uma linha do eixo geométrico de um lábio inferior, m verAngle é um ângulo entre uma linha do eixo geométrico da cabeça e a direção horizontal, m horAngle o é um ângulo entre uma linha de cantos da boca e a direção horizontal, hori- zonCoef e verticeCoef são, respectivamente, coeficientes de extensão de À | movimento horizontal e vertical da boca, e horModelCoef e verModelCoef são, respectivamente, coeficientes de movimento da boca nas direções hori- zontal e vertical.
9. Método, de acordo com a reivindicação 1, em que o comando enviado pelo usuário é um comando de uma única ação ou um comando de múltiplas ações.
10. Aparelho para gerar uma animação de vídeo, que compre- ende: uma unidade de recebimento, configurada para receber um co- — mando enviado por um usuário; uma unidade de determinação, configurada para determinar uma ação que corresponde ao comando de acordo com o comando, e determinar o número total de quadros que corresponde à ação e a um coeficiente de movimento de cada quadro; uma unidade de calcular, configurada para calcular um desloca- . mento de cada ponto de controle em cada quadro de acordo com o coefici- ente de movimento de cada quadro; e uma unidade de geração, configurada para gerar uma animação ' de vídeo de acordo com o deslocamento de cada ponto de controle em cada - quadro e o número total de quadros. ó
11. Aparelho, de acordo com a reivindicação 10, em que a ação é uma ação facial, o ponto de controle é baseado no contorno dos instru- mentos faciais, e o instrumento facial compreende pelo menos um dentre olhos, sobrancelhas, boca e cabeça.
12. Aparelho, de acordo com a reivindicação 11, em que a uni- dade de geração compreende: um módulo de calcular a coordenada, configurado para calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro, em que o deslocamento do ponto de controle compreende um deslocamento em uma Da direção horizontal e um deslocamento em uma direção vertical, e a coorde- nada-alvode cada ponto de controle é i uma coordenada-alvo em uma direção horizontal = uma coorde- nada de um ponto de referência na direção horizontal + o deslocamento na direção horizontal, uma coordenada-alvo em uma direção vertical = uma coordena- dado ponto de referência na direção vertical + o deslocamento na direção vertical; quando a ação for uma ação de olhos, sobrancelhas, acenar com a cabeça, balançar a cabeça ou da boca, o ponto de referência é o pon- to de controle; quando a ação for uma ação de inclinar a cabeça para a es- querda e para a direita, o ponto de referência é um ponto de cruzamento entre uma linha do eixo geométrico da cabeça e um contorno inferior da ca- beça; um módulo de geração de vídeo, configurado para gerar a ani- mação de vídeo de acordo com a coordenada-alvo de cada ponto de contro- leem cada quadro eo número total de quadros.
13. Aparelho, de acordo com a reivindicação 10, em que a uni- dade de determinação compreende:
um módulo de configuração de usuário, configurado para configu- Ã rar o número total de quadros que corresponde à ação e ao coeficiente de - movimento de cada quadro pelo usuário, ou - um módulo de configuração, configurado para configurar o núme- rototal de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro antecipadamente.
14. Aparelho, de acordo com a reivindicação 12, em que a ação é a ação de olhos ou sobrancelhas, a unidade de calcular compreende: um módulo de calcular a parte do olho, configurada para calcular um deslocamento de olhos ou sobrancelhas, em que o deslocamento na di- reção horizontal = (A x — Src x)xm eyeCoef, e o deslocamento na direção vertical = (A y —Src y)xm eyeCoef; em que (Src x, Src y) é uma coordenada original do ponto de controle, Nr a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes de a animação de vídeo ser ge- É rada; (A x, A y) é uma coordenada de um ponto de cruzamento entre um prumo e uma linha de referência quando o prumo é desenhado a partir da coordenada original do ponto de controle para a linha de referência; quando a ação é a ação de olhos, a linha de referência é uma ligação de ângulo pal- pebral, e quando a ação é a ação de sobrancelhas, a linha de referência é uma linha do eixo geométrico da cabeça; m eyeCoef é o coeficiente de mo- vimento.
15. Aparelho, de acordo com a reivindicação 12, em que quando a ação é a ação de inclinar a cabeça para a esquerda e para a direita, a uni- — dadede calcular compreende: um módulo de calcular a inclinação da cabeça, configurado para calcular o deslocamento de inclinar a cabeça para a esquerda e para a direi- ta, em que o deslocamento na direção horizontal = (Src x—Pivot x) x cos(m angle) - (Src y—Pivot y) x sin(ím angle), e o deslocamento na dire- ção vertical = (Src x—Pivot x) x siním angle) + (Src y—Pivot y) x cos (m angle); em que (Src x, Src y) é uma coordenada original do ponto de controle,
a coordenada original do ponto de controle é uma coordenada do ponto de ' controle em uma figura original obtida antes de a animação de vídeo ser ge- - rada; (Pivot x, Pivot y) é uma coordenada do ponto de referência; m angle " é o coeficiente de movimento.
16. Aparelho, de acordo com a reivindicação 12, em que, quan- do a ação é a ação de acenar ou balançar a cabeça, a unidade de calcular compreende: um módulo de calcular parte da cabeça, configurado para calcu- lar o deslocamento de acenar ou balançar a cabeça, em que o deslocamento na direção horizontal = Ste x+K ixv anglex vVvx o deslocamento na direção vertical = Ste y+Kixv angle x V y; em que a. (Src x, Srce y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de ' controle em uma figura original obtida antes de a animação de vídeo ser ge- rada; K i=Delta 1/ Dis 1, e (V x, V y) é uma coordenada de um vetor pa- drão; quando a ação é a ação de acenar com a cabeça, Delta 1 re- presenta a quantidade de movimento na direção vertical quando a cabeça gira para um grau fixo, Dis 1 representa o comprimento máximo da cabeça na direção vertical, e o vetor padrão é um vetor de um ponto mais acima da cabeça para um ponto mais abaixo da cabeça; quando a ação é a ação de balançar a cabeça, Delta 1 representa a quantidade de movimento na dire- ção horizontal quando a cabeça gira para um grau fixo, Dis 1 representa o comprimento máximo da cabeça na direção horizontal, e o vetor padrão é um vetor de um ponto mais à esquerda da cabeça para um ponto mais à direita da cabeça; v. angle é o coeficiente de movimento.
17. Aparelho, de acordo com a reivindicação 12, em que quando aaçãoéa ação de boca, a unidade de calcular compreende: um módulo de calcular a boca, configurado para calcular o des- locamento da boca, em que o deslocamento na direção horizontal = —mouthWid- ] thxcos(m horAngle)xhorizonCoefx horModelCoef + mouthHei- - ghtxcos(m verAngle)xverticeCoefx verModelCoef, - o deslocamento na direção — vertical! = —mouthWid- thxsiním horAngle)xhorizonCoefx horModelCoef + mouthHei- ghtxsin(m verAngle)xverticeCoefx verModelCoef; em que D mouthWidth é uma distância de um canto esquerdo da boca para um canto direito da boca, mouthHeight é a altura de um ápice de uma linha do eixo geométrico de um lábio superior para um ponto de fundo de uma linha doeixogeométrico de um lábio inferior, m verAngle é um ângulo entre uma linha do eixo geométrico da cabeça e a direção horizontal, m horAngle é um ângulo entre uma linha de ângulo palpebral e a direção horizontal, horizon- Coef e verticeCoef são, respectivamente, coeficientes de extensão de movi- E mento horizontal e vertical da boca, e horModelCoef e verModelCoef são, respectivamente, coeficientes de movimento da boca nas direções horizontal i e vertical.
Etapa 11, um comando enviado por um usuário é recebido, e uma ação que corresponde ao comando é determinada.
Etapa 12, o número total de quadro que corresponde à ação e um coeficiente de movimento de cada quadro são determinados. : Etapa 13, o deslocamento de cada ponto de controle em cada quadro é calculado de acordo com o coeficiente de movimento de cada quadro.
Etapa 14, uma animação de vídeo é gerada de acordo com o deslocamento de cada ponto de controle em cada quadro e com o número total de quadros.
Etapa 21, um comando que inclui a ação de acenar e piscar é recebido a partir do usuário, e é decomposto em um comando que inclui a ação de acenar e um comando que inclui a ação de piscar.
Etapa 22, o número total de quadros que corresponde à ação de acenar, o número total de quadros que corresponde à ação de piscar e o coeficiente de movimento de cada quadro são determinados.
Etapa 23, os deslocamentos de cada ponto de controle em cada quadro para as ações de acenar e piscar são calculados de acordo com os coeficientes de movimento de cada quadro para as ações de acenar e piscar.
Etapa 24, uma animação de vídeo de acenar e uma animação de vídeo de piscar são geradas respectivamente de acordo com os deslocamentos de cada ponto de controle em cada quadro para as ações de acenar e piscar.
Etapa 25, a animação de vídeo de acenar e a animação de vide de piscar são combinadas em uma animação de vídeo em combinação de acenar e piscar.
Unidade de Unidade de Unidade de Unidade de recebimento determinação calcular geração
BRPI0922694-0A 2008-12-03 2009-11-20 Método e aparelho para gerar animação de vídeo BRPI0922694B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2008101845175A CN101436312B (zh) 2008-12-03 2008-12-03 一种生成视频动画的方法及装置
CN200810184517.5 2008-12-03
PCT/CN2009/075062 WO2010063217A1 (zh) 2008-12-03 2009-11-20 一种生成视频动画的方法及装置

Publications (2)

Publication Number Publication Date
BRPI0922694A2 true BRPI0922694A2 (pt) 2021-06-15
BRPI0922694B1 BRPI0922694B1 (pt) 2021-11-09

Family

ID=40710742

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0922694-0A BRPI0922694B1 (pt) 2008-12-03 2009-11-20 Método e aparelho para gerar animação de vídeo

Country Status (6)

Country Link
US (1) US8441485B2 (pt)
CN (1) CN101436312B (pt)
BR (1) BRPI0922694B1 (pt)
RU (1) RU2487412C2 (pt)
SG (1) SG171453A1 (pt)
WO (1) WO2010063217A1 (pt)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101436312B (zh) * 2008-12-03 2011-04-06 腾讯科技(深圳)有限公司 一种生成视频动画的方法及装置
CN102054287B (zh) * 2009-11-09 2015-05-06 腾讯科技(深圳)有限公司 面部动画视频生成的方法及装置
CN103918010B (zh) * 2011-11-24 2017-06-30 诺基亚技术有限公司 用于生成与多媒体内容相关联的动画图像的方法、装置和计算机程序产品
KR101642947B1 (ko) * 2015-01-16 2016-08-10 네이버 주식회사 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치
CN107180446B (zh) * 2016-03-10 2020-06-16 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN106250815B (zh) * 2016-07-05 2019-09-20 上海引波信息技术有限公司 一种基于嘴部特征的快速表情识别方法
CN108900904B (zh) * 2018-07-27 2021-10-15 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
CN109949393B (zh) * 2019-01-09 2023-09-12 广州小鹏汽车科技有限公司 一种动画效果处理方法、系统及装置
CN113313790A (zh) * 2021-05-31 2021-08-27 北京字跳网络技术有限公司 视频生成方法、装置、设备及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4633673A (en) * 1984-09-14 1987-01-06 Morrison Daniel R Emergency shutoff for air conditioners
US4787212A (en) * 1987-10-19 1988-11-29 Hessey John C Air conditioner with automatic shutdown
US4937559A (en) * 1989-08-21 1990-06-26 Meacham Huey W Air conditioner drain blockage alarm
US5028910A (en) * 1989-12-08 1991-07-02 Meacham Huey W Drain overflow alarm
US4998412A (en) * 1990-01-22 1991-03-12 Joel Bell Blockage alert and purge system
US5522229A (en) * 1994-11-03 1996-06-04 Stuchlik, Iii; Charles F. Blockage detector
US6232965B1 (en) * 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
US6414685B1 (en) * 1997-01-29 2002-07-02 Sharp Kabushiki Kaisha Method of processing animation by interpolation between key frames with small data quantity
US6587884B1 (en) * 1997-09-10 2003-07-01 Schneider Automation, Inc. Dual ethernet protocol stack for maximum speed access to a programmable logic controller (PLC)
IT1314671B1 (it) * 1998-10-07 2002-12-31 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per l'animazione di un modellosintetizzato di volto umano pilotata da un segnale audio.
US6462742B1 (en) * 1999-08-05 2002-10-08 Microsoft Corporation System and method for multi-dimensional motion interpolation using verbs and adverbs
US6504546B1 (en) * 2000-02-08 2003-01-07 At&T Corp. Method of modeling objects to synthesize three-dimensional, photo-realistic animations
EP1249792A3 (en) * 2001-04-12 2006-01-18 Matsushita Electric Industrial Co., Ltd. Animation data generation apparatus, animation data generation method, animated video generation apparatus, and animated video generation method
US20030201898A1 (en) * 2002-04-25 2003-10-30 Stuchlik Charles F. Blockage detector with separate alarm and shut-off functions
US6763226B1 (en) * 2002-07-31 2004-07-13 Computer Science Central, Inc. Multifunctional world wide walkie talkie, a tri-frequency cellular-satellite wireless instant messenger computer and network for establishing global wireless volp quality of service (qos) communications, unified messaging, and video conferencing via the internet
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
CN1710613A (zh) * 2004-06-16 2005-12-21 甲尚股份有限公司 自动产生动画的系统与方法
CN101069214A (zh) 2004-10-01 2007-11-07 索尼电影娱乐公司 为计算机图形动画制作跟踪面部肌肉和眼睛运动的系统和方法
US7191606B1 (en) * 2005-04-29 2007-03-20 Dwyer Kenneth W Drain trap alarm
US7567251B2 (en) * 2006-01-10 2009-07-28 Sony Corporation Techniques for creating facial animation using a face mesh
EP2030171A1 (en) * 2006-04-10 2009-03-04 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
CN101473352A (zh) 2006-04-24 2009-07-01 索尼株式会社 表演驱动的脸部动画
CN101311966A (zh) * 2008-06-20 2008-11-26 浙江大学 一种基于运行传播和Isomap分析的三维人脸动画编辑与合成方法
CN101436312B (zh) * 2008-12-03 2011-04-06 腾讯科技(深圳)有限公司 一种生成视频动画的方法及装置
US8059004B2 (en) * 2009-01-07 2011-11-15 Eric James Drain blockage responsive alarm system

Also Published As

Publication number Publication date
RU2011126626A (ru) 2013-01-10
BRPI0922694B1 (pt) 2021-11-09
US20110227932A1 (en) 2011-09-22
WO2010063217A1 (zh) 2010-06-10
RU2487412C2 (ru) 2013-07-10
US8441485B2 (en) 2013-05-14
CN101436312A (zh) 2009-05-20
SG171453A1 (en) 2011-07-28
CN101436312B (zh) 2011-04-06

Similar Documents

Publication Publication Date Title
BRPI0922694A2 (pt) método e aparelho para gerar animação de vídeo
US20210201552A1 (en) Systems and methods for real-time complex character animations and interactivity
US11145100B2 (en) Method and system for implementing three-dimensional facial modeling and visual speech synthesis
KR102246355B1 (ko) 하이브리드 비쥬얼 커뮤니케이션
US8350859B2 (en) Method and apparatus for changing lip shape and obtaining lip animation in voice-driven animation
US9094576B1 (en) Rendered audiovisual communication
ES2230290T3 (es) Animacion de personajes.
US9998705B2 (en) Hybrid visual communication
US20140354515A1 (en) Perception based predictive tracking for head mounted displays
KR20210032564A (ko) 스트리밍 데이터의 인터렉티브 실시간 시각화
US20170323489A1 (en) Avatars in virtual environments
JP7090178B2 (ja) 顔面表情による遠隔アバターの操縦
US20170199386A1 (en) Head-mounted display
EP3008578A1 (en) Managing transitions of adaptive display rates for different video playback scenarios
US20230334744A1 (en) Method and apparatus for generating walk animation of virtual role, device and storage medium
WO2017181588A1 (zh) 一种显示页面定位的方法和电子设备
JP2018001403A (ja) 音声と仮想動作を同期させる方法、システムとロボット本体
KR20190112799A (ko) 가상 현실에서 확장 비디오의 렌더링
US20130069957A1 (en) Method and Device for Playing Animation and Method and System for Displaying Animation Background
Bremner et al. Conversational gestures in human-robot interaction
US10748328B2 (en) Recording medium, information processing apparatus, influence degree deriving method, and image generation method
US8531466B2 (en) Methods for providing realistic animation of autonomous objects through improved animation control signal processing
JP2009193574A (ja) 仮想環境内のオブジェクトの自然言語による記述を最適化するためのシステム及び方法
EP3526771B1 (en) Held object stabilization in virtual reality
JP2005071256A (ja) 画像表示装置及び画像表示方法

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/11/2009, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.