BRPI0922694B1 - Método e aparelho para gerar animação de vídeo - Google Patents

Método e aparelho para gerar animação de vídeo Download PDF

Info

Publication number
BRPI0922694B1
BRPI0922694B1 BRPI0922694-0A BRPI0922694A BRPI0922694B1 BR PI0922694 B1 BRPI0922694 B1 BR PI0922694B1 BR PI0922694 A BRPI0922694 A BR PI0922694A BR PI0922694 B1 BRPI0922694 B1 BR PI0922694B1
Authority
BR
Brazil
Prior art keywords
action
control point
head
coordinate
frame
Prior art date
Application number
BRPI0922694-0A
Other languages
English (en)
Inventor
Xiaxiang LIN
Yisha Lu
Jianyu Wang
Original Assignee
Tencent Technology (Shenzhen) Company Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology (Shenzhen) Company Limited filed Critical Tencent Technology (Shenzhen) Company Limited
Publication of BRPI0922694A2 publication Critical patent/BRPI0922694A2/pt
Publication of BRPI0922694B1 publication Critical patent/BRPI0922694B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

método e aparelho para gerar animação de vídeo. trata-se de exemplos da presente invenção que fornecem um método e aparelho para gerar uma animação de vídeo, e o método e o aparelho referem-se ao campo de animação. o método inclui: receber um comando de acordo com o comando, e determinar o número total de quadros que corresponde à ação e a um coeficiente de movimento de cada quadro; calcular um deslocamento de cada ponto de controle em cada quadro de acordo com a coeficiente de movimento de cada quadro, e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros. um aparelho para gerar uma animação de vídeo também é fornecido.

Description

CAMPO DA INVENÇÃO
[001] A presente invenção refere-se a tecnologias de animação, emais particularmente, a um método e aparelho para gerar uma animação de vídeo.
ANTECEDENTE DA INVENÇÃO
[002] A maioria dos usuários de Internet aprecia a autoapresen-tação e a mostra da personalidade, de modo a receber atenção dos outros. E assim, as animações de vídeo são favorecidas por um ou mais usuários da Internet por causa das ricas formas de expressão.
[003] Com o desenvolvimento das tecnologias de animação devídeo, as tecnologias de animação de vídeo são direcionadas para a combinação de tecnologias de áudio e tecnologias de vídeo, e tecnologias de movimento e mecanismos faciais, especialmente, as tecnologias de movimento e mecanismos faciais são tecnologias principais aplicadas às animações de vídeo.
[004] A fim de fornecer uma animação de vídeo, fornece-se ummétodo convencional para gerar a animação de vídeo. No método, um modelo em grade baseado na musculatura facial é estabelecido, e um sistema de símbolo é estabelecido para o modelo em grade. O sistema de símbolo implementa a codificação de expressão ao controlar o modelo em grade, de modo a gerar a animação de vídeo.
[005] Durante a implementação da solução técnica convencionalacima, o inventor encontra os seguintes problemas.
[006] Na solução técnica convencional, a animação de vídeo égerada ao estabelecer o modelo em grade e o sistema de símbolo, e a quantidade de cálculo de estabelecer o modelo em grade e o sistema de símbolo é muito grande, assim, o tempo de gerar a animação de vídeo é longo, e as cenas de aplicação são limitadas.
SUMÁRIO DA INVENÇÃO
[007] Os exemplos da presente invenção fornecem um método eaparelho para gerar uma animação de vídeo, e no método e no aparelho, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e adicionalmente, o método e o aparelho podem ser aplicados em um escopo de ampla aplicação.
[008] Os exemplos da presente invenção fornecem um métodopara gerar uma animação de vídeo, que inclui:
[009] receber um comando enviado por um usuário, determinaruma ação que corresponde ao comando, e determinar o número total de quadros que corresponde à ação e um coeficiente de movimento de cada quadro;
[0010] calcular um deslocamento de cada ponto de controle emcada quadro de acordo com o coeficiente de movimento de cada quadro, e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros.
[0011] Os exemplos da presente invenção também fornecem umaparelho para gerar uma animação de vídeo, que inclui:
[0012] uma unidade de recebimento, configurada para receber umcomando enviado por um usuário;
[0013] uma unidade de determinação, configurada para determinaruma ação que corresponde ao comando, de acordo com o comando, e determinar o número total de quadros que corresponde à ação e a um coeficiente de movimento de cada quadro;
[0014] uma unidade de calcular, configurada para calcular um deslocamento de cada ponto de controle em cada quadro, de acordo com o coeficiente de movimento de cada quadro; e
[0015] uma unidade de geração, configurada para gerar uma animação de vídeo, de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros.
[0016] Pode-se ver, a partir das soluções técnicas acima fornecidas pelos exemplos da presente invenção que, depois de a ação e o coeficiente de movimento que corresponde à ação serem determinados de acordo com o comando recebido do usuário, os deslocamentos são calculados de acordo com o coeficiente de movimento, e a animação de vídeo é gerada de acordo com os deslocamentos e o número total de quadros. No método, a animação de vídeo é gerada sem estabelecer um modelo em grade e um sistema de símbolo, a quantidade de cálculo de gerar a animação de vídeo, de acordo com os deslocamentos e o número total de quadros, é pequena, o tempo de gerar a animação de vídeo é curto, e adicionalmente, o método pode ser aplicado em um escopo de ampla aplicação.
BREVE DESCRIÇÃO DOS DESENHOS
[0017] A figura 1 é um fluxograma que ilustra um método para gerar uma animação de vídeo, de acordo com um exemplo da presente invenção.
[0018] A figura 2 é um fluxograma que ilustra um método para gerar uma animação de vídeo, de acordo com um outro exemplo da presente invenção.
[0019] A figura 3 é um diagrama esquemático que ilustra a estrutura de um aparelho para gerar uma animação de vídeo, de acordo com um exemplo da presente invenção.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[0020] Um exemplo da presente invenção fornece um método paragerar uma animação de vídeo. O método é mostrado na figura 1, e inclui as seguintes etapas.
[0021] Na etapa 11, um comando enviado por um usuário é recebido, e uma ação que corresponde ao comando é determinada.
[0022] O comando nesta etapa pode ser um comando de áudio enviado pelo usuário, ou um comando enviado pelo usuário através de chaves, por exemplo, inserir o número "1" representa balançar a cabeça, e inserir o número "2" representa acenar. Os exemplos da presente invenção não limitam a implementação do comando, contanto que o comando seja reconhecido. O comando enviado pelo usuário, nesta etapa, pode ser um comando de uma única ação, ou um comando de combinação de múltiplas ações. Quando o comando for o comando de combinação de múltiplas ações, as emoções de uma pessoa são apresentadas de acordo com a combinação das múltiplas ações, e a expressão facial mostrada na animação de vídeo é enriquecida.
[0023] Na etapa 12, determina-se o número total de quadros quecorresponde à ação e a um coeficiente de movimento de cada quadro.
[0024] Esta etapa pode ser implementada através de qualquer umdos seguintes métodos.
[0025] Método A): o número total de quadros que corresponde acada ação e o coeficiente de movimento de cada quadro são predeterminados, por exemplo, o número total de quadros que corresponde a uma ação de balançar a cabeça é pré-determinado como 10, e o coeficiente de movimento de cada quadro é pré-determinado como 0,01*N. Nas aplicações reais, os coeficientes de movimento de diferentes quadros podem ser configurados como valores diferentes, por exemplo, os coeficientes de movimento dos primeiros 5 quadros são configurados como 0,01*N, e os coeficientes de movimento dos últimos 5 quadros são configurados como 0,05+0,008* (N—5) , onde Né o número de série de quadro. Os parâmetros que incluem 0,01 e 0,008 nos coeficientes de movimento acima podem ser configurados pelo próprio usuário, e os exemplos da presente invenção não limitam os valores dos parâmetros.
[0026] Método B): o usuário configura, diretamente, o número totalde quadros que corresponde a cada ação e o coeficiente de movimen- to de cada quadro. Uma vez que o usuário configura o número total de quadros que corresponde a cada ação e o coeficiente de movimento de cada quadro ele mesmo, a animação de vídeo gerada pode apresentar melhor a personalidade do usuário.
[0027] Na etapa 13, o deslocamento de cada ponto de controle emcada quadro é calculado de acordo com o coeficiente de movimento de cada quadro.
[0028] O deslocamento, nesta etapa, pode incluir um deslocamento em uma direção horizontal (eixo geométrico X) e um deslocamento em uma direção vertical (eixo geométrico Y).
[0029] Os pontos de controle no exemplo são usados para apresentar o contorno dos instrumentos faciais, tais como cabeça, olhos e sobrancelhas, etc., em outras palavras, os pontos de controle são vértices dos instrumentos. Os pontos de controle e as linhas entre os pontos de controle constituem um modelo em grade.
[0030] A fim de ser conveniente para a descrição, o método paraimplementar esta etapa pode incluir configurar o coeficiente de movimento de cada instrumento em cada ação, por exemplo, o coeficiente de movimento de olhos ou sobrancelhas é m_eyeCoef, o coeficiente de movimento de inclinar a cabeça para a esquerda e para a direita é m_angle (unidade: radiano), o coeficiente de movimento de acenar com a cabeça ou balançar a cabeça é v_angle, e os coeficientes de movimento horizontal e vertical da boca são, respectivamente, horMo- delCoef e verModelCoef.
[0031] Um método de cálculo específico é conforme segue.
[0032] O deslocamento de olhos ou sobrancelhas no eixo geométrico X (a direção horizontal) é (A_x —Src_x) xm_eyeCoef, e o deslocamento de olhos ou sobrancelhas no eixo geométrico Y (a direção vertical) é (A_y —Src_y) xm_eyeCoef. No presente, (A_x, A_y) é uma coordenada do ponto de cruzamento entre uma linha de prumo e uma linha de referência quando a linha de prumo é desenhada a partir de uma coordenada original do ponto de controle para a linha de referência. Quando a ação é uma ação dos olhos, a linha de referência é uma ligação de canto palpebral, e quando a ação é uma ação de sobrancelhas, a linha de referência é uma linha de eixo geométrico da face. (Src_x, Src_y) é a coordenada original do ponto de controle, e o ponto de controle pode ser o vértice dos olhos ou sobrancelhas quando o modelo em grade é usado, a coordenada original é uma coordenada do ponto de controle em uma figura original, e a figura original pode ser uma figura inserida pelo usuário ou uma figura predefinida, isto é, uma figura antes da animação de vídeo ser gerada.
[0033] O deslocamento de inclinar a cabeça para a esquerda epara a direita no eixo geométrico X (a direção horizontal) pode ser (Src_x—Pivot_x) x cos (m_angie) —(Src_y—Pivot_y) xsin(m_angle), e o deslocamento de inclinar a cabeça para a esquerda e para a direita no eixo geométrico Y (a direção vertical) pode ser (Src_x—Pivot_x) x sin( m_angle) + (Src_y—Pivot_y) x cos(m_angle). No presente, (Src_x, Src_y) é a coordenada originaldo ponto de controle, e (Pivot_x, Pivot_y) é uma coordenada de um ponto fixo. O ponto fixo é um ponto de cruzamento entre uma linha do eixo geométrico da cabeça e do contorno inferior da cabeça.
[0034] O deslocamento de acenar ou balançar a cabeça no eixogeométrico X pode ser Src_x + K_i x v _angle x V_x, e o deslocamento de acenar ou balançar a cabeça no eixo geométrico Y pode ser Src_y + K_i x v _angle x V_y. No presente, (Src_x, Src_y) é a coordenada original do ponto de controle, onde K_i é um coeficiente de rotação de acenar ou balançar a cabeça, e K_i=Delta_1 / Dis_1. Para a ação de acenar com a cabeça, Delta_1 representa a quantidade de movimento no eixo geométrico Y (a direção vertical) quando a cabeça gira por um grau fixo (por exemplo, 1 grau), e Dis_1 representa o comprimento máximo da cabeça no eixo geométrico Y (a direção vertical). para a ação de balançar a cabeça, Delta_1 representa a quantidade de movimento no eixo geométrico X (a direção horizontal) quando a cabeça gira por um grau fixo (por exemplo, 1 grau), e Dis_1 representa o comprimento máximo da cabeça no eixo geométrico X (a direção horizontal). (V_x, V_y) é uma coordenada de um vetor padrão. Para a ação de acenar com a cabeça, o vetor padrão é um vetor a partir de um ponto mais superior da cabeça para um ponto mais inferior da ca-beça; para a ação de balançar a cabeça, o vetor padrão é um vetor a Partir de um ponto mais a esquerda da cabeça para um ponto mais a direita da cabeça.
[0035] Quando a ação for uma ação da boca, o deslocamento daboca no eixo geométrico X pode ser
[0036] mouthWidthx cos(m_horAngle) x horizonCoefx horModel-Coef + mouthHeightx cos(m_verAngle) x verticeCoefx verModelCoef,
[0037] e o deslocamento da boca no eixo geométrico Y pode ser
[0038] mouthWidthx sin(m_horAngle) x horizonCoefx hor-ModelCoef + mouthHeightx sin(m_verAngle) x verticeCoefx ver- ModelCoef.
[0039] Onde, mouthWidth é uma distância entre o canto esquerdoda boca e o canto direito da boca, mouthHeight é a altura de um ápice de uma linha do eixo geométrico do lábio superior para o ponto do fundo de uma linha do eixo geométrico do lábio inferior, m_verAngle é um ângulo entre a linha do eixo geométrico da cabeça e o eixo geométrico X, m_horAngle é um ângulo entre uma linha de cantos da boca e o eixo geométrico X, horizonCoef e verticeCoef são, respectivamente, coeficientes de extensão de movimento na horizontal e na vertical da boca. Os coeficientes de extensão de movimento podem ser configu- rados pelo usuário ou configurados antecipadamente.
[0040] Na Etapa 14, uma animação de vídeo é gerada de acordocom o deslocamento de cada ponto de controle em cada quadro e de acordo com o número total de quadros.
[0041] Esta etapa pode ser implementada conforme segue.
[0042] Uma coordenada-alvo de cada ponto de controle em cadaquadro é calculada de acordo com o deslocamento de cada ponto de controle em cada quadro.
[0043] O método de implementar esta etapa pode incluir que: acoordenada-alvo de cada ponto de controle pode ser a coordenada de um ponto de referência + o deslocamento. Para a ação dos olhos, sobrancelhas, boca, acenar com a cabeça ou balançar a cabeça, a coordenada do ponto de referência é a coordenada original do ponto de controle; para a ação de inclinar a cabeça para a esquerda e para a direita, a coordenada do ponto de referência é a coordenada de um ponto de cruzamento entre a linha do eixo geométrico da face e do contorno inferior da cabeça.
[0044] Então, gera-se uma imagem que corresponde a cada quadro de acordo com a coordenada-alvo de cada ponto de controle em cada quadro, e gera-se a animação de vídeo de acordo com a imagem que corresponde a cada quadro e ao número total de quadros.
[0045] Nesta etapa, a animação de vídeo pode ser gerada deacordo com a imagem que corresponde a cada quadro e ao número total de quadros ao usar um método de compressão de vídeo comum ou outros métodos convencionais. O método específico para gerar a animação de vídeo, de acordo com a imagem que corresponde a cada quadro e ao número total de quadros, não é limitado nos exemplos da presente invenção.
[0046] No método acima, se o comando recebido do usuário forum comando de múltiplas ações, o comando é decomposto em co- mandos de únicas ações, o deslocamento de cada ponto de controle em cada quadro que corresponde a cada única ação é gerada de acordo com os comandos de únicas ações, os deslocamentos de cada ponto de controle nos quadros que correspondem, respectivamente, às únicas ações são sobrepostos no deslocamento de cada ponto de controle em um quadro que corresponde às múltiplas ações, e gera-se a animação de vídeo de acordo com o deslocamento de cada ponto de controle no quadro que corresponde às múltiplas ações. No método acima, a figura original da animação de vídeo pode ser uma figura que se autodefine inserida pelo usuário, ou uma figura recomendada ao usuário.
[0047] Nas aplicações reais, a expressão pode ser determinada deacordo com a animação de vídeo gerada que inclui a ação em combinação ou uma única ação, por exemplo, quando a animação de vídeo inclui as ações de acenar e piscar, a expressão pode ser satisfeita; quando a animação de vídeo incluir as ações de inclinar a cabeça para a esquerda e para a direita ou balançar a cabeça, a expressão pode ser insatisfeita. A expressão que corresponde à animação de vídeo que inclui a ação em combinação ou a única ação pode ser autoconfi- gurada pelo usuário, a qual não se limita nos exemplos da presente invenção.
[0048] No método fornecido pelos exemplos da presente invenção,depois da ação e o coeficiente de movimento que corresponde à ação são determinados de acordo com o comando recebido pelo usuário, os deslocamentos são calculados de acordo com o coeficiente de movimento, e gera-se a animação de vídeo de acordo com os deslocamentos e o número total de quadros. No método, uma vez que a animação de vídeo é gerada sem estabelecer um modelo em grade e um sistema de símbolo, e a quantidade de cálculo de gerar a animação de vídeo de acordo com os deslocamentos e o número total de quadros é pequena, o tempo de gerar a animação de vídeo é curto, e, adicionalmente, o método pode ser aplicado em um escopo de ampla aplicação. Além do mais, no método, o comando de múltiplas ações pode ser recebido, e uma animação de vídeo em combinação de múltiplas animações de vídeo é gerada de acordo com o comando, de modo que a animação de vídeo em combinação de múltiplas ações possa ser obtida ao combinar as animações de vídeo de únicas ações para expressar a emoção do usuário.
[0049] A fim de melhor descrever o método da presente invenção,um exemplo é fornecido para ilustrar o método específico da presente invenção.
[0050] Um exemplo fornece um método para gerar uma animaçãode vídeo. No exemplo, uma figura original da animação de vídeo é uma figura que se autodefine do usuário. Supõe-se que a figura original seja uma figura A e o comando do usuário inclua uma ação de acenar e piscar ao mesmo tempo, o método é mostrado na figura 2 e inclui as seguintes etapas específicas.
[0051] Etapa 21, o comando que inclui a ação de acenar e piscar érecebido a partir do usuário, e é decomposta em um comando que inclui a ação de acenar e um comando que inclui a ação de piscar.
[0052] Etapa 22, determina-se o número total de quadros que corresponde à ação de acenar, o número total de quadros que corresponde à ação de piscar, e um a coeficiente de movimento de cada quadro.
[0053] Nesta etapa, o método para determinar o coeficiente demovimento pode se referir à descrição da etapa 12.
[0054] Etapa 23, os deslocamentos de cada ponto de controle emcada quadro para as ações de acenar e piscar são calculados de acordo com os coeficientes de movimento de cada quadro para as ações de acenar e piscar.
[0055] Nesta etapa, o método para calcular os deslocamentos pode se referir à descrição da etapa 13.
[0056] Etapa 24, uma animação de vídeo de acenar e uma animação de vídeo de piscar são geradas respectivamente de acordo com os deslocamentos de cada ponto de controle em cada quadro para as ações de acenar e piscar.
[0057] Etapa 25, a animação de vídeo de acenar e a animação devídeo de piscar são combinadas em uma animação de vídeo em combinação de acenar e piscar.
[0058] Preferivelmente, no exemplo, pode-se determinar, de acordo com a animação de vídeo em combinação de acenar e piscar, que a expressão fornecida pelo usuário é satisfeita.
[0059] No exemplo, depois de o comando que inclui as ações deacenar e piscar ser recebido a partir do usuário, o comando de múltiplas ações é decomposto em únicos comandos, calcula-se o deslocamento de cada ponto de controle em cada quadro para cada ação, a animação de vídeo de única ação é gerada de acordo com o deslocamento e o número total de quadros, e as animações de vídeo de únicas ações são combinadas na animação de vídeo em combinação de múltiplas ações. No método, uma vez que a animação de vídeo é gerada ao calcular os deslocamentos, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e, adicionalmente, o método pode ser aplicada em um escopo de ampla aplicação. Além do mais, ao usar o método, pode-se gerar a animação de vídeo em combinação de múltiplas ações, e a emoção do usuário pode ser ex-pressa pela combinação de múltiplas ações, e a expressão facial mostrada na animação de vídeo é enriquecida.
[0060] Os exemplos da presente invenção também fornecem umaparelho para gerar uma animação de vídeo, conforme mostrado na figura 3. O aparelho inclui: uma unidade de recebimento 31 configura- da para receber um comando enviado por um usuário; uma unidade de determinação 32 configurada para determinar uma ação que corresponde ao comando e determina o número total de quadros que corresponde à ação e um coeficiente de movimento de cada quadro; uma unidade de calcular 33 configurada para calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro; uma unidade de geração 34, configurada para gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle de cada quadro e o número total de quadros.
[0061] Preferivelmente, a unidade de determinação 32 inclui ummódulo de configuração de usuário configurado para configurar o número total de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro pelo usuário; ou
[0062] um módulo de configuração, configurado para configurar onúmero total de quadros que corresponde à ação e ao coeficiente de movimento de cada quadro antecipadamente.
[0063] Preferivelmente, se for determinado que a ação é uma açãode olhos ou sobrancelha, a unidade de calcular 33 inclui:
[0064] um módulo de calcular de parte de olho configurado paracalcular o deslocamento de cada ponto de controle para a ação de olhos ou sobrancelhas, o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
[0065] Preferivelmente, se for determinado que a ação é uma açãode inclinar a cabeça para a esquerda e para a direita, a unidade de calcular 33 inclui:
[0066] um módulo de calcular a inclinação da cabeça configuradopara calcular o deslocamento de cada ponto de controle para a ação de inclinar a cabeça para a esquerda e para a direita, e o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
[0067] Preferivelmente, se for determinado que a ação é uma açãode acenar ou balançar a cabeça, a unidade de calcular 33 inclui: um módulo de calcular de parte de cabeça configurado para calcular o deslocamento de cada ponto de controle para a ação de acenar ou balançar a cabeça, e o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
[0068] Preferivelmente, se for determinado que a ação é uma açãoda boca, a unidade de calcular 33 inclui: um módulo de calcular a boca configurado para calcular o deslocamento de cada ponto de controle para a ação da boca, e o módulo de calcular do deslocamento pode se referir à descrição dos exemplos do método.
[0069] Preferivelmente, a unidade de geração 34 inclui: um módulode calcular a coordenada e um módulo de geração de vídeo.
[0070] O módulo de calcular a coordenada é configurado para calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro. Especificamente, a coordenada-alvo do ponto de controle é conforme segue:
[0071] uma coordenada-alvo na direção horizontal = uma coordenada de um ponto de referência na direção horizontal + o deslocamento na direção horizontal;
[0072] uma coordenada-alvo na direção vertical = uma coordenadado ponto de referência na direção vertical + o deslocamento na direção vertical;
[0073] O ponto de referência pode ser um ponto de controle quando a ação for uma ação de olhos, sobrancelhas, acenar, balançar a cabeça ou boca; o ponto de referência pode ser um ponto de cruzamento da linha do eixo geométrico da face e do contorno inferior da cabeça quando a ação for uma ação de inclinar a cabeça para a es- querda ou para a direita;
[0074] O módulo de geração de vídeo é configurado para gerar aanimação de vídeo de acordo com a coordenada-alvo de cada ponto de controle em cada quadro e de acordo com o número total de quadros.
[0075] No aparelho fornecido pelos exemplos da presente invenção, depois de a unidade de recebimento 31 receber o comando do usuário, a unidade de determinação 32 determina a ação e o coeficiente de movimento que corresponde à ação, a unidade de calcular 33 calcula os deslocamentos de acordo com o coeficiente de movimento, e a unidade de geração 34 gera a animação de vídeo de acordo com os deslocamentos e o número total de quadros. No aparelho, uma vez que a animação de vídeo é gerada sem estabelecer um modelo em grade e um sistema de símbolo, e a quantidade de cálculo de gerar a animação de vídeo de acordo com os deslocamentos e o número total de quadros for pequena, o tempo de gerar a animação de vídeo é curto e o aparelho pode ser aplicado em um escopo de ampla aplicação.
[0076] Aqueles versados na técnica podem compreender que todas ou parte das etapas do método para implementar os exemplos podem ser implementadas ao instruir o hardware relacionado através de um programa, e o programa pode ser armazenado em um meio de armazenamento legível de um computador. Quando o programa for operado, as etapas do método acima são incluídas, e o meio de armazenamento inclui uma ROM/RAM, um disco, um Disco Compacto (CD) e assim por diante.
[0077] O método e o aparelho fornecidos por meio de exemplos dapresente invenção podem ser aplicados nas animações de vídeo de telefones móveis ou nas animações de vídeo de página da web para entretenimento.
[0078] Para resumir, ao usar as soluções técnicas fornecidas pelos exemplos da presente invenção, a quantidade de cálculo é pequena, o tempo de gerar a animação de vídeo é curto, e, adicionalmente, as soluções técnicas podem ser aplicadas em um escopo de ampla aplicação.
[0079] Os antecedentes são apenas modalidades preferidas dapresente invenção e não são para o uso em limitar o escopo de proteção da presente invenção. Qualquer modificação, substituição equivalente e aperfeiçoamento feito no escopo da presente invenção deve ser coberto no escopo de proteção da presente invenção. Portanto, o escopo de proteção da presente invenção deve ser definido de acordo com as reivindicações.

Claims (13)

1. Método para gerar uma animação de vídeo, caracterizado pelo fato de que compreende:receber um comando enviado por um usuário, determinar uma ação correspondendo ao comando (11, 21), e determinar o número total de quadros correspondendo à ação e um coeficiente de movimento de cada quadro (12, 22);calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro (13, 23), e gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros (14, 24);em que a ação é uma ação facial, o ponto de controle é baseado no contorno de instrumentos faciais, e o instrumento facial compreende pelo menos um dentre olhos, sobrancelhas, boca, e cabeça;em que gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros (14, 24) compreende:A) calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro, em que o deslocamento do ponto de controle compreende um deslocamento em uma direção horizontal e um deslocamento em uma direção vertical, e a coordenada-alvo de cada ponto de controle compreende:uma coordenada-alvo em uma direção horizontal = uma coordenada de um ponto de referência na direção horizontal + o deslocamento na direção horizontal,uma coordenada-alvo em uma direção vertical = uma coordenada do ponto de referência na direção vertical + o deslocamento na direção vertical; quando a ação é uma ação de olhos, sobrancelhas, acenar cabeça, balançar cabeça ou boca, o ponto de referência é o ponto de controle; quando a ação é uma ação de inclinar cabeça para esquerda e direita, o ponto de referência é um ponto de cruzamento entre uma linha de eixo geométrico da cabeça e um contorno inferior da cabeça;B) gerar a animação de vídeo de acordo com a coordena- da-alvo de cada ponto de controle em cada quadro e o número total de quadros.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que determinar o número total de quadros correspondendo à ação e um coeficiente de movimento de cada quadro (12, 22) compreende:configurar o número total de quadros correspondendo àação e ao coeficiente de movimento de cada quadro pelo usuário, ouconfigurar o número total de quadros correspondendo àação e ao coeficiente de movimento de cada quadro antecipadamente.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que quando a ação é a ação de olhos ou sobrancelhas, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro (13, 23) compreende:o deslocamento na direção horizontal = (A_x - Src_x) x m_eyeCoef,o deslocamento na direção vertical = (A_y - Src_y) x m_eyeCoef; em que(Src_x, Src_y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; (A_x, A_y) é uma coordenada de um ponto de cruzamento entre uma linha de prumo e uma linha de referência quando a linha de prumo é desenhada a partir da coordenada original do ponto de controle para a linha de referência; quando a ação é a ação de olhos, a linha de referência é uma ligação de cantos palpebrais, e quando a ação é a ação de sobrancelha, a linha de referência é uma linha de eixo geométrico da face; m_eyeCoef é o coeficiente de movimento.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que quando a ação é a ação de inclinar cabeça para esquerda e direita, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro (13, 23) compreende:o deslocamento na direção horizontal = (Src_x - Pivot_x) x cos(m_angle) - (Src_y - Pivot_y) x sin(m_angle),o deslocamento na direção vertical = (Src_x - Pivot_x) x sin(m_angle) + (Src_y - Pivot_y) x cos(m_angle); em que(Src_x, Src_y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; (Pivot_x, Pivot_y) é uma coordenada do ponto de referência; m_angle é o coeficiente de movimento.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que quando a ação é a ação de acenar ou balançar cabeça, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro (13, 23) compreende:o deslocamento na direção horizontal = Src_x + K_i x v _angle x V_x,o deslocamento na direção vertical = Src_y + K_i x v _angle x V_y; em que(Src_x, Src_y) é uma coordenada original do ponto de con- trole, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; K_i = Delta_1 / Dis_1, e (V_x, V_y) é uma coordenada de um vetor padrão;quando a ação é a ação de acenar cabeça, Delta_1 representa quantidade de movimento na direção vertical quando a cabeça gira por um grau fixo, Dis_1 representa comprimento máximo da cabeça na direção vertical, e o vetor padrão é um vetor de um ponto mais acima da cabeça para um ponto mais abaixo da cabeça; quando a ação é a ação de balançar cabeça, Delta_1 representa quantidade de movimento na direção horizontal quando a cabeça gira por um grau fixo, Dis_1 representa comprimento máximo da cabeça na direção horizontal, e o vetor padrão é um vetor de um ponto mais à esquerda da cabeça para um ponto mais à direita da cabeça; v_angle é o coeficiente de movimento.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que quando a ação é a ação de boca, calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro (13, 23) compreende:o deslocamento na direção horizontal = mouthWidth xcos(m_horAngle) x horizonCoef x horModelCoef + mouthHeight xcos(m_verAngle) x verticeCoef x verModelCoef,o deslocamento na direção vertical = mouthWidth xsin(m_horAngle) x horizonCoef x horModelCoef + mouthHeight xsin(m_verAngle) x verticeCoef x verModelCoef; em quemouthWidth é uma distância de um canto esquerdo da boca para um canto direito da boca, mouthHeight é a altura de um ápice de uma linha de eixo geométrico de um lábio superior para um ponto do fundo de uma linha de eixo geométrico de um lábio inferior, m_verAngle é um ângulo entre uma linha de eixo geométrico da cabe ça e a direção horizontal, m_horAngle é um ângulo entre uma linha de cantos da boca e a direção horizontal, horizonCoef e verticeCoef são, respectivamente, coeficientes de extensão de movimento horizontal e vertical da boca, e horModelCoef e verModelCoef são, respectivamente, coeficientes de movimento da boca nas direções horizontal e vertical.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o comando enviado pelo usuário é um comando de uma única ação ou um comando de múltiplas ações.
8. Aparelho para gerar uma animação de vídeo, caracterizado pelo fato de que compreende:uma unidade de recebimento (31), configurada para receber um comando enviado por um usuário;uma unidade de determinação (32), configurada para determinar uma ação correspondendo ao comando de acordo com o comando, e determinar o número total de quadros correspondendo à ação e a um coeficiente de movimento de cada quadro;uma unidade de calcular (33), configurada para calcular um deslocamento de cada ponto de controle em cada quadro de acordo com o coeficiente de movimento de cada quadro; euma unidade de geração (34), configurada para gerar uma animação de vídeo de acordo com o deslocamento de cada ponto de controle em cada quadro e o número total de quadros;em que a ação é uma ação facial, o ponto de controle é baseado no contorno de instrumentos faciais, e o instrumento facial compreende pelo menos um dentre olhos, sobrancelhas, boca, e cabeça;em que a unidade de geração (34) compreende:um módulo de calcular coordenada, configurado para calcular uma coordenada-alvo de cada ponto de controle em cada quadro de acordo com o deslocamento de cada ponto de controle em cada quadro, em que o deslocamento do ponto de controle compreende um deslocamento em uma direção horizontal e um deslocamento em uma direção vertical, e a coordenada-alvo de cada ponto de controle éuma coordenada-alvo em uma direção horizontal = uma coordenada de um ponto de referência na direção horizontal + o deslocamento na direção horizontal,uma coordenada-alvo em uma direção vertical = uma coordenada do ponto de referência na direção vertical + o deslocamento na direção vertical;quando a ação é uma ação de olhos, sobrancelhas, acenar cabeça, balançar cabeça ou boca, o ponto de referência é o ponto de controle; quando a ação é uma ação de inclinar cabeça para esquerda e direita, o ponto de referência é um ponto de cruzamento entre uma linha de eixo geométrico da cabeça e um contorno inferior da cabeça;um módulo de geração de vídeo, configurado para gerar a animação de vídeo de acordo com a coordenada-alvo de cada ponto de controle em cada quadro e o número total de quadros.
9. Aparelho, de acordo com a reivindicação 8, caracterizado pelo fato de que a unidade de determinação (32) compreende:um módulo de configuração de usuário, configurado para configurar o número total de quadros correspondendo à ação e ao coeficiente de movimento de cada quadro pelo usuário, ouum módulo de configuração, configurado para configurar o número total de quadros correspondendo à ação e ao coeficiente de movimento de cada quadro antecipadamente.
10. Aparelho, de acordo com a reivindicação 8, caracterizado pelo fato de que a ação é a ação de olhos ou sobrancelhas, a unidade de calcular (33) compreende:um módulo de calcular de parte de olho, configurada para calcular um deslocamento de olhos ou sobrancelhas, em que o deslo- camento na direção horizontal = (A_x - Src_x) x m_eyeCoef, e o deslocamento na direção vertical = (A_y - Src_y) x m_eyeCoef; em que(Src_x, Src_y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; (A_x, A_y) é uma coordenada de um ponto de cruzamento entre uma linha de prumo e uma linha de referência quando a linha de prumo é desenhada a partir da coordenada original do ponto de controle para a linha de referência; quando a ação é a ação de olhos, a linha de referência é uma ligação de cantos palpebrais, e quando a ação é a ação de sobrancelhas, a linha de referência é uma linha de eixo geométrico da cabeça; m_eyeCoef é o coeficiente de movimento.
11. Aparelho, de acordo com a reivindicação 8, caracterizado pelo fato de que quando a ação é a ação de inclinar cabeça para esquerda e direita, a unidade de calcular (33) compreende:um módulo de calcular inclinação de cabeça, configurado para calcular o deslocamento de inclinar cabeça para esquerda e direita, em que o deslocamento na direção horizontal = (Src_x - Pivot_x) x cos(m_angle) - (Src_y - Pivot_y) x sin(m_angle), e o deslocamento na direção vertical = (Src_x - Pivot_x) x sin(m_angle) + (Src_y - Pivot_y) x cos (m_angle); em que(Src_x, Src_y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; (Pivot_x, Pivot_y) é uma coordenada do ponto de referência; m_angle é o coeficiente de movimento.
12. Aparelho, de acordo com a reivindicação 8, caracterizado pelo fato de que, quando a ação é a ação de acenar ou balançar cabeça, a unidade de calcular (33) compreende: um módulo de calcular de parte de cabeça, configurado para calcular o deslocamento de acenar ou balançar cabeça, em queo deslocamento na direção horizontal = Src_x + K_i x v _angle x V_x,o deslocamento na direção vertical = Src_y + K_i x v _angle x V_y; em que(Src_x, Src_y) é uma coordenada original do ponto de controle, a coordenada original do ponto de controle é uma coordenada do ponto de controle em uma figura original obtida antes da animação de vídeo ser gerada; K_i = Delta_1 / Dis_1, e (V_x, V_y) é uma coordenada de um vetor padrão;quando a ação é a ação de acenar cabeça, Delta_1 representa quantidade de movimento na direção vertical quando a cabeça gira por um grau fixo, Dis_1 representa comprimento máximo da cabeça na direção vertical, e o vetor padrão é um vetor de um ponto mais acima da cabeça para um ponto mais abaixo da cabeça; quando a ação é a ação de balançar cabeça, Delta_1 representa quantidade de movimento na direção horizontal quando a cabeça gira por um grau fixo, Dis_1 representa comprimento máximo da cabeça na direção horizontal, e o vetor padrão é um vetor de um ponto mais à esquerda da cabeça para um ponto mais à direita da cabeça; v_angle é o coeficiente de movimento.
13. Aparelho, de acordo com a reivindicação 8, caracterizado pelo fato de que quando a ação é a ação de boca, a unidade de calcular (33) compreende:um módulo de calcular de boca, configurado para calcular o deslocamento da boca, em queo deslocamento na direção horizontal = mouthWidth x cos(m_horAngle) x horizonCoef x horModelCoef + mouthHeight x cos(m_verAngle) x verticeCoef x verModelCoef, o deslocamento na direção vertical = mouthWidth x sin(m_horAngle) x horizonCoef x horModelCoef + mouthHeight x sin(m_verAngle) x verticeCoef x verModelCoef; em quemouthWidth é uma distância de um canto esquerdo da boca para um canto direito da boca, mouthHeight é a altura de um ápice de uma linha de eixo geométrico de um lábio superior para um ponto de fundo de uma linha de eixo geométrico de um lábio inferior, m_verAngle é um ângulo entre uma linha de eixo geométrico da cabeça e a direção horizontal, m_horAngle é um ângulo entre uma linha de cantos da boca e a direção horizontal, horizonCoef e verticeCoef são, respectivamente, coeficientes de extensão de movimento horizontal e vertical da boca, e horModelCoef e verModelCoef são, respectivamente, coeficientes de movimento da boca nas direções horizontal e vertical.
BRPI0922694-0A 2008-12-03 2009-11-20 Método e aparelho para gerar animação de vídeo BRPI0922694B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2008101845175A CN101436312B (zh) 2008-12-03 2008-12-03 一种生成视频动画的方法及装置
CN200810184517.5 2008-12-03
PCT/CN2009/075062 WO2010063217A1 (zh) 2008-12-03 2009-11-20 一种生成视频动画的方法及装置

Publications (2)

Publication Number Publication Date
BRPI0922694A2 BRPI0922694A2 (pt) 2021-06-15
BRPI0922694B1 true BRPI0922694B1 (pt) 2021-11-09

Family

ID=40710742

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0922694-0A BRPI0922694B1 (pt) 2008-12-03 2009-11-20 Método e aparelho para gerar animação de vídeo

Country Status (6)

Country Link
US (1) US8441485B2 (pt)
CN (1) CN101436312B (pt)
BR (1) BRPI0922694B1 (pt)
RU (1) RU2487412C2 (pt)
SG (1) SG171453A1 (pt)
WO (1) WO2010063217A1 (pt)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101436312B (zh) * 2008-12-03 2011-04-06 腾讯科技(深圳)有限公司 一种生成视频动画的方法及装置
CN102054287B (zh) * 2009-11-09 2015-05-06 腾讯科技(深圳)有限公司 面部动画视频生成的方法及装置
CN103918010B (zh) * 2011-11-24 2017-06-30 诺基亚技术有限公司 用于生成与多媒体内容相关联的动画图像的方法、装置和计算机程序产品
KR101642947B1 (ko) * 2015-01-16 2016-08-10 네이버 주식회사 만화 데이터 생성 장치, 방법, 컴퓨터 프로그램 및 만화 데이터 표시 장치
CN107180446B (zh) * 2016-03-10 2020-06-16 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN106250815B (zh) * 2016-07-05 2019-09-20 上海引波信息技术有限公司 一种基于嘴部特征的快速表情识别方法
CN108900904B (zh) * 2018-07-27 2021-10-15 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
CN109949393B (zh) * 2019-01-09 2023-09-12 广州小鹏汽车科技有限公司 一种动画效果处理方法、系统及装置
CN113313790A (zh) * 2021-05-31 2021-08-27 北京字跳网络技术有限公司 视频生成方法、装置、设备及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4633673A (en) * 1984-09-14 1987-01-06 Morrison Daniel R Emergency shutoff for air conditioners
US4787212A (en) * 1987-10-19 1988-11-29 Hessey John C Air conditioner with automatic shutdown
US4937559A (en) * 1989-08-21 1990-06-26 Meacham Huey W Air conditioner drain blockage alarm
US5028910A (en) * 1989-12-08 1991-07-02 Meacham Huey W Drain overflow alarm
US4998412A (en) * 1990-01-22 1991-03-12 Joel Bell Blockage alert and purge system
US5522229A (en) * 1994-11-03 1996-06-04 Stuchlik, Iii; Charles F. Blockage detector
US6232965B1 (en) * 1994-11-30 2001-05-15 California Institute Of Technology Method and apparatus for synthesizing realistic animations of a human speaking using a computer
US6414685B1 (en) * 1997-01-29 2002-07-02 Sharp Kabushiki Kaisha Method of processing animation by interpolation between key frames with small data quantity
US6587884B1 (en) * 1997-09-10 2003-07-01 Schneider Automation, Inc. Dual ethernet protocol stack for maximum speed access to a programmable logic controller (PLC)
IT1314671B1 (it) * 1998-10-07 2002-12-31 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per l'animazione di un modellosintetizzato di volto umano pilotata da un segnale audio.
US6462742B1 (en) * 1999-08-05 2002-10-08 Microsoft Corporation System and method for multi-dimensional motion interpolation using verbs and adverbs
US6504546B1 (en) * 2000-02-08 2003-01-07 At&T Corp. Method of modeling objects to synthesize three-dimensional, photo-realistic animations
EP1249792A3 (en) * 2001-04-12 2006-01-18 Matsushita Electric Industrial Co., Ltd. Animation data generation apparatus, animation data generation method, animated video generation apparatus, and animated video generation method
US20030201898A1 (en) * 2002-04-25 2003-10-30 Stuchlik Charles F. Blockage detector with separate alarm and shut-off functions
US6763226B1 (en) * 2002-07-31 2004-07-13 Computer Science Central, Inc. Multifunctional world wide walkie talkie, a tri-frequency cellular-satellite wireless instant messenger computer and network for establishing global wireless volp quality of service (qos) communications, unified messaging, and video conferencing via the internet
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
CN1710613A (zh) * 2004-06-16 2005-12-21 甲尚股份有限公司 自动产生动画的系统与方法
CN101069214A (zh) 2004-10-01 2007-11-07 索尼电影娱乐公司 为计算机图形动画制作跟踪面部肌肉和眼睛运动的系统和方法
US7191606B1 (en) * 2005-04-29 2007-03-20 Dwyer Kenneth W Drain trap alarm
US7567251B2 (en) * 2006-01-10 2009-07-28 Sony Corporation Techniques for creating facial animation using a face mesh
EP2030171A1 (en) * 2006-04-10 2009-03-04 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
CN101473352A (zh) 2006-04-24 2009-07-01 索尼株式会社 表演驱动的脸部动画
CN101311966A (zh) * 2008-06-20 2008-11-26 浙江大学 一种基于运行传播和Isomap分析的三维人脸动画编辑与合成方法
CN101436312B (zh) * 2008-12-03 2011-04-06 腾讯科技(深圳)有限公司 一种生成视频动画的方法及装置
US8059004B2 (en) * 2009-01-07 2011-11-15 Eric James Drain blockage responsive alarm system

Also Published As

Publication number Publication date
RU2011126626A (ru) 2013-01-10
BRPI0922694A2 (pt) 2021-06-15
US20110227932A1 (en) 2011-09-22
WO2010063217A1 (zh) 2010-06-10
RU2487412C2 (ru) 2013-07-10
US8441485B2 (en) 2013-05-14
CN101436312A (zh) 2009-05-20
SG171453A1 (en) 2011-07-28
CN101436312B (zh) 2011-04-06

Similar Documents

Publication Publication Date Title
BRPI0922694B1 (pt) Método e aparelho para gerar animação de vídeo
US20210201552A1 (en) Systems and methods for real-time complex character animations and interactivity
JP2021530031A (ja) 顔に基づく特殊効果発生方法、装置および電子機器
CN111145322B (zh) 用于驱动虚拟形象的方法、设备和计算机可读存储介质
JP2021193599A (ja) 仮想オブジェクトのフィギュア合成方法、装置、電子機器、記憶媒体
KR102246355B1 (ko) 하이브리드 비쥬얼 커뮤니케이션
JP7182919B2 (ja) 映像処理方法、コンピュータプログラムおよび記録媒体
WO2019041902A1 (zh) 表情动画生成方法和装置、存储介质及电子装置
JP7090178B2 (ja) 顔面表情による遠隔アバターの操縦
US20160353056A1 (en) Hybrid visual communication
BRPI1006026B1 (pt) método e aparelho para alteração do formato de lábio e obtenção de animação de lábio em animação acionada por voz
US20170323489A1 (en) Avatars in virtual environments
US20230334744A1 (en) Method and apparatus for generating walk animation of virtual role, device and storage medium
JP2021144706A (ja) バーチャルアバターの生成方法及び生成装置
JP2018001403A (ja) 音声と仮想動作を同期させる方法、システムとロボット本体
US10748328B2 (en) Recording medium, information processing apparatus, influence degree deriving method, and image generation method
Bremner et al. Conversational gestures in human-robot interaction
US8531466B2 (en) Methods for providing realistic animation of autonomous objects through improved animation control signal processing
CN111739134A (zh) 虚拟角色的模型处理方法、装置及可读存储介质
EP3526771B1 (en) Held object stabilization in virtual reality
CN116363337B (zh) 模型游览方法、装置和电子设备
CN116016894A (zh) 一种基于移动设备的特效显示方法及设备
CN116309966A (zh) 虚拟对象的变形处理方法、装置、存储介质与电子设备
CN117765143A (zh) 移动动画生成方法、装置、存储介质与电子设备
CN117115322A (zh) 动画显示方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/11/2009, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.