BR112014032210B1 - Terminal de usuário e método de renderização de uma imagem de vídeo - Google Patents

Terminal de usuário e método de renderização de uma imagem de vídeo Download PDF

Info

Publication number
BR112014032210B1
BR112014032210B1 BR112014032210-4A BR112014032210A BR112014032210B1 BR 112014032210 B1 BR112014032210 B1 BR 112014032210B1 BR 112014032210 A BR112014032210 A BR 112014032210A BR 112014032210 B1 BR112014032210 B1 BR 112014032210B1
Authority
BR
Brazil
Prior art keywords
user terminal
user
terminal
video image
video
Prior art date
Application number
BR112014032210-4A
Other languages
English (en)
Other versions
BR112014032210A2 (pt
Inventor
Jonathan David Rosenberg
Original Assignee
Microsoft Technology Licensing, Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing, Llc filed Critical Microsoft Technology Licensing, Llc
Publication of BR112014032210A2 publication Critical patent/BR112014032210A2/pt
Publication of BR112014032210B1 publication Critical patent/BR112014032210B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • H04M1/72555

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

TERMINAL DE USUÁRIO, MEIO DE ARMAZENAMENTO LEGÍVEL POR COMPUTADOR E MÉTODO DE RENDERIZAÇÃO DE UMA IMAGEM DE VÍDEO. Um terminal de usuário tem uma entrada para receber um sinal de vídeo, e um visor para exibir a um usuário uma imagem de vídeo derivada do sinal de vídeo. Uma entrada de seleção é fornecida para receber do usuário pelo menos um efeito para aprimorar a imagem de vídeo derivada do sinal de vídeo. O terminal de usuário tem um dispositivo de renderização para renderizar no visor a imagem de vídeo derivada do sinal de vídeo aprimorada pelo efeito selecionado.

Description

ANTECEDENTES
[0001] A presente invenção refere-se a sistemas de comunicação baseados em pacote permitem que o usuário de um dispositivo, tal como um computador pessoal, se comunique por meio de uma rede de computadores tal como a Internet. Sistemas de comunicação baseados em pacote incluem sistemas de comunicações de protocolo de vídeo através da internet (IP), que permitem que usuários troquem transmissões contínuas de vídeo ao vivo por meio da Internet. Esses sistemas são benéficos para o usuário, visto que os mesmos têm frequentemente um custo mais baixo do que uma linha fixa ou redes móveis. Esse pode ser, particularmente, o caso para comunicação a longa distância. Para usar um protocolo de vídeo através da internet (video-over-IP), o usuário precisa instalar e executar um software de cliente em seu dispositivo. O software de cliente fornece as conexões de IP de vídeo bem como outras funções tais como registro e autenticação. Além da comunicação de vídeo, o cliente também pode fornecer adicionalmente recursos tais como áudio, mensagem instantânea ("IM"), mensagem por SMS e mensagem de voz.
[0002] Os usuários estão, assim, aptos a fazer chamadas de video face a face, trocando imagens de vídeo tiradas de uma webcam montada em cada um de seus terminais de computador.
[0003] Comunicações por vídeo podem ser aprimoradas pelo uso de "efeitos especiais", que aprimoram ou alteram a imagem de vídeo. Atualmente, isso está limitado ao usuário na extremidade de transmissão, que pode selecionar um efeito que aprimorará sua imagem renderizada na extremidade de recepção. Um exemplo disso é mostrado no endereço da web - http://www.logitech.com/en- us/webcam-communications/video-software-services/video-effects.
SUMÁRIO
[0004] Este Sumário é fornecido para introduzir uma seleção de conceitos de uma forma simplificada que são descritos abaixo na Descrição Detalhada. Este Sumário não se destina a identificar recursos-chave ou recursos essenciais da matéria reivindicada, nem se destina a ser usado para limitar o escopo da matéria reivindicada.
[0005] É descrito a seguir um terminal de usuário que tem uma entrada para receber um sinal de vídeo e um visor para exibir a um usuário uma imagem de vídeo derivada do sinal de vídeo. Uma entrada de seleção é fornecida para receber do usuário pelo menos um efeito para aprimorar a imagem de vídeo derivada do sinal de vídeo. O terminal de usuário tem um dispositivo de renderização para renderizar no visor a imagem de vídeo derivada do sinal de vídeo aprimorada pelo efeito selecionado.
[0006] Um produto de programa de computador compreende um código de programa que, quando executado por meio de um processador, implanta um método de renderização de uma imagem de vídeo. De acordo com o método, uma indicação de um efeito selecionado é recebida em um terminal de usuário. Uma imagem de um usuário é capturada no terminal de usuário, e a imagem capturada no terminal de usuário é renderizada em um visor do terminal de usuário, aprimorando a imagem pelo efeito selecionado.
BREVE DESCRIÇÃO DOS DESENHOS
[0007] Para uma melhor compreensão das modalidades descritas e para mostrar como as mesmas podem ser realizadas, referência será feita agora, a título de exemplo, aos desenhos anexos:
[0008] A Figura 1 é um diagrama de blocos esquemático de um sistema de comunicação de acordo com uma ou mais modalidades;
[0009] A Figura 2 é um diagrama de blocos esquemático de blocos funcionais em um terminal de usuário final próximo de acordo com uma ou mais modalidades;
[0010] As Figuras 3 a 7 ilustram capturas de tela dos efeitos selecionados de acordo com uma ou mais modalidades;
[0011] A Figura 8 é um diagrama de blocos esquemático de blocos funcionais em um terminal de usuário final distante de acordo com uma ou mais modalidades; e
[0012] A Figura 9 é uma captura de tela de uma postagem me mídia social de acordo com uma ou mais modalidades.
DESCRIÇÃO DETALHADA
[0013] Nas modalidades descritas a seguir, usuários podem aplicar efeitos de vídeo no estilo "cabine fotográfica" aos seus vídeos. Um usuário pode aplicar um efeito de vídeo a terceiros (usuário remoto) na chamada. Por exemplo, se Alice liga para Bob, Alice pode aplicar o efeito ao vídeo de Bob e ver Bob com o efeito aplicado. Bob pode ver esse efeito aplicado a si mesmo na sua autovisualização, e é informado sobre isso. Em uma ou mais modalidades, pode ser dada a opção a Bob de aplicar o efeito a Alice.
[0014] Em uma ou mais modalidades, Bob ou Alice podem fazer capturas de tela com os efeitos e postar em um ambiente de mídia social, por exemplo, um mural do Facebook. Uma vez postada a imagem, clicar sobre a mesma dá a oportunidade a terceiros de adquirirem o efeito.
[0015] O efeito pode ser uma imagem estática que, por exemplo, rastreia a cabeça ou os olhos do usuário. Efeitos animados também são possíveis.
[0016] A Figura 1 é um diagrama de blocos esquemático de um sistema de comunicação em que um primeiro terminal de usuário 2 está disposto para trocar dados de vídeo com um segundo terminal de usuário 4 através de uma rede de comunicação, por exemplo, uma rede baseada em pacote tal como a Internet 6. O segundo terminal de usuário 4 recebe dados de vídeo e transmite dados de vídeo em um evento de comunicação de duas vias (chamada de vídeo). O número de referência 70 denota dados de vídeo recebidos e o número de referência 72 denota dados de vídeo transmitidos, a partir da perspectiva de um terminal.
[0017] Um tipo de sistema de comunicação baseado em pacote usa uma topologia ponto a ponto ("P2P") montada nos protocolos de proprietário. Para permitir acesso a um sistema ponto a ponto, o usuário deve executar um software de cliente P2P fornecido por um fornecedor de software P2P em seu computador, e se registrar em um sistema P2P. Quando o usuário se registra no sistema P2P, o software de cliente é dotado de um certificado digital de um servidor. Uma vez que software de cliente foi datado do certificado, a comunicação pode ser subsequentemente estabelecida e direcionada entre usuários do sistema P2P sem uso adicional de um servidor. Em particular, o usuário pode estabelecer suas próprias rotas de comunicação através do sistema P2P baseado na troca de um ou mais certificados digitais (ou certificados de identidade de usuário, "UIC"), o que permite acesso ao sistema P2P. A troca dos certificados digitais entre usuários permite prova das identidades dos usuários e que os mesmos estão apropriadamente autorizados e autenticados no sistema P2P. Portanto, a apresentação de certificados digitais fornece crédito à identidade do usuário. Portanto, é uma característica de comunicação ponto a ponto que a comunicação não esteja direcionada com o uso de um servidor mas diretamente de usuário final para usuário final.
[0018] Outras formas de rede de comunicação são possíveis, tal como IMS (Subsistema de Multimídia de Internet), e outros sistemas baseados em servidor.
[0019] Cada terminal de usuário 2, 4, compreende um visor 8, 10,respectivamente e uma câmera 12, 14 para capturar imagens em movimento que podem ser exibidas no visor do usuário final próximo 8 como um vídeo e/ou transmitidas ao terminal 4 para serem exibidas no visor remoto 10. Cada visor mostra uma autoimagem 2a, 4a, do usuário final próximo e uma imagem 2b, 4b, do usuário final distante (mostrado mais claramente nas Figuras 3 a 7). Nesse caso, é considerado que Alice está no primeiro terminal de usuário (final próximo) e Bob está no segundo terminal de usuário (final distante). Será verificado que a Figura 1 é altamente esquemática e não se destina a representar de modo acurado qualquer dispositivo particular. Terminais de usuários do tipo geral podem incluir um terminal de monofone móvel, tal como um telefone móvel, um computador do tipo laptop, um computador do tipo tablet, um computador do tipo desktop, um aparelho de televisão ou televisão com conversor e vários outros tipos de dispositivos. Em uma modalidade, por exemplo, um telefone inteligente ou um computador do tipo tablet, os visores 8, 10, constituem uma interface de usuário com o uso de tecnologia de tela sensível ao toque, embora seja verificado que outras interfaces de usuário podem ser utilizadas, por exemplo, um teclado, um mouse, etc.
[0020] Geralmente, qualquer uma das funções descritas no presente documento pode ser implantada com o uso de software, firmware, hardware (por exemplo, circuitos fixos lógicos), ou uma combinação dessas implantações. Os termos "módulo", "funcionalidade", "componente" e "lógica" conforme usados no presente documento geralmente representam software, firmware, hardware, ou uma combinação dos mesmos. No caso de uma implantação de software, o módulo, funcionalidade, ou lógica representa um código de programa que realiza tarefas específicas quando executados em um processador (por exemplo, CPU ou CPUs). O código de programa pode ser armazenado em um ou mais dispositivos de memória legíveis por computador. Os recursos das técnicas descritas abaixo são independentes de plataforma, o que significa que as técnicas podem ser implantadas em uma variedade de plataformas de computação comercial que têm uma variedade de processadores.
[0021] Por exemplo, os terminais de usuário também podem incluir uma entidade (por exemplo, software) que faz com que o hardware dos terminais de usuário realizem operações, por exemplo, processadores, blocos funcionais e assim por diante. Por exemplo, os terminais de usuário podem incluir um meio legível por computador que pode ser configurado para manter instruções que façam com que os terminais de usuário, e mais particularmente o sistema em operação e o hardware associado dos terminais de usuário, realizem operações. Assim, as instruções funcionam para configurar o sistema em operação e o hardware associado para realizar as operações e, desse modo, resultar na transformação do sistema em operação e do hardware associado para realizar funções. As instruções podem ser fornecidas por meio do meio legível por computador para os terminais de usuário através de uma variedade de diferentes configurações.
[0022] Uma das tais configurações de um meio legível por computador é o sinal que apoia o meio e, assim, é configurado para transmitir as instruções (por exemplo, como uma onda portadora) para o dispositivo de computação, tal como através de uma rede. O meio legível por computador também pode ser configurado como um meio de armazenamento legível por computador e, assim, não é um meio que suporta o sinal. Exemplos de um meio de armazenagem legível por computador incluem uma memória de acesso aleatório (RAM), memória somente leitura (ROM), um disco óptico, memória flash, memória de disco rígido, e outros dispositivos de memória que podem usar técnicas magnéticas, ópticas e outras técnicas para armazenar instruções e outros dados.
[0023] Várias modalidades permitem a adição de efeitos de video no estilo "álbum de fotos" aos dados de vídeo recebidos, por exemplo, no terminal de usuário 2, sob controle do usuário de recebimento (Alice) no terminal de usuário 2. Uma indicação dos efeitos pode ser transmitida com dados de vídeo transmitidos do terminal de usuário 2 para o terminal de usuário 4 através da rede de comunicação 6, para que o usuário de transmissão (Bob) possa ver sua autoimagem 4a com os efeitos especiais. Em particular, modalidades permitem que o usuário final próximo determine qual efeito especial aplicar aos dados de vídeo recebidos do usuário final distante. Ela seleciona um efeito a partir de um conjunto de efeitos exibidos para ele no visor 8 com o uso da interface de usuário, por exemplo, por meio de clique (com um mouse/interface de cursor) ou toque do efeito (com tecnologia de tela sensível ao toque).
[0024] A Figura 2 é um diagrama de blocos esquemático de blocos funcionais no terminal de usuário 2. Admite-se que o vídeo recebido do terminal 4 está sendo exibido a um usuário no visor 8 conforme a imagem 2b. O número de referência 18 denota meios de seleção com os quais o usuário pode selecionar um efeito especial no visor 8. O meio de seleção 18 está conectado a uma memória de efeitos 13 que supre um efeito selecionado 32 a um bloco de processamento de postagens 17 conectado à saída de um decodificador 16 que recebe o sinal de vídeo 70 na forma de uma transmissão contínua de pacote. O decodificador 16 recebe os pacotes de dados de vídeo 70 e decodifica os mesmos. O bloco de processamento de postagens 17 adiciona o efeito especial selecionado 32 e gera sinais de controle de visor 25 para renderizar a imagem de vídeo aprimorada de Bob 2b no visor 8. Em uma modalidade, informações referentes ao efeito selecionado também são supridas a um bloco de processamento de postagens 19 de um codificador 15. O codificador 14 codifica dados de imagem da câmera 12 em pacotes do sinal de vídeo 72 para transmissão ao terminal 4. O bloco de processamento de postagens insere informações EI32 que identificam o efeito especial 32 para que o mesmo possa ser renderizado no visor do usuário final distante na autoimagem 4a. Uma notificação 42 também pode ser incluída.
[0025] Um método alternativo é mandar de volta um fluxo contínuo separado de mensagem de controle ao outro lado informando qual efeito deve ser aplicado. Desse modo, o sistema pode trabalhar com um vídeo de modo único em que não existe codificador para o usuário.
[0026] A Figura 8 é um diagrama de blocos esquemático de blocos funcionais no terminal de usuário 4. Admite-se que o terminal de usuário 4 recebe um sinal de vídeo na forma de uma transmissão contínua de pacote que agora inclui a informação de efeito EI32 e a notificação 42. Uma função de extração 33 extrai a informação de efeito EI32 e usa a mesma para acessar uma memória de efeitos 13. O resto do sinal de vídeo é suprido ao decodificador 16 que decodifica o mesmo como normal para gerar sinais de controle de visor para gerar a imagem 4b de Alice. Quando a informação de efeitos é aplicada em uma mensagem de controle separada, não há necessidade de extrair a mesma da transmissão contínua de vídeo. De fato, a mesma pode ser aplicada sem enviar uma transmissão contínua de vídeo. O efeito 32 a partir da memória de efeitos 13 é fornecido a uma função mista 35 que recebe dados da câmera local 14. Desse modo, o efeito 32 é misturado aos dados locais de imagem da câmera 14 para fornecer sinais de controle de visor 25 para renderizar a autoimagem aprimorada 4a de Bob. A câmera 14 também supre dados de imagem ao codificador 15 que gera uma transmissão contínua de pacote para suprir ao terminal remoto. Conforme descrito mais inteiramente a seguir, se Bob decide que ele deseja ter o efeito selecionado aplicado a Alice, ele pode acionar um ícone 44 no visor 10 que, então, faz com que um indicador de aplicar efeito 76 seja incorporado no sinal de vídeo 72 para ser transmitido de volta para o terminal da Alice. Isso faz com que os efeitos selecionados sejam aplicados à imagem de Alice no terminal 4 do mesmo modo que foi aplicado à imagem de Bob no terminal 2. Adicionalmente, o indicador de aplicar efeito 76 é extraído por meio de uma função de extração 33 no terminal 2 para fazer com que o efeito seja misturado à câmera local em uma função mista similar à 35 para que gere a autoimagem aprimorada de Alice. Os blocos funcionais para isso não são mostrados na Figura 8, apenas na Figura 2.
[0027] Será prontamente verificado que, embora as Figuras 2 e 8 tenham sido mostradas como Figuras separadas para a facilidade de explicação como para o que acontece nos terminais de usuário final próximo e usuário final distante, na prática, cada terminal de usuário incorporaria tanto a funcionalidade de usuário final próximo quanto a de usuário final distante. Embora a memória de efeitos 13 seja mostrada como uma memória local ao terminal, será prontamente verificado que os efeitos especiais podem ser acessados tanto localmente quanto remotamente a partir de um servidor remoto, talvez no sistema de comunicação 6.
[0028] Referência agora será feita às Figuras 3 a 7 para descrever a aplicação dos efeitos selecionados em mais detalhes. A Figura 3 é um diagrama esquemático do primeiro terminal de usuário 2. O número de referência 2b denota a imagem de vídeo que foi capturada do segundo usuário ao terminal remoto 4 e fornecida por meio de um sinal de vídeo do primeiro terminal 2. Para facilitação de referência, a referência a isso será feita como "imagem de Bob", sendo que Bob é o segundo usuário no terminal remoto 4. O número de referência 2a denota a autoimagem do primeiro usuário no primeiro terminal, que será referido como "Alice". Essa é a imagem capturada por meio da câmera no primeiro terminal 2. Alice decide aplicar um efeito de vídeo à imagem de Bob 2b. A fim de fazer isso, ela seleciona uma função 18 que exibe uma pluralidade de efeitos de vídeo. Na Figura 4, por meio de exemplo, um conjunto de narizes falsos 30 é ilustrado. Esses narizes podem ser, por exemplo, de diferentes animais, como um nariz de porco 32, nariz de elefante 34, nariz de gato 36 e nariz de ornitorrinco 38. Esses efeitos são armazenados na memória de efeitos 13. Quando a função de efeitos é selecionada por meio do usuário, as imagens dos efeitos são recuperadas da memória (seja local ou remota) e exibidas no visor do terminal 2, conforme ilustrado na Figura 4.
[0029] Conforme mostrado na Figura 5, nesse caso, Alice decide selecionar o nariz de porco 32. Isso pode ser feito por meio do toque no nariz em uma tela sensível ao toque, por meio de um mouse e cursor ou qualquer outro meio. Uma vez que o nariz de porco 32 foi selecionado, a imagem de Bob é renderizada conforme explicado acima com referência à Figura 2, para que inclua o nariz 32. Conforme descrito adicionalmente com referência à Figura 2, a informação EI32 sobre o efeito selecionado é transmitida ao terminal do Bob 4, que é ilustrado na Figura 6. No terminal do Bob, a principal imagem exibida 4b é de Alice. Quando Alice selecionou o efeito 32, informação sobre o efeito foi transmitida ao terminal do Bob 4 e duas notificações 42, 44, são exibidas para Bob. A primeira notificação identifica o efeito que foi selecionado, por exemplo, "Alice pôs um nariz de pôs um nariz de porco em você", e a segunda notificação está na forma de um botão acionável ou ícone que permite a Bob aplicar os efeitos selecionados a Alice, por exemplo, "pôr um nariz de porco de volta". Essas notificações são renderizadas no visor em forma de texto legível por humanos com base na informação que foi transmitida ao terminal do Bob 4 no sinal de vídeo recebido pelo mesmo. Adicionalmente, Bob pode ver como ele aparece no terminal de Alice por causa da sua própria autoimagem 4a é renderizada com o efeito selecionado, com base na informação recebida no terminal do Bob 4. Se Bob decide aplicar o mesmo efeito à Alice, ele seleciona o botão de notificação 44 e o resultado disso é para aplicar o efeito selecionado à imagem de Alice que ele vê como 4b. Isso não é mostrado nas Figuras, mas é prontamente aparente a partir da Figura 5 que mostra o efeito no terminal da Alice conforme o modo que é percebido no terminal de Bob, com o nariz de porco aplicado à imagem de Alice. Adicionalmente, o indicador de aplicar efeito 76 é retornado ao terminal de Alice com o sinal de vídeo para que a autoimagem dela 2a seja renderizada da mesma maneira com o efeito selecionado 32. Adicionalmente, a notificação 78 é exibida em texto legível por humano, por exemplo, "Bob pôs um nariz de porco em você de volta!"
[0030] O reconhecimento de recursos pode ser usado para aplicar o efeito selecionado na posição correta do vídeo. Por exemplo, o software de reconhecimento de recurso pode detectar quando o nariz do usuário está localizado dentro da imagem e permite que a imagem do nariz seja sobreposta naquela região. De modo alternativo, o efeito pode ser posicionado no visor em relação à posição de face do usuário detectada na localidade selecionada pelo usuário.
[0031] Será verificado que cada terminal de usuário compreende um processador para executar o software adequado para implantar as funções mencionadas acima. As funções podem ser implantadas em qualquer combinação de hardware, firmware ou software conforme apropriado. Embora não ilustrado, é claro que cada terminal executa, conforme o processador do mesmo, um aplicativo de cliente de comunicação que estabelece a chamada de vídeo de duas vias. As funções descritas acima podem fazer parte desse aplicativo de cliente de comunicação ou podem ser fornecidas em aplicativos de software separados executados pelo processador.
[0032] Várias modalidades levam em consideração a possibilidade adicional de postar o efeito selecionado conforme aplicado à imagem em um ambiente de mídia social, por exemplo, em um mural do Facebook que pertence ao usuário ao qual o efeito foi aplicado (no caso, Bob). A fim de fazer isso, Alice pode selecionar uma função de compartilhamento no terminal dela, o que cria uma quantidade de possibilidades de compartilhamento que identificam, por exemplo, o mural do Facebook do Bob, o mural do Facebook da Alice e uma opção de enviar por e-mail. Alice pode selecionar uma opção apropriada, por exemplo, postar no mural do Facebook do Bob, e uma postagem de imagem de Bob com o efeito selecionado aplicado, caso feito no mural do Facebook dele, conforme ilustrado, por exemplo, na Figura 9. Um terceiro pode selecionar a postagem por meio do clique sobre a mesma ou por qualquer outro meio, e ao fazer isso, pode acessar o efeito para uso próprio.
[0033] A natureza social do efeito de vídeo traz um diferente tipo de interação por meio de redes sociais. Efeitos podem ser disponibilizados aos usuários eletronicamente a um terminal de usuário, por exemplo, por meio de clique sobre um ícone de aplicativo de vídeo para o efeito. Quando lançado, o aplicativo de vídeo induziria o usuário a obter o efeito desejado, por exemplo, por meio do uso de um URL (localizador padrão de recursos) para acessar uma localização de armazenagem com base na web, tal como um servidor.
[0034] De acordo com uma modalidade, é fornecido um método de renderização de uma imagem de vídeo que compreende:
[0035] receber em um primeiro terminal um sinal de video transmitido a partir de um segundo terminal;
[0036] receber de um usuário no primeiro terminal, uma seleção de pelo menos um efeito para aprimorar uma imagem de vídeo, derivada do sinal de vídeo recebido; e
[0037] renderizar em um visor no primeiro terminal uma imagem de vídeo derivada do sinal de vídeo aprimorada por meio do efeito selecionado. Uma outra modalidade fornece um terminal de usuário que compreende:
[0038] meios para receber um sinal de vídeo transmitido de um terminal remoto;
[0039] um visor para exibir a um usuário no terminal de usuário uma imagem de vídeo derivada do sinal de vídeo;
[0040] meios de seleção para receber do usuário no terminal de usuário pelo menos um efeito para aprimorar a imagem de vídeo derivada do sinal de vídeo; e
[0041] meios para renderizar no visor a imagem de vídeo derivada do sinal de vídeo aprimorada pelo efeito selecionado.
[0042] Embora a matéria tenha sido descrita em linguagem específica para recursos estruturais e/ou atos metodológicos, deve-se entender que a matéria definida nas reivindicações anexas não está necessariamente limitada aos recursos específicos ou atos descritos acima. Em vez disso, os recursos específicos e atos descritos acima são revelados em forma de exemplos de implantação das reivindicações.

Claims (9)

1. Terminal de usuário (2) caracterizado pelo fato de que compreende: uma câmera (12) para capturar uma imagem de vídeo (2a) no terminal de usuário (2); uma entrada para receber um sinal de vídeo (70) de um terminal remoto (4) por meio de uma rede de comunicação (6); um monitor (8) para exibir a um usuário no terminal de usuário (2) a imagem de vídeo capturada (2a) e uma imagem de vídeo (2b) derivada do sinal de vídeo recebido (70), as imagens de vídeo (2a, 2b) cada compreendendo uma imagem em movimento; uma entrada de seleção (18) para receber do usuário no terminal de usuário (2) pelo menos um efeito (32) para realçar a imagem de vídeo (2b) derivada do sinal de vídeo recebido (70); um dispositivo de renderização para renderizar no display (8) a imagem de vídeo (2b) derivada do sinal de vídeo recebido (70) aprimorado pelo efeito selecionado (32) recebido pela entrada de seleção (18); e uma entrada para receber uma indicação de um efeito (32) selecionado no terminal remoto (4), em que o dispositivo de renderização é configurado para renderizar o mesmo efeito (32) selecionado no terminal remoto (4) para a imagem de vídeo capturada (2a ) exibido no display (8).
2. Terminal de usuário (2), de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo de renderização compreende um decodificador (16, 17) disposto para decodificar o sinal de vídeo recebido (70) e para gerar sinais de controle de exibição para renderizar a imagem de vídeo (2b) em a exibição (8), os sinais de controle de exibição incorporando o efeito selecionado (32) recebido pela entrada de seleção (18).
3. Terminal de usuário (2), de acordo com a reivindicação 1, caracterizado pelo fato de que compreende meios para transmitir uma indicação do efeito selecionado (32) recebido pela entrada de seleção (18) do terminal de usuário (2) para o terminal remoto (4).
4. Terminal de usuário (2), de acordo com a reivindicação 3, caracterizado pelo fato de que compreende um codificador (15, 19) operável para codificar uma imagem de vídeo a ser transmitida do terminal de usuário (2) para o terminal remoto (4), o codificador (15, 19) operável para inserir a indicação em um sinal de vídeo (72) a ser transmitido do terminal de usuário (2).
5. Terminal de usuário (2) de acordo com a reivindicação 1, caracterizado pelo fato de que compreende uma função mista (35) configurada para exibir a imagem de vídeo (2a) capturada pela câmera (12) aprimorada com o efeito selecionado no terminal remoto (4).
6. Terminal de usuário (2), de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que receber um sinal de vídeo (70) de um terminal remoto (4) é parte de uma chamada de vídeo.
7. Método de renderização de uma imagem de vídeo caracterizado pelo fato de que compreende: receber em um terminal de usuário (2), a partir de um terminal remoto (4) por meio de uma rede de comunicações (6), uma indicação de um efeito (32) selecionado no terminal remoto (4) para realçar uma imagem de vídeo (4b) derivada de um sinal de vídeo (72) enviado do terminal de usuário (2) para o terminal remoto (4) por meio da rede de comunicações (6); capturar uma imagem de vídeo (2a) de um usuário no terminal de usuário (2); e renderizar a imagem de vídeo (2a) capturada no terminal de usuário (2) em uma tela (8) do terminal de usuário (2), em que a referida renderização inclui realçar a imagem de vídeo capturada (2a) pelo mesmo efeito (32) selecionado em o terminal remoto (4).
8. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que compreende a etapa de transmitir essa imagem de vídeo capturada em um sinal de vídeo (72) para o terminal remoto (4), pelo qual a imagem de vídeo do usuário no terminal de usuário (2) é renderizada em a exibição (8) no terminal remoto (4) aprimorada pelo efeito selecionado (32).
9. Método de acordo com a reivindicação 7, caracterizado pelo fato de que compreende a etapa de exibir em um site de rede social uma imagem capturada do usuário no terminal de usuário (2) aprimorada pelo efeito selecionado (32).
BR112014032210-4A 2012-06-28 2013-06-25 Terminal de usuário e método de renderização de uma imagem de vídeo BR112014032210B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/536,495 US8947491B2 (en) 2012-06-28 2012-06-28 Communication system
US13/536,495 2012-06-28
PCT/US2013/047445 WO2014004411A1 (en) 2012-06-28 2013-06-25 Communication system

Publications (2)

Publication Number Publication Date
BR112014032210A2 BR112014032210A2 (pt) 2017-06-27
BR112014032210B1 true BR112014032210B1 (pt) 2022-08-09

Family

ID=48790598

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014032210-4A BR112014032210B1 (pt) 2012-06-28 2013-06-25 Terminal de usuário e método de renderização de uma imagem de vídeo

Country Status (11)

Country Link
US (1) US8947491B2 (pt)
EP (1) EP2850816B1 (pt)
JP (1) JP6161088B2 (pt)
KR (1) KR102077354B1 (pt)
CN (1) CN104380701B (pt)
AU (1) AU2013280679B2 (pt)
BR (1) BR112014032210B1 (pt)
CA (1) CA2876238C (pt)
MX (1) MX339988B (pt)
RU (1) RU2642513C2 (pt)
WO (1) WO2014004411A1 (pt)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103905668B (zh) * 2012-12-27 2016-12-28 中强光电股份有限公司 具有视讯功能的电话机及其视讯会谈的方法
CN104836977B (zh) * 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及系统
US9372550B2 (en) * 2014-02-10 2016-06-21 Airtime Media, Inc. Automatic audio-video switching
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US9282287B1 (en) * 2014-09-09 2016-03-08 Google Inc. Real-time video transformations in video conferences
WO2016148102A1 (ja) * 2015-03-16 2016-09-22 オリンパス株式会社 通信装置、通信システム及び通信方法
CN106303690A (zh) * 2015-05-27 2017-01-04 腾讯科技(深圳)有限公司 一种视频处理方法及装置
USD794069S1 (en) * 2015-08-26 2017-08-08 Branch Banking And Trust Company Portion of a display screen with icon
KR20170091913A (ko) * 2016-02-02 2017-08-10 삼성전자주식회사 영상 서비스 제공 방법 및 장치
CN109845250B (zh) * 2016-10-18 2021-07-16 韩国斯诺有限公司 用于影像的效果共享方法及系统
WO2018182063A1 (ko) * 2017-03-28 2018-10-04 라인 가부시키가이샤 영상 통화 제공 장치, 방법, 및 컴퓨터 프로그램
US10412139B2 (en) * 2017-05-26 2019-09-10 Streamsure Solutions Limited Communication event
CN109474844B (zh) 2017-09-08 2020-08-18 腾讯科技(深圳)有限公司 视频信息处理方法及装置、计算机设备
US20190104101A1 (en) * 2017-10-04 2019-04-04 Facebook, Inc. Paired effects in conversations between users
KR102271308B1 (ko) * 2017-11-21 2021-06-30 주식회사 하이퍼커넥트 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템
US11012389B2 (en) 2018-05-07 2021-05-18 Apple Inc. Modifying images with supplemental content for messaging
US10681310B2 (en) * 2018-05-07 2020-06-09 Apple Inc. Modifying video streams with supplemental content for video conferencing
US10854109B2 (en) 2018-10-31 2020-12-01 Sony Interactive Entertainment Inc. Color accommodation for on-demand accessibility
US11636673B2 (en) 2018-10-31 2023-04-25 Sony Interactive Entertainment Inc. Scene annotation using machine learning
US10977872B2 (en) * 2018-10-31 2021-04-13 Sony Interactive Entertainment Inc. Graphical style modification for video games using machine learning
US11375293B2 (en) 2018-10-31 2022-06-28 Sony Interactive Entertainment Inc. Textual annotation of acoustic effects
CN109348276B (zh) * 2018-11-08 2019-12-17 北京微播视界科技有限公司 视频画面调整方法、装置、计算机设备和存储介质
US11704626B2 (en) * 2021-07-09 2023-07-18 Prezi, Inc. Relocation of content item to motion picture sequences at multiple devices

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6414707B1 (en) * 1998-10-16 2002-07-02 At&T Corp. Apparatus and method for incorporating virtual video conferencing environments
JP2002077840A (ja) * 2000-08-30 2002-03-15 Toshiba Corp 通信端末装置
JP2005012764A (ja) 2003-05-22 2005-01-13 Casio Comput Co Ltd データ通信装置、画像送信方法および画像送信プログラム
JP2005064939A (ja) * 2003-08-14 2005-03-10 Nec Corp アニメーション機能を有する携帯電話端末およびその制御方法
KR100628756B1 (ko) * 2004-09-07 2006-09-29 엘지전자 주식회사 이동단말기로 화상 통화시의 이펙트 화면 제공 장치 및방법
US20060248210A1 (en) * 2005-05-02 2006-11-02 Lifesize Communications, Inc. Controlling video display mode in a video conferencing system
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
US7612794B2 (en) * 2005-05-25 2009-11-03 Microsoft Corp. System and method for applying digital make-up in video conferencing
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
US7728866B2 (en) * 2005-11-03 2010-06-01 Broadcom Corp. Video telephony image processing
KR101240261B1 (ko) * 2006-02-07 2013-03-07 엘지전자 주식회사 이동통신 단말기의 영상 통화 장치 및 방법
US8954851B2 (en) 2006-09-15 2015-02-10 Microsoft Corporation Adding video effects for video enabled applications
US8044989B2 (en) * 2006-12-12 2011-10-25 General Instrument Corporation Mute function for video applications
US8373799B2 (en) 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
US9060094B2 (en) * 2007-09-30 2015-06-16 Optical Fusion, Inc. Individual adjustment of audio and video properties in network conferencing
US8373742B2 (en) 2008-03-27 2013-02-12 Motorola Mobility Llc Method and apparatus for enhancing and adding context to a video call image
KR101533065B1 (ko) 2008-12-01 2015-07-01 삼성전자주식회사 화상통화 중 애니메이션 효과 제공 방법 및 장치
KR20100064873A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 단말기 및 그 제어 방법
JP2010258781A (ja) * 2009-04-24 2010-11-11 Ntt Docomo Inc 携帯端末及び情報伝達方法
CN101924903B (zh) * 2009-06-17 2013-03-20 华为技术有限公司 实现视频通话的方法、装置和系统
RU2012114124A (ru) * 2009-09-11 2013-10-20 Конинклейке Филипс Электроникс Н.В. Система обработки изображения
US8823739B2 (en) * 2010-08-25 2014-09-02 International Business Machines Corporation Background replacement for videoconferencing
US20130088562A1 (en) * 2011-10-07 2013-04-11 Hanwha Solution & Consulting Co., Ltd Communication terminal for providing silhouette function on video screen for video call and method thereof
US8767034B2 (en) * 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
US20130250048A1 (en) * 2012-01-13 2013-09-26 Joshua Victor Aller Method of capture, display and sharing of orientation-based image sets
US8982179B2 (en) * 2012-06-20 2015-03-17 At&T Intellectual Property I, Lp Apparatus and method for modification of telecommunication video content

Also Published As

Publication number Publication date
MX339988B (es) 2016-06-17
US8947491B2 (en) 2015-02-03
AU2013280679A1 (en) 2015-01-22
JP6161088B2 (ja) 2017-07-12
WO2014004411A1 (en) 2014-01-03
KR102077354B1 (ko) 2020-02-13
CA2876238A1 (en) 2014-01-03
CN104380701A (zh) 2015-02-25
MX2014015948A (es) 2015-03-03
RU2014153013A (ru) 2016-07-20
KR20150032674A (ko) 2015-03-27
RU2642513C2 (ru) 2018-01-25
US20140002578A1 (en) 2014-01-02
AU2013280679B2 (en) 2016-12-08
CA2876238C (en) 2020-06-09
CN104380701B (zh) 2017-06-06
EP2850816A1 (en) 2015-03-25
EP2850816B1 (en) 2019-05-29
JP2015529031A (ja) 2015-10-01
BR112014032210A2 (pt) 2017-06-27

Similar Documents

Publication Publication Date Title
BR112014032210B1 (pt) Terminal de usuário e método de renderização de uma imagem de vídeo
US11362811B2 (en) Secure telecommunications
US9917868B2 (en) Systems and methods for medical diagnostic collaboration
EP2839604B1 (en) Electronic tool and methods for meetings
US20150020000A1 (en) System and method for creating a unique media and information management platform
US20150067106A1 (en) Graphical Indicator Of Presence, Identity, And Action For Media Sharing On A Display
US20110093923A1 (en) System and method for access control of network devices across multi-platform access lists
US9236911B2 (en) Secure transfer of whiteboard content
US10459534B2 (en) System and method for large data augmented reality applications on smartglasses
TW202004425A (zh) 具有即時回饋的裝置展示
US20210126915A1 (en) Device and system for screen sharing
CN105554750B (zh) 一种数据帧的传输方法及终端
US20160285819A1 (en) Sharing and controlling electronic devices located at remote locations using xmpp server

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: MICROSOFT TECHNOLOGY LICENSING, LLC (US)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04M 1/725 , H04N 1/00

Ipc: H04M 1/725 (2006.01), H04N 7/14 (2006.01)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 25/06/2013, OBSERVADAS AS CONDICOES LEGAIS