BRPI0610169A2 - dessincronização resistente a colusão para impressão digital de vìdeo - Google Patents

dessincronização resistente a colusão para impressão digital de vìdeo Download PDF

Info

Publication number
BRPI0610169A2
BRPI0610169A2 BRPI0610169-0A BRPI0610169A BRPI0610169A2 BR PI0610169 A2 BRPI0610169 A2 BR PI0610169A2 BR PI0610169 A BRPI0610169 A BR PI0610169A BR PI0610169 A2 BRPI0610169 A2 BR PI0610169A2
Authority
BR
Brazil
Prior art keywords
video
temporal
desynchronization
frames
readable media
Prior art date
Application number
BRPI0610169-0A
Other languages
English (en)
Inventor
Mehmet Kivanc Mihcak
Yinian Mao
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of BRPI0610169A2 publication Critical patent/BRPI0610169A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/167Systems rendering the television signal unintelligible and subsequently intelligible
    • H04N7/1675Providing digital key or authorisation information for generation or regeneration of the scrambling sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C5/00Ciphering apparatus or methods not provided for in the preceding groups, e.g. involving the concealment or deformation of graphic data such as designs, written or printed messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4405Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0063Image watermarking in relation to collusion attacks, e.g. collusion attack resistant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91307Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Television Systems (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Sistemas e métodos são descritos, que dessincronizam um vídeo a ser protegido, criando, desse modo, um ou mais vídeos com impressão digital. Em uma implementação, um vídeo a ser protegido é dessincronizado temporalmente e dessincronizado espacialmente. Uma cópia com impressão digital do vídeo, modificada pelas dessincronizações temporal e espacial, é criada.

Description

"DESSINCRONIZAÇÃO RESISTENTE A COLUSÃO PARA IM-PRESSÃO DIGITAL DE VÍDEO"
ANTECEDENTES
A proliferação de multimídia digital, juntamentecom a largura de banda sempre crescente em comunicações naInternet, fez com que o controle de copirraite digital fi-casse cada vez mais desafiador. Uma vez que qualquer usuáriofinal recebendo uma cópia de conteúdo de multimídia possaredistribuir a cópia para outros usuários, um mecanismo paraseguir o distribuidor ilegal precisa ser estabelecido paraproteger o copirraite digital. A impressão digital de multi-mídia é um modo único de embutir IDs (identificadores) emcada conteúdo de multimídia. Em virtude da impressão digitalembutida ser unicamente associada com o usuário ao qual acópia foi dada, a extração dessa impressão digital em umacópia pirata identifica unicamente o usuário associado com aimpressão digital.
Uma vez que os dados de multimídia podem ser li-geiramente modificados sem provocar uma distorção percepti-vel, uma impressão digital pode ser embutida dentro dos da-dos, sem degradar a experiência do usuário final. Há váriostrabalhos da técnica anterior em imagem de impressão digitale sinal de áudio. No entanto, a pesquisa em impressão digi-tal de video tem sido muito limitada. Usualmente, na medidaem que o sinal hospedeiro para impressão digital varia, oesquema de impressão digital também precisa ser adaptado.Por exemplo, em uma imagem colorida de cenas naturais, o es-paço para embutimento de impressão digital é usualmente mui-to maior do que em uma imagem binaria. Naturalmente, espera-ria-se uma capacidade de embutimento maior de video. No en-tanto, o grande volume de dados em video introduz ambos osaspectos favoráveis e desfavoráveis. Um aspecto favorável éaquele que a capacidade de embutimento de video é muito mai-or do que a de imagens paradas, e, portanto, a robustez daimpressão digital é aumentada. Um aspecto desfavorável é quea redundância espacial e temporal de sinais de video podeser explorada por aqueles que atacam. Portanto, o projeto ea engenharia de esquemas de impressão digital de video sãomais sofisticados do que a impressão digital de imagens pa-radas e áudio.
Apesar da tentativa dos projetistas de impressãodigital de proteger o copirraite digital, as pessoas que a-tacam têm um forte incentivo para remover a impressão digi-tal. Por exemplo, os esquemas comerciais populares enviamimagens de filmes populares para cinemas, antes de um perío-do de tempo no qual vão ser vendidas "em video", por exem-plo, em um meio de DVD. Se um pirata puder vender o filme emDVD durante a sua permanência nos cinemas, um lucro enormepode ser obtido. No ataque de um esquema de impressão digi-tal, o objetivo dos que atacam é lograr o detector de im-pressão digital, de modo que ele não seja capaz de detectarou identificar corretamente uma impressão digital. Para osatacantes, a complexidade de tempo e a qualidade perceptívelsão também considerações importantes, uma vez que o valor domultimídia reside, em parte, nas suas oportunidade e quali-dade perceptiva. Conseqüentemente, um grupo de atacantes,todos possuindo uma cópia com impressão digital de um video,pode conspirar para formar um ataque de colusão. Esse ataquetenta atenuar ou remover a impressão digital embutida em ca-da cópia. Quando o número de cópias com impressão digitaldentro do ataque de colusão é suficientemente grande, porexemplo, 30 a 40 unidades colusivas, a utilidade da impres-são digital é reduzida de modo que grande parte dela podenão ser possivel para que o detector de impressão digitaldetecte a existência de impressão digital na cópia colusiva.
SUMÁRIO
A dessincronização resistente a colusão, para usoem impressão digital de video, é descrita, de modo que umvideo a ser protegido é dessincronizado, criando, desse mo-do, um ou mais videos com impressão digital. Em uma imple-mentação, um video a ser protegido é temporal e espacialmen-te dessincronizado. Uma cópia com impressão digital do vi-deo, modificada pelas dessincronizações temporal e espacial,é criada.
BREVE DESCRIÇÃO DOS DESENHOS
A descrição detalhada é descrita com referência àsfiguras em anexo. Nas figuras, o(s) digito(s) mais à esquer-da de um número de referência identifica a figura na qual onúmero de referência aparece primeiro. O uso dos mesmos nú-meros de referência em diferentes figuras indica itens simi-lares ou idênticos.
A Figura 1 ilustra uma linha de tempo exemplifica-tiva permitindo que Índices de tempo amostrados uniformemen-te sejam comparados a índices de tempo amostrados aleatória-mente.
A Figura 2 ilustra aspectos exemplificativos dedessincronização temporal, incluindo as estratégias de de-formação de afinidade, em que o quadro Fi é deformado comrelação ao quadro F2.
A Figura 3 ilustra aspectos exemplificativos dedessincronização temporal, incluindo as estratégias de de-formação de afinidade, em que ambos os quadros Fi e F2 sãodeformados.
A Figura 4 ilustra aspectos exemplificativos dedessincronização temporal, incluindo estratégias de fluxoóptico.
A Figura 5 ilustra aspectos exemplificativos dedessincronização temporal, incluindo estratégias de comuta-ção de vetores de movimento.
A Figura 6 ilustra aspectos exemplificativos dedessincronização temporal, incluindo estratégias de interpo-lação temporal compensadas por movimento.
A Figura 7 ilustra aspectos exemplificativos deÍndices de tempo pseudo-aleatórios para reamostragem tempo-ral.
A Figura 8 ilustra aspectos exemplificativos dedessincronização temporal, incluindo estratégias de reamos-tragem temporal aleatórias limitadas.
A Figura 9 ilustra aspectos exemplificativos dedessincronização temporal, incluindo estratégias de salto deinterpolações.
A Figura 10 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de rotação,representação em escala e translação (RST).
A Figura 11 ilustra aspectos exemplificativos dedessincronização espacial.
A Figura 12 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de encurva-mento aleatório.
A Figura 13 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de filtra-ção de luminância.
A Figura 14 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de separa-ção de parâmetros.
A Figura 15 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de unifor-mização temporal.
A Figura 16 ilustra aspectos exemplificativos dedessincronização espacial, incluindo estratégias de distri-buição de parâmetros.
A Figura 17 ilustra um meio fisico de computaçãoexemplificativo, adequado para implementação de dessincroni-zação resistente a colusão para impressão digital de video.
DESCRIÇÃO DETALHADA
A discussão apresentada a seguir é dirigida a sis-temas e métodos que combatem os ataques de colusão, em quedois ou mais recipientes de cópias com impressão digital deconteúdo multimídia (por exemplo, um DVD com conteúdo audio-visual, tal como um filme) tentam combinar as suas cópiaspara criar uma versão de alta qualidade sem impressão digi-tal. Em particular, os sistemas e métodos são projetados pa-ra resultar na geração de características perceptivas, se ascópias com impressão digital são recombinadas.
A Figura 1 mostra uma técnica de dessincronizaçãoexemplificativa 100, usada para colocar impressão digital emconteúdo multimídia para oposição a ataques de colusão. Namodalidade da Figura 1, um esquema de dessincronização re-os domínios temporal e espacial. Cada cópia de video de usu-ário é ligeiramente alterada de um modo tal que as variaçõesnão vão ser perceptíveis para cada cópia individual, mas vãoser suficientemente significativas para produzir caracterís-ticas perceptivas, quando cópias múltiplas forem combinadas(por exemplo, por métodos tais como o de calcular a média).
Uma vez que as características físicas dos eixos temporal eespacial diferem significativamente, a dessincronização tem-poral e espacial é tipicamente separada em duas etapas. Emuma primeira etapa, amostragem pseudo-aleatória limitada éprimeiramente aplicada no domínio temporal. Supondo um con-junto de quadros de video uniformemente amostrado ao longodo eixo de tempo, uma interpolação de quadros à base de mo-vimento é empregada para gerar novos quadros de video a Ín-dices de tempo arbitrários. Em uma segunda etapa, cada qua-dro de video é ainda dessincronizado por uma operação geomé-trica global, envolvendo rotação, representação em escala etranslação, seguido por um encurvamento aleatório local, u-sando uma grade de amostragem espacial aleatorizada. Os i-tens de qualidade perceptiva são abordados por uniformizaçãodos parâmetros de dessincronização ao longo dos eixos espa-cial e temporal. Além disso, o item de segurança de dessin-cronização é analisado em termos de complexidade computacio-nal.
Em particular, a Figura 1 mostra um exemplo 100 deuma modalidade, na qual amostragem temporal pseudo-aleatóriade video e técnicas de dessincronização espacial são combi-nadas para produzir cópias com impressão digital de um vi-deo, que pode ser relacionado com um recipiente original, e,quando combinado com cópias com impressão digital similares,resulta em uma cópia falha danificada por característicasvisíveis. No bloco 102, um video a ser protegido é dessin-cronizado temporalmente. No bloco 104, o video é dessincro-nizado espacialmente. No bloco 106, uma cópia com impressãodigital do video é criada, modificada por dessincronizaçãotemporal e espacial.
Amostragem temporal pseudo-aletória de video
Essa seção detalha a dessincronização temporal, umtópico introduzido pelo bloco 102 da Figura 1. A dessincro-nização temporal pode utilizar amostragem temporal pseudo-aleatória, envolvendo interpolação de quadros de video. Oproblema básico associado com a interpolação de quadros devideo é que supondo um par de quadros de video próximos emtempo (por exemplo, Fia um tempo ti e F2 a um tempo t2, emque (t2 > ti) e T = t2 - ti é o periodo de quadros do videofonte), quer-se gerar um quadro intermediário no tempo (ti +A.T) , quando 0 < A > 1. Em muitos casos, o cálculo direto damédia dos pixels dos quadros correspondentes não vai gerarum bom resultado, porque os objetos nos quadros de videotendem a movimentarem-se e esse movimento deve ser conside-rado, quando a interpolação é conduzida. Conseqüentemente,há uma necessidade para técnicas mais sofisticadas.
A dessincronização temporal pode utilizar amostra-gem temporal pseudo-aleatória. A amostragem temporal pseudo-aleatória de video pode utilizar uma estratégia de deforma-ção de afinidade, para proporcionar a base para interpolaçãode quadros de video. Por exemplo, supondo dois quadros devideo Fi e F2, é vantajoso deformar Fi em relação a Fi. Ascoordenadas em Fx podem ser denotadas por (xi, yi) e aquelasem F2 por (x2, y2) • Coordenadas homogêneas podem ser usadaspara descrever a deformação de afinidade bidimensional (2-D)de Fi para F2, de acordo com:
<table>table see original document page 9</column></row><table>
A matriz da transformada de afinidades é denotadana equação acima por W. Os parâmetros wi a w6 consideram asoperações de rotação, representação em escala e translação.
Todos esses parâmetros são primeiro estimados nas imagensamostradas descendentemente de Fi e F2, depois representadasem escala para cima e refinadas para imagens de maior tama-nho, até atingirem finalmente o tamanho de quadro original.
A busca de parâmetros envolve a descoberta de umasolução para um problema de minimização. Denotar a operaçãode deformação de um quadro por warpw(.)/ e uma métrica dedistância que mede a distância entre dois quadros pordist(;.). Uma vez que a operação de deformação é determinadaunicamente pelos parâmetros de deformação, vai-se tentar en-contrar o vetor de parâmetro w* = [wi * w2 * w3 * w4 * w5 *w6] de modo que
w* = min dist (warpw(Fi) (F2) (2)
Quando a métrica de distância é a soma do quadradodas diferenças, a fórmula acima se torna um problema de mí-nimos quadrados. Esse problema pode ser solucionado pelo al-goritmo de Lucas-Kanade clássico, que usa essencialmente ométodo de Gauss-Newton, para encontrar os mínimos.
Para reduzir a complexidade de computação devido àalta dimensionalidade, notar que os parâmetros translativos,W3 e w6, são separáveis de outros parâmetros. Portanto, w3 ew6 podem ser determinados primeiro, seguido por um procedi-mento iterativo para atualizar o vetor de parâmetro até quefique convergente.
Conseqüentemente, a solução de deformação de afi-nidade pode ser aplicada por derivação de uma equação, quedescreve uma deformação de afinidade do quadro Fi para oquadro F2 dentro do vídeo, tal como a equação (1). A equaçãotendo sido derivada, um vetor de parâmetro descrevendo a de-formação pode ser encontrado por solução de um problema deminimização derivado da equação, tal como a equação (2).
A Figura 2 mostra uma modalidade 200 de dessincro-nização temporal caracterizada por uma solução de deformaçãode afinidade, em que Fi é deformado em relação a F2. A solu-ção de deformação de afinidade é encontrada dentro de umconjunto de funções de deformação 0, de modo que para qual-quer dada imagem I, uma imagem deformada I' pode ser geradapor aplicação de uma função de deformação (j)k ( . ) =0 para aimagem I, obtendo I' = (|)k (I), para distribuição para um u-suário k. Cada usuário vai receber, portanto, uma cópia di-ferente da imagem I, complicando, desse modo, um ataque decolusão. No bloco 202, uma matriz de deformação de afinidadeé derivada para deformar do quadro Fi para o quadro F2 den-tro do video, em que a matriz considera as operações de ro-tação, representação em escala e translação (RST). A equação(1) é representativa da matriz de transformação de afinida-de. No bloco 204, uma solução é encontrada para um problemade minimização associado com a matriz. A equação (2) é re-presentativa do problema de minimização. 0 problema de mini-mização pode ser atacado de qualquer maneira adequada. Porexemplo, no bloco 206 uma solução de minimos quadrados é a-plicada, na qual a equaç'ão é baseada em uma métrica de dis-tância, dist, que é a soma do quadrado das diferenças. Nobloco 208, a complexidade computacional do problema de mini-mização pode ser reduzida por separação dos parâmetrostranslativos de outros parâmetros, resolvendo primeiro paraos parâmetros translativos, e aplicando um procedimento ite-rativo ao vetor de parâmetro até que este fique convergente.
Desse modo, no exemplo mencionado acima, os parâmetros Wi ew6 foram primeiro determinados, reduzindo, desse modo, a di-mensionalidade do problema, para facilitar a solução para osparâmetros remanescentes.
A discussão acima da Figura 2 se refere, de umamaneira geral, a interpolação de quadros de video e, maisparticularmente, a uma ferramenta de deformação de afinidadepara amostragem temporal pseudo-aleatória. Sob essas cir-cunstâncias, notou-se que supondo dois quadros de video Fi eF2, é vantajoso deformar Fi em relação a F2. Uma ferramentade deformação de afinidade alternativa, apresentada na Figu-ra 3 e adaptada para uma aplicação similar, pode ser vanta-josa para deformar ambos Fi e F2.
Supor que se tem um determinado quadro Fi no tempoti e F2 no tempo t2 e quer-se deformar ambos os quadros Fi eF2 em relação a um caso de tempo (ti + A.T) , quando 0 < A £1. Estima-se primeiro a matriz de deformação W de Fi paraF2. Depois, as matrizes de transformada de afinidade parafrente e para trás WF e WB, que deformam Fi e F2 em relaçãoao tempo (ti + A.T), podem ser computadas de acordo com
<formula>formula see original document page 12</formula>
Os quadros deformados para frente e para trás Ffwdde Fi e Fbwd de F2 são obtidos por reamostragem de Fi e F2,respectivamente, nas coordenadas deformadas
Ffwd = resample (Fx(WF[x y 1]T)), e(5)Fbwd = resample (F2(WB[x y 1]T)).
Uma vez que o ponto de reamostragem pode não serem coordenadas de números inteiros, métodos de interpolação,tal como interpolação bilinear ou interpolação cúbica, podemser usados para produzir o valor de saida.
A Figura 3 mostra uma modalidade 300 de dessincro-nização temporal caracterizada por uma segunda solução dedeformação de afinidade, em que ambos Fi e F2 são deformadosem relação a um caso de tempo (ti + A.T), quando 0 < A ^ 1.
A segunda solução de deformação de afinidade é também encon-trada dentro de um conjunto de funções de deformação 0, demodo que para qualquer dada imagem I, uma imagem deformadapode ser gerada por aplicação de uma função de deformação(|)k (.) =0 para a imagem I, obtendo I' = <))k (I), para distri-buição para um usuário k. Cada usuário vai receber, portan-to, uma cópia diferente da imagem I, complicando, desse mo-do, um ataque de colusão. No bloco 302, uma matriz de defor-mação W de Fi a F2 é estimada. No bloco 304, matrizes de a-finidade para frente e para trás podem ser computadas, usan-do a matriz estimada W. As equações (3) e (4) acima são e-xemplos das matrizes para frente e para trás. As matrizespara frente e para trás propiciam o cálculo dos quadros de-formados para frente e para trás. Conseqüentemente, no bloco306 os quadros deformados para frente e para trás são obti-dos por reamostragem de Fi e F2 nas coordenadas deformadas.
No exemplo acima, as equações (5) e (6) mostram como os qua-dros para frente e para trás, Ffwd e Fbwd, podem ser obtidospor reamostragem e uso das matrizes para frente e para trás.No bloco 308, quando são produzidas coordenadas não inte-grais, a interpolação pode ser usada para produzir valoresde saida aceitáveis.
As modalidades de amostragem temporal pseudo-aleatória de video podem utilizar uma estratégia de fluxoóptico, para proporciona a base para interpolação de quadrosde video. Conseqüentemente, o fluxo óptico pode proporcionara amostragem temporal pseudo-aleatória de video, que é usadapara aplicar uma impressão digital ao video derivado de umvideo a ser protegido. O fluxo óptico se refere ao movimentobidimensional observado em dados de video. Uma vez que osolhos humanos percebem o movimento por observação dos pontoscorrespondentes em diferentes locais a diferentes tempos, aidentificação de um movimento sendo baseada considerando in-tensidade constante, que o valor de luminância do mesmo pon-to do objeto não varia, após movimento. Considerar que emuma seqüência de video, a variação de luminância é denotadapor f (x, y, t) . Supor que um ponto de objeto P no local es-pacial (x, y) e no tempo t se movimenta para (x + dx, y +dy) no tempo t + dt. Sob a consideração de intensidade cons-tante, tem-se
f (x + dx, y + dy, t + dt) = f (x, y, t) (7)
Considerando a continuidade do campo de luminânciaao longo dos eixos espacial e temporal, pode-se aplicar aexpansão de Taylor no lado esquerdo de (7), de modo que aequação fica entãof(x, y, t) + (ôf/ôx) dx + (Ôf/ôx) dy + (ôf/Ôt) dt =f (x, y, t) (8)
Então, chega-se na equação de fluxo óptico(ôf/ôx) vx + (ôf/ôx) vy + (ôf/ôt) =0(9)ou
(V/)S/ + (ôf/ôt) = 0(10)
em que (V/) é o vetor de gradiente espacial def (x, y, t) .
A equação de fluxo óptico nos oferece uma aborda-gem para computar o vetor de movimento, se for possivel es-timar o gradiente espacial e temporal da luminância. Em umamodalidade, os gradientes espaciais para localização (x, y)são estimados dentro de uma janela 5x5 centralizada em (x,y) . Conseqüentemente, a função da equação (10) pode ser au-mentada para computar os componentes x e y do vetor de movi-mento.
A Figura 4 mostra uma modalidade 400 de dessincro-nização temporal, caracterizada por aplicação de uma soluçãode fluxo óptico para reamostragem. Em particular, um vetorde gradiente espacial é usado para alterar os quadros dentrodo video, deformando, desse modo, o video diferentemente pa-ra cada usuário, para os quais cópias do video vão ser dis-tribuídas. No bloco 402, considera-se uma iluminação cons-tante / em um ponto (x, y) , antes e depois do movimento. Es-sa consideração é consistente com o rastreio natural feitopor olho humano, em que o movimento é observado mais facil-mente, quando o objeto tem uma aparência geralmente consis-tente. No bloco 404, uma equação de fluxo é derivada. Porexemplo, as equações (9) e (10) são representativas de equa-ções de fluxo óptico, que auxiliam na computação do vetor demovimento, tendo em vista uma estimativa do gradiente espa-cial e temporal da luminância. No bloco 406, um vetor de mo-vimento é computado com o qual se amostra o video usando V/e um gradiente espacial e temporal estimado da luminância.
As modalidades de amostragem temporal pseudo-aleatória de video pode utilizar uma estratégia de comutaçãode vetor de movimento, para proporcionar a base para inter-polação de quadros de video. A comutação do vetor de movi-mento auxilia na seleção de um vetor de movimento para cor-rigir a deformação implicada por W. Supor que são apresenta-dos um quadro Fx no tempo ti e um F2 no tempo t2 (t2 > ti) equer-se gerar um outro quadro no tempo (ti + A.T) . Vão sergerados primeiro três pares de quadros deformados. O primei-ro par é apenas os quadros de entrada (Fi, F2) . O segundopar é os quadros de entrada de deformação de afinidade emrelação ao caso de tempo (ti + A.T) , (Ffwd, Fbwd) . 0 terceiropar é o dos quadros de deformação de afinidade mais uma com-pensação de movimento por correção, (Ffwd, Fbwd) , em que ocampo de movimento é herdado do nivel de amostra abaixo pré-vio. Para cada par dos quadros, uma estimativa de movimentodiferencial é aplicada usando a abordagem de fluxo óptico.
Isso resulta em três campos de vetores de movimento. Suporque os campos dos vetores de movimento são vi(x, y) , v2(x,y) e v3(x, y) . A comutação do vetor de movimento é um pro-cesso para determinar um vetor de movimento preferido detrês vetores de movimento candidatos no local (x, y) , que éuma correção para a deformação de afinidade implicada por W.
0 critério de decisão é baseado na função de erro apresenta-da a seguir Ev(x, y) , que pode ser vista como uma forma prá-tica da equação de fluxo óptico (10)
<formula>formula see original document page 17</formula>
e S é uma pequena janela de 5 x 5 pixels centrali-zada em (x , y). O vetor de movimento v(x, y) é constante emrelação à soma, e V/x, V/y e V/t são funções de (x, y) . Essaformulação pode ser resolvida pelo algoritmo de Lucas-Kanadeclássico, que é essencialmente um método de Gauss-Newton,para resolver iterativamente um determinado problema de oti-mização numérica. Usando a função de erro acima, o vetor demovimento candidato, que atinge o erro minimo no local (x,y) , é selecionado como o novo vetor de movimento. Para apli-cação de interpolação, impõe-se uniformidade ao vetor de mo-vimento por aplicação de uma filtração uniforme no campo dovetor de movimento, usando filtração mediana ou média. Issoproduz o campo de vetor de movimento final v.
A Figura 5 mostra uma modalidade 500 de dessincro-nização temporal, caracterizada por aplicação de uma soluçãode comutação de vetor de movimento para reamostragem. Nobloco 502, uma pluralidade de pares de quadros deformados égerada. No bloco 504, um vetor de movimento é associado comcada par de quadros, obtendo-se, desse modo, uma pluralidadede vetores de movimento. No bloco 506, uma função de erro éaplicada a cada um dos vetores de movimento. A função de er-ro pode ser na forma da equação (11). No bloco 508, a funçãode erro é usada para selecionar um vetor de movimento parauso na dessincronização temporal.
As modalidades de amostragem temporal pseudo-aleatória de video podem utilizar uma estratégia de interpo-lação temporal compensada por movimento, para proporcionar abase para interpolação de quadros de video. Em uma estraté-gia de interpolação temporal compensada por movimento, osquadros de entrada podem ser deformados em relação a um casode tempo. Por exemplo, com base no campo de movimento v, osquadros de entrada Fi e F2 são deformados em relação ao casode tempo (ti + À.T), para gerar dois quadros deformados Gi eG2. Para esse fim, os vetores de movimento são representadosem escala linearmente, e o quadro deformado é a versão rea-mostrada do quadro-fonte. Por exemplo,
G1 = resample [Fi(x + Avx, y + Avy) ] (12)
e o quadro G2 pode ser obtido de um modo similar.
Uma vez que se obtém Gi e G2, o quadro de interpolação finalF(x, y) é obtido como
F(x, y) = (1 - A) . Gi(x, y) + A . G2(x, y) (13)
Conseqüentemente, o video pode ser dessincronizadotemporalmente por aplicação de uma interpolação temporalcompensada por movimento na reamostragem. Gi e G2 podem sergerados por deformação de Fx e F2 em relação a um caso detempo, tal como (ti + A.T) . de G2 podem ser depois reamos-trados de acordo com uma função de Fi e F2, tal como a equa-ção (12). Finalmente, o quadro interpolado F pode ser obtidocomo uma função de Gi e G2, tal como por uso da equação(13) .
A Figura 6 mostra uma modalidade 600 de dessincro-nização temporal, caracterizada por aplicação de uma soluçãode interpolação temporal compensada por movimento à reamos-tragem, em que os quadros de entrada Fi e F2 e um vetor demovimento associado v são usados para derivar um quadro in-terpolado F, de modo que a amostragem de F resulta em umaamostra com impressão digital. No bloco 602, os quadros Gi eG2 são gerados por quadros de deformação Fi e Fi em relação aum caso de tempo (ti + A.T) . Por exemplo, a equação (12)mostra como o quadro Gi pode ser obtido do quadro Fi. Nobloco 604, os quadros Gi e G2 são reamostrados dos quadros Fie F2. Por exemplo, a reamostragem pode ser executada de a-cordo com a equação (12). No bloco 606, um quadro interpola-do pode ser obtido como uma função dos quadros deformados Gie G2. Por exemplo, a equação (13) é um exemplo de como oquadro interpolado F pode ser obtido dos quadros deformadosG1 e G2.
As modalidades de amostragem temporal pseudo-aleatória de video podem utilizar uma estratégia de reamos-tragem temporal aleatória limitada, para proporcionar a basepara a interpolação de quadros de video. Em uma modalidade,os Índices de tempo pseudo-aleatório são gerados ao longo doeixo temporal, permitindo a reamostragem do vídeo nos casosde tempo recém-gerados, por meio de interpolação de quadros.Para atingir uma boa qualidade perceptiva, coloca-se a limi-tação de que pode haver pelo menos um quadro no video rea-mostrado, entre dois intervalos de quadros no video origi-nal, isto é, entre qualquer quadro i e i + 2 no video origi-nal. Com referência à Figura 7, pode-se notar que um indicede tempo amostrado aleatoriamente é localizado entre todosos Índices de tempo amostrados uniformemente. Essa limitaçãoinibe a instabilidade no vídeo reamostrado, ao mesmo tempo,propicia uma possibilidade para aleatorização temporal. Paraatingir esse objetivo, vão ser primeiro gerados incrementosde tempo aleatórios i.i.d. (distribuídos identicamente inde-pendentes) , Ai, que são distribuídos uniformemente na faixade [1 - 8, 1 + 8]. Vai-se depois inicializar t(0) = 0 e com-putar o índice de tempo t(i) = t(l - i) + Ai, para t = 1, 2,N. Aqui, N é o comprimento total do vídeo reamostrado,
que é um valor aleatório de acordo com N ~ Uniform [M(l -a) , M(l + a) ] , em que M é o número total de quadros no vídeooriginal. Finalmente, vão ser representados em escala os va-lores de t(l) a t (N) , para ter-se certeza de que todos osíndices de tempo caem na faixa de [0, M].
Dois parâmetros podem ser selecionados nessa con-figuração, 8, que controla o grau de instabilidade temporal,e a, que controla a variação de comprimento. Em um exemplopor meio do qual a dessincronização temporal pode ser imple-mentada, 8 e a podem ser selecionados como 8 = 0,75 e a =0,0035. Outros valores podem produzir resultados satisfató-rios em várias aplicações desses conceitos.
A Figura 8 mostra uma modalidade 800 de dessincro-nização temporal, caracterizada por aplicação de uma estra-tégia de reamostragem temporal aleatória limitada à rearaos-tragem, em que os Índices de tempo amostrados uniformementeassociados com o video são substituídos por Índices de tempoamostrados aleatoriamente associados com a reamostragem. Nobloco 802, os Índices de tempo pseudo-aleatórios são geradosao longo de um eixo temporal. O vídeo é então reamostradonos casos de tempo recém-gerados, tal como por uso de inter-polação de quadros. No bloco 804, a geração de índices detempo amostrados pseudo-aleatoriamente é limitada para re-querer pelo menos um quadro na reamostragem, entre dois in-tervalos de quadros no vídeo original. No exemplo da Figura7, pode-se notar que entre cada dois dos marcadores de qua-dros originais (vistos na parte de topo da linha de tempo),há um marcador de quadro pseudo-aleatório (visto no fundo dalinha de tempo). No bloco 806, os incrementos de tempo alea-tórios At são gerados e distribuídos uniformemente dentro deuma faixa [1 - ô, 1 + ô]. No bloco 808, o índice de tempo éinicializado e computado pelo comprimento do vídeo. Por e-xemplo, o índice de tempo pode ser inicializado em t(0) = 0,e o índice de tempo computado de acordo com t(i) = t(i - 1)+ A, para i = 1, 2, . . . , N, em que N é o comprimento do ví-deo reamostrado e é aleatório de acordo com N ~ Uniform [M(l- a), M(l + a)]. No bloco 810, os valores t(l) a t(N) sãorepresentados em escala para requerer que todos os índicesde tempo fiquem dentro de [0, M] , em que M é o número totalde quadros no vídeo. No bloco 812, as variáveis podem serselecionadas para controlar os aspectos do vídeo. Em parti-cular, a é selecionado para controlar o comprimento da vari-ação e 8 para controlar a instabilidade temporal. Por exem-plo, 8 pode ser ajustada a 0,75 e a pode ser ajustado a0,0035.
As modalidades da amostragem temporal pseudo-aleatória de video podem utilizar uma estratégia de salto deinterpolação, para melhorar o controle de qualidade. Quandoos quadros constituem coletivamente cenas de movimento rápi-do e/ou complexas, o uso de interpolação de quadros pode nãoresultar em um resultado perceptivo satisfatório. Portanto,a qualidade do quadro interpolado pode ser controlada porsalto dos quadros que representam movimento rápido e comple-xo. Quantitativamente, a variância do campo do vetor de mo-vimento pode ser computado como var(vx) e var(vy), em que ainterpolação é saltada quando a soma de var(vx) + var(vy)for maior do que um valor de limiar Vth- Em uma implementa-ção, o tamanho do quadro pode ser ajustado a 640 x 480 pi-xels e Vth pode ser ajustado a 300. Em geral, o uso de umtamanho de quadro menor deve resultar em uma redução propor-cional do limiar, com base na largura ou altura do quadro.
A Figura 9 mostra uma modalidade 900 de uma estra-tégia de salto de interpolação, para melhorar o controle dequalidade. No bloco 902, determina-se que quadros dentro dovideo descrevem o video complexo e de movimento rápido. Es-ses quadros representam um aspecto de qualidade potencial,se amostragem temporal pseudo-aleatória for aplicada. Nobloco 904, os quadros determinados para descrever o videocomplexo e de movimento rápido são notados, e a reamostragemdesses quadros é pulada.
Dessincronização espacial de vídeo
Essa seção discute a dessincronização espacial, umtópico introduzido pelo bloco 104 da Figura 1. A dessincro-nização espacial pode ser usada em conjunto com a amostragemtemporal pseudo-aleatória de vídeo, para criar a dessincro-nização. Uma implementação de dessincronização espacial in-clui ambas as operações globais e as operações locais. Asoperações globais incluem rotação, representação em escala etranslação (RST) de quadros. As operações locais incluem en-curvamento aleatório uniformemente variável e a filtração deluminância. Para obter uma boa qualidade perceptiva, os pa-râmetros para essas operações são gerados como sendo tantoespacial quanto temporalmente uniformes.
As operações RST são uma forma de dessincronizaçãoespacial. As rotação, representação em escala e translação(deslocamento) podem ser representados usando uma coordenadahomogênea. Supor que as coordenadas antes das operações RSTsão (xi, yi) , aquelas depois de RST (X2, Y2) , uma rotação de9 graus vai propiciar a seguinte relação
<formula>formula see original document page 23</formula>
De modo similar, pode-se encontrar a relação decoordenadas após translação de (tx, ty)<formula>formula see original document page 24</formula>
e a relação após representação em escala
<formula>formula see original document page 24</formula>
O efeito global pode ser representado usando umacombinação de matrizes de transformadas de rotação, transla-ção e representação em escala.
Na implementação das equações 14 - 16, o ângulo derotação 0, o fator de representação em escala sx e sy, e ograu de translação tx e ty são selecionados para serem liga-dos, de modo a obter a impercepção das operações RST. As se-leções consistentes com isso incluem: 9 e [-©, 0] ; sx, sy e[1 - S, 1 - S]; e ty 8 [-r,T]. Nessa implementação, a inter-polação flexivel cúbica é usada e o periodo é selecionadocomo T = 32. Em uma implementação, as variações dos parâme-tros RST são ajustadas como 0 = rc/100, S = 0,04 e T sendo 1%da dimensão do quadro.
A Figura 10 mostra uma modalidade 1000 de dessin-cronização espacial, caracterizada por aplicação de uma es-tratégia, incluindo, tipicamente, operações globais para ro-tação, representação em escala e translação (RST) de qua-dros. No bloco 1002, pontos dentro do video a ser protegidosão girados. No bloco 1004, os pontos dentro do video a serprotegido são representados em escala. No bloco 1006, ospontos dentro do vídeo a ser protegido são transladados. No-tar que uma, duas ou todas as operações RST podem ser apli-cadas, como desejado. Essas operações proporcionam aleatori-edade e constituem parte da impressão digital aplicada aovídeo.
O encurvamento aleatório é uma ferramenta para areamostragem espacial de uma imagem nos locais abaixo dospixels aleatórios. Usualmente, em imagens digitais, os pi-xels são amostrados a uma grade uniforme, como mostrado naFigura 11. No encurvamento aleatório, a grade de amostragemoriginal é substituída por uma grade de amostragem pseudo-aleatória usando uma chave. O número de pontos de amostragemé preservado, antes e após o encurvamento. Para preservar aqualidade perceptiva, vários requisitos precisam ser satis-feitos. O primeiro é preservar a ordem dos locais de amos-tragem, isto é, se dois locais de amostragem (xi, xk) e (xj,yk) estiverem na mesma "linha", com i < j, então xi < Xj. Amesma regra se aplica à ordenação das colunas. O segundo éter-se certeza que a maior parte das regiões é aproximada-mente amostrada uniformemente. Matematicamente, quer dizerque qualquer região convexa S com uma área superior a A, de-ve existir pelo menos um ponto de amostragem P dentro de S.Seleciona-se uma grade de amostragem espacialmente perturba-da como a grade de encurvamento. Para cada local de amostra-gem original (x, y), gera-se um vetor de perturbação (A,Ay) , e os novos locais de amostragem (x1, y') sãox' = x + Ax- (17a)e
y' = y + Ay. (17b)
Os vetores de perturbação [Áx (i, j), Ày (i, j)]para todos os locais de amostragem formam um campo. Para ga-rantir que o campo dos vetores de perturbação seja espacial-mente variável uniformemente, propõe-se obter, periodicamen-te, os vetores de perturbação i.i,d e interpolar o campo devetor em locais não preenchidos. Isso é feito pelas seguin-tes duas etapas:
Gerar os vetores de perturbação (Ax(kT, rT) para k=0, 1, 2 r = 0, 1, 2, e algum periodo T.
Interpolar os valores dos vetores de perturbaçãono campo 2-D, usando interpolação bilinear ou bicúbica. Pri-meiro, a interpolação de linhas é aplicada e depois a inter-polação de colunas é aplicada.
A Figura 12 mostra uma modalidade 1200 de dessin-cronização espacial caracterizada por operações de encurva-mento aleatório. No bloco 1202, uma grade de amostragempseudo-aleatória é gerada, usando tipicamente uma chave. Nobloco 1204, a ordem dos locais de amostragem é preservada,com relação a ambas as linhas e colunas. No bloco 1206, to-das as regiões tendo uma área maior do que um limiar são a-mos.tradas . No bloco 1208, os vetores de perturbação são ge-rados periodicamente para os locais amostrados. No bloco1210, os vetores de perturbação são uniformizados, tipica-mente por uma técnica, tal como interpolação.
A filtração de luminância é uma ferramenta usadapara aguçar ou uniformizar aleatoriamente uma área diferentedentro de um video. A filtração de luminância tem dois efei-tos. Primeiro, após operações de interpolação temporal, RSTespacial e encurvamento, as imagens geradas tendem a ficarobscuras. Desse modo, pode-se usar um filtro para aguçar asbordas para melhorar a qualidade perceptiva da saida final.Segundo, os parâmetros dos filtros de luminância podem sertornados aleatório, produzindo mais aleatoriedade no videodessincronizado. Em uma modalidade apresentando um sistemade dessincronização, considera-se um filtro de luminância 3por 3 simétrico da forma
(-B/i -B/8 -B/ti)-B/8 A+B -B/8-B/8 -B/8 -B/8j
(17C)
Aqui, o parâmetro A controla a energia total dofiltro e o parâmetro B considera o efeito de aguçamento. Pa-ra uma boa qualidade perceptiva, A deve ficar próximo aleB deve ser maior do que 0, para atingir um efeito de aguça-mento de borda. Em uma implementação exemplificativa, A é nafaixa de [1 - 0,004, 1 + 0,04] e B é na faixa [0, 0,7].
A Figura 13 mostra uma modalidade 1300 de dessin-cronização espacial caracterizada por filtração de luminân-cia. No bloco 1302, um filtro de luminância simétrica é cri-ado. O filtro pode ser da forma da equação (17C) ou similar.No bloco 1304, os parâmetros são selecionados para aumentara qualidade perceptiva e aumentar a aleatoriedade na cópiacom impressão digital do video. Em uma modalidade, na qualum filtro, tal como a equação (17C), é usado, os parâmetrosA e B são selecionados para sintonizar o filtro de luminân-cia, como desejado.
As ferramentas de uniformização e otimização deparâmetros são configuradas para controlar os valores dosparâmetros e produzir cópias dessincronizadas diferentementede um video. Uma dessas ferramentas, "separação de parâme-tros" ajuda a proporcionar um valor suficientemente diferen-te para os parâmetros associados com diferentes cópias de umvideo. Como discutido antes, os parâmetros RST são ligadospara preservar a qualidade perceptiva. Além do mais, paraproduzir uma diferença suficiente entre duas cópias dessin-cronizadas diferentemente de video, os parâmetros também nãoprecisam ser separados (isto é, tornados distintos) com umadimensão de etapa suficientemente grande. Para determinar adimensão da etapa adequada na separação, o experimento des-crito a seguir pode ser conduzido. Em um exemplo, duas có-pias de um quadro 640 x 480 são rateados, em que a primeiracópia é a cópia original e a segunda cópia é a cópia apósrotação por Ae. Depois, os dois quadros são rateados e ob-servados para determinar se há quaisquer característicasperceptivas no quadro rateado, tal como obscuridade. Geral-mente, usar o menor valor de Ae, que provoca característicasperceptivas como a dimensão de etapa distinta. Usando-se a-bordagens similares, determinar a dimensão de etapa dos pa-râmetros de representação em escala e translação. Por exem-plo, selecionar oito níveis de quantificação para o parâme-tro de rotação, oito para os parâmetros de translação, e pa-ra os parâmetros de representação em escala. Esses resulta-dos estão resumidos na Tabela I.
TABELA I
SEPARAÇÃO DE PARÂMETROS PARA OPERAÇÕES RST
<table>table see original document page 29</column></row><table>
A Figura 14 mostra uma modalidade 1400 de dessin-cronização espacial caracterizada por uniformização e otimi-zação de parâmetros. Essa operação proporciona uma dimensãode etapa, pela qual as operações de dessincronização espaci-al podem ser conduzidas. No bloco 1402, uma operação de ro-tação é conduzida em um quadro. No bloco 1404, o quadro e oquadro girado são rateados conjuntamente. O método pelo qualesse rateio é conduzido é relativamente flexivel. No bloco1406, pequenos valores, pelos quais a operação de rotaçãopode ser conduzida, são determinado, em que os valores re-sultam em características perceptivas no quadro rateado. Nobloco 1408, os pequenos valores são utilizados como uma di-mensão de etapa distinta na criação da cópia com impressãodigital. No bloco 1410, os blocos 1402 - 1408 são repetidospara as operações de representação em escala e translação,obtendo, desse modo, dimensões de etapas distintas para es-sas operações.
As ferramentas de uniformização temporal são usa-das para uniformizar as imagens de video dos quadros dessin-cronizados. Como um sinal tridimensional (3-D), o video pro-porciona ambas a oportunidade e o problema para dessincroni-zação espacial. Uma vez que o sistema visual humano pode re-ter uma imagem após visão dela por um curto tempo, a taxa dequadros de video padrão de cerca de 30 quadros por segundopode uniformizar as pequenas distorções nos quadros indivi-duais. Por conseguinte, algumas distorções, que provocariamcaracterísticas perceptivas, quando vistas como imagens pa-radas, não provocariam características perceptivas, quandovistas como imagens em movimento. Por outro lado, olhos hu-manos são sensíveis a variações temporais e espaciais em umaseqüência de video.
Por exemplo, quando um quadro é girado por 0,5grau e visto como uma imagem parada, usualmente a rotaçãonão vai ser notada. No entanto, se esse quadro for seguidopor outro quadro girado por -0,5 grau, essas rotações vãoser claramente notadas, porque vai haver um efeito de "ins-tabilidade".
Para alcançar uniformidade temporal no nosso es-quema, vai-se selecionar gerar os campos dos parâmetros deRST, encurvamento e filtração de luminância para todos osoutros L quadros e usar interpolação linear para obter oscampos dos parâmetros nos quadros intermediários. A interpo-lação linear é selecionada para economizar o tempo de atua-lização de parâmetros e o armazenamento necessário. Por e-xemplo, supor-se que vai-se gerar o parâmetro de rotaçãor(k) para o k° quadro e r(k + L) para o (k + L)° quadro. Oparâmetro r(i) para k<i<k+Lé
r(i) = [ (i - k) (r(k + L) - r(k) ]/L
Na implementação acima, o parâmetro L = 128, quecorresponde a cerca de 4 segundos, se a taxa de video for de30 quadros por segundo.
A Figura 15 mostra uma modalidade 1500 de dessin-cronização espacial por uniformização temporal. No bloco1502, os parâmetros RST (rotação, representação em escala etranslação), encurvamento e/ou filtração de luminância sãogerados no video para todos os outros N quadros. No bloco1504, os campos de parâmetros nos quadros intermediários en-tre os grupos de N quadros são determinados por interpola-ção. Por conseguinte, a uniformidade temporal é melhorada,desse modo, removendo parte do efeito de instabilidade in-troduzido pelas operações de RST, encurvamento e filtraçãode luminância.
As ferramentas de distribuição de parâmetros auxi-liam na separação dos quadros das versões dessincronizadasdo video. Supor que se tem um quadro F e duas versões des-sincronizadas desses quadros Fi e F2. Para deter a colusão,gostaria-se que a distância entre Fi e F2 fosse a mais dis-tante possivel. Uma possivel medida de distância é a dife-rença pixel a pixel, isto é, d[Fi(x, y) , F2(x, y) ] = [Fx(x,y) - F2(x, y) ] . Supor que Fi e F2 são apenas versões giradasde F, em que Fi é girado por um ângulo de 0i e F2 por 62-Considerar que um pixel no local (x, y) no quadro Fi é dolocal (xi, yi) no quadro F, e esse pixel (x, y) no quadro F2é o local do quadro (x2, y2) no quadro F, isto éFi(x, y) = F(xi, yi) e F2 (x, y) = F(x2, y2) .
De acordo com a eq. (14), tem-se:
xi = cosOi.x - senBi.y,
yi = senBi.x + cosGi.y,
x2 = cos62.x - sen02.y, e
y2 = sen02.x + cos02.y.
Considera-se que os ângulos de rotação 9i e 92 sãomuito pequenos, o que é verdadeiro no caso da dessincroniza-ção, porque quer-se manter aproximadamente o mesmo conteúdo.
Sob essa consideração, tem-se
cosOi ~ 0; senGi ~ Oi; cos02 ~ 0; cemG2 ~ 02(19)
A distância pixel a pixel entre dois quadros édist[Fi(x, y) , F2(x, y) ]
= [Fi(x, y) - F2(x, y)]
= [F(xi, yi) - F(x2, y2) ]~ [F(x - Giyiy + 0ix) - F(x - 02y2y + 02x) ]
Considera-se que o valor de luminância de F variaaproximadamente linearmente em uma pequena vizinhança dequalquer local (x, y) , uso de L2 normal para medir a distân-cia espacial, então a equação acima fica
dist[Fi(x, y) , F2(x, y)]
= a. | I ( (x - 0!.y, y + 02.x) , (x - 02.y, y + 02.x) | |
= a . |0i - 021 Vx2 + y2. (21)
Resultados similares podem ser derivados para asoperações de translação, representação em escala e encurva-mento. Fica claro de acordo com essa derivação que caso sequeira maximizar a distância entre duas versões de quadrosdessincronizados, necessita-se maximizar a distância entreos dois parâmetros de rotação. Uma vez que os dois parâme-tros de rotação são variáveis aleatórias i.i.d. assumindovalores de um conjunto distinto (-0, -© + Ae, -0 + 2Ag,0) , o problema se torna encontrar a distribuição p para oparâmetro, que maximiza a distância esperada entre 0i e 02. Usa-se o L2 normal para medir a distância e formular o pro-blema como se segue:
max E(O1 - 02)2(22)
P
A formulação acima leva a uma distribuição que éPr(G = -0) = Pr(9 = -0) = 1/2.
Essa distribuição, embora maximizada da distânciaesperada entre quaisquer duas cópias giradas de um quadro,não pode suportar um ataque de força bruta, porque o grau dealeatoriedade é muito pequena. Portanto, uma limitação dealeatoriedade pode ser adicionada à formulação (22), como sesegue:
max E(O1 - 02)2subject to H(P)>hi(23)P
em que H ( . ) denota a entropia de uma distribuiçãoe h é um limiar para a entropia. Uma vez que o parâmetro derotação foi quantificado em oito niveis, a entropia possivelmáxima é 3 bits. Selecionar um limiar de entropia h = 2,8bits e solucionar (23) numericamente para obter a distribui-ção nas primeiras duas linhas na Tabela II. Fornece-se ape-nas a pmf de um lado, uma vez que a pmf é simétrica. Notarque a distribuição é a solução para (23) para todas as pmfsde oito niveis. Portanto, pode-se também usar como a distri-buição para o parâmetro de translação. Para o parâmetro derepresentação em escala, uma vez que é quantificado em qua-tro niveis, selecionar o limiar de entropia h = 1,9 bit e apmf correspondente é mostrada nas últimas duas linhas na Ta-bela II.
TABELA II
DISTRIBUIÇÃO DE PARÂMETROS PARA OPERAÇÕES RST
<table>table see original document page 34</column></row><table>
A Figura 16 mostra uma modalidade 1600 de dessin-cronização espacial caracterizada por ferramentas de distri-buição de parâmetros. Essas ferramentas são úteis no aumentoda distância entre dois quadros dentro de duas cópias comimpressão digital de um video. No bloco 1602, os quadros Fie F2 são separados, em que os quadros Fi e F2 são associadosdentro das cópias com impressão digital 1 e 2 do quadro F dovideo. A separação é conduzida por parâmetros de rotação,representação em escala, translação e encurvamento aleatóriode distanciamento, associados com Fi e F2. No bloco 1604,uma limitação aleatória é introduzida nos parâmetros usadosna criação de Fi e F2, em que a limitação aleatória é umafunção da entropia de uma distribuição dos parâmetros exce-dendo um valor de limiar.
Meio fisico de computação exemplificativo
A Figura 17 ilustra um meio fisico de computaçãoexemplificativo, adequado para implementar dessincronizaçãoresistente a colusão para impressão digital de video. O meiofisico de computação 1700 inclui um sistema de computaçãomultipropósito, na forma de um computador 1702. Os componen-tes do computador 1702 podem incluir, mas não são limitadosa, um ou mais processadores ou unidades de processamento1704, uma memória de sistema 1706, e um barramento de siste-ma 1708, que acopla os vários componentes do sistema, inclu-indo o processador 1704, à memória do sistema 1706. O barra-mento do sistema 1708 representa um ou mais de quaisquer ti-pos de estruturas de barramento, incluindo um barramento dememória ou um controlador de memória, um barramento perifé-rico, um barramento de Interligação de Componentes Periféri-cos (PCI), uma porta gráfica acelerada, e um processador oubarramento local usando quaisquer das várias arquiteturas debarramento.
O computador 1702 inclui tipicamente vários meioslegiveis por computador. Esses meios podem ser quaisquermeios disponíveis, que são acessíveis pelo computador 1702 eincluem ambos os meios voláteis e não voláteis, bem como am-bos os meios removíveis e não removíveis. A memória do sis-tema 1706 incluem meios legiveis por computador na forma dememória volátil, tal como memória de acesso aleatório (RAM)1710, e/ou memória não volátil, tal como memória exclusivade leitura (ROM) 1712. Um sistema de entrada / saida básico(BIOS) 1714, contendo as rotinas básicas que ajudam a trans-ferir informações entre os elementos dentro do computador1702, tal como durante partida, é armazenado na ROM 1712. ARAM 1710 contém tipicamente dados e/ou módulos de programas,que são imediatamente acessíveis e/ou em operação atual naunidade de processamento 1704.
O computador 1702 também pode incluir outros meiosde armazenamento em computador voláteis / não voláteis, re-movíveis / não removíveis. Por meio de exemplo, a Figura 17ilustra uma unidade de disco rigido 1716, para leitura de, eescrita em, um meio magnético não volátil, não removível(não mostrado), uma unidade de disco magnético 1718, paraleitura de, e escrita em, um disco magnético não volátil,removível 1720 (por exemplo, "um disco flexível"), e uma u-nidade de disco óptico 1722 para leitura de, e escrita em,um disco óptico não volátil, removível 1724, tal como um CD-ROM, DVD-ROM ou outros meios ópticos. As unidade de discorigido 1716, unidade de disco magnético 1718 e unidade dedisco óptico 1722 são todas ligadas ao barramento do sistema1708 por uma ou mais interfaces de meios de dados 1725. Al-ternativamente, as unidade de disco rigido 1716, unidade dedisco magnético 1718 e a unidade de disco óptico 1722 podemser ligadas ao barramento do sistema 1708 por uma interfaceSCSI (não mostrada).As unidades de disco e os seus meios legíveis porcomputador associados proporcionam armazenamento não volátilde instruções legíveis por computador, estruturas de dados,módulos de programas e outros dados para o computador 1702.
Embora o exemplo ilustre um disco rigido 1716, um disco mag-nético removível 1720 e um disco óptico removível 1724, vai-se considerar que outros tipos de meios legíveis por compu-tador, que podem armazenar dados, que são acessíveis por umcomputador, tais como cassetes magnéticos ou outros disposi-tivos de armazenamento magnético, cartões de memória instan-tânea, CD-ROM, discos versáteis digitais (DVD) ou outro ar-mazenamento óptico, memórias de acesso aleatório (RAM), me-mórias exclusivas de leitura (ROM), memória exclusiva deleitura programável, eletricamente apagável (EEPROM) e asse-melhados, podem ser utilizados também para implementar ossistema e meio fisico de computação exemplificativos.
Qualquer número de módulos de programas podem serarmazenados no disco rigido 1716, disco magnético 1720, dis-co óptico 1724, ROM 1712 e/ou RAM 1710, incluindo, por meiode exemplo, um sistema operacional 1726, um ou mais progra-mas aplicativos 1728, outros módulos de programas 1730 e da-dos de programas 1732. Todos esses sistema operacional 1726,um ou mais programas aplicativos 1.728, outros módulos deprogramas 1730, e dados de programas 1732 (ou algumas combi-nações deles) podem incluir uma modalidade de um esquema dearmazenamento em um cache, para informações de acesso à redede usuários.
O computador 1702 pode incluir vários meios legi-veis por computador / processador, identificados como meiosde comunicação. Os meios de comunicação representam, tipica-mente, instruções legiveis por computador, estruturas de da-dos, módulos de programas, ou outros dados em um sinal dedados modulado, tal como uma onda portadora ou outro meca-nismo de transporte, e incluem quaisquer meios de transfe-rência de informações. 0 termo "sinal de dados modulado"significa um sinal que tem uma ou mais das suas caracterís-ticas ajustadas ou alteradas de uma maneira tal a codificaras informações no sinal. Por meio de exemplo, e não limita-ção, os meios de comunicação incluem meios ligados com fio,tal como uma rede ligada com fio ou uma conexão de ligaçãodireta, e meios de ligação sem fio, tais como meios acústi-cos, RF, infravermelhos e outros meios de ligação sem fio.
As combinações de quaisquer dos mencionados acima são tambémincluídas dentro do âmbito de meios legiveis por computador.
Um usuário pode introduzir comandos e informaçõesno sistema computacional 1702 por meio de dispositivos deentrada, tal como um teclado 1734 e um dispositivo apontador1736 (por exemplo, um "mouse") . Outros dispositivos de en-trada 1738 (não mostrados especificamente) podem incluir ummicrofone, um joystick, um acionador de jogo, uma antena pa-rabólica, uma porta serial, um escâner, e/ou assemelhados.
Esses e outros dispositivos de entrada são ligados à unidadede processamento 1704 por meio de interfaces de entrada /saida 1740, que são acopladas ao barramento do sistema 1708,mas podem ser ligadas por outras estruturas de interface ebarramento, tal como uma porta paralela, uma porta de jogoou um barramento serial universal (USB).
Um monitor 1742 ou outro tipo de dispositivo visortambém pode ser ligado ao barramento do sistema 1708 por umainterface, tal como um adaptador de video 1744. Além do mo-nitor 1742, outros dispositivos periféricos de saida podemincluir componentes, tais como alto-falantes (não mostrados)e uma impressora 1746, que podem ser ligados ao computador1702, pelas interfaces de entrada / saida 1740.
O computador 1702 pode operar em um meio fisicoligado em rede, usando conexões lógicas, a um ou mais compu-tadores remotos, tal como o dispositivo de computação remoto1748. Por meio de exemplo, o dispositivo de computação remo-to 1748 pode ser um computador pessoal, um computador portá-til, um servidor, um roteador, um computador em rede, umdispositivo local ou outro nó de rede comum, e assemelhados.
O dispositivo de computação remoto 1748 é ilustrado como umcomputador portátil, que pode incluir muitos dos, ou todosos, elementos e aspectos descritos na presente descrição emrelação ao sistema computadorizado 1702.
As conexões lógicas entre o computador 1702 e ocomputador remoto 1748 são ilustradas como uma rede de árealocal (LAN) 1750 e uma rede de longa distância (WAN) 1752.
Esses meios fisicos ligados em rede são usuais em escritó-rios, redes de computadores em empresas, redes internas e naInternet. Quando implementados em um meio fisico ligado emrede LAN, o computador 1702 é ligado a uma rede local 1750por uma interface ou adaptador de rede 1754. Quando imple-mentados em um meio fisico ligado em rede WAN, o computador1702 inclui, tipicamente, um modem 1756 ou outro meio paraestabelecer comunicações por rede de longa distância 1752. Omodem 1756, que pode ser interno ou externo ao computador1702, pode ser conectado ao barramento do sistema 1708 pelasinterfaces de entrada / saida 1740 ou por outros mecanismosadequados. Vai-se considerar que as conexões de rede ilus-tradas são exemplificativas e que outros meios de estabele-cer uma ou mais ligações de comunicação, entre os computado-res 1702 e 1748, podem ser empregados.
Em um meio fisico ligado em rede, tal como aqueleilustrado com o meio fisico de computação 1700, os módulosde programas ilustrados relativos ao computador 1702, oupartes deles, podem ser armazenados em um dispositivo de ar-mazenamento de memória remoto. Por meio de exemplo, os pro-gramas aplicativos remotos 1758 residem em um dispositivo dememória de computador remoto 1748. Para fins ilustrativos,os programas aplicativos e outros componentes de programasexecutáveis, tal como o sistema operacional, são ilustradosna presente descrição como blocos distintos, embora se reco-nheça que esses programas e componentes residam em váriosmomentos em diferentes componentes de armazenamento do sis-tema computadorizado 1702, e são executados por um ou maisprocessadores de dados do computador.
Conclusão
Os sistemas e métodos exemplificativos para imple-mentação dos aspectos de dessincronização resistente a colu-são, para impressão digital de video, foram descritos, emparte, por referência aos fluxogramas das Figuras 1-6, 8 -10 e 12 - 16. Os elementos dos métodos descritos podem serexecutados por quaisquer meios adequados, incluindo, por e-xemplo, blocos lógicos de hardware em um ASIC, ou por execu-ção de instruções legiveis por processador em um meio legi-vel por processador. Um "meio legível por processador", comoaqui usado, pode ser qualquer meio que pode conter, armaze-nar, comunicar, propagar ou transportar instruções para usoou execução por um processador. Um meio legivel por proces-sador pode ser, sem limitação, um sistema, aparelho, dispo-sitivo ou meio de propagação eletrônico, magnético, óptico,eletromagnético, infravermelho ou semicondutor. Os exemplosmais específicos de um meio legivel por processador incluem,entre outros, uma conexão elétrica tendo um ou mais fios, umdisquete de computador portátil, uma memória de acesso alea-tório (RAM), uma memória exclusiva de leitura (ROM), uma me-mória exclusiva de leitura programável, apagável (EPROM oumemória instantânea), uma fibra óptica, um disco compactoreescrevivel (CD-RW), e uma memória exclusiva de leitura dedisco compacto portátil (CD-ROM).
Embora os aspectos dessa descrição incluam umalinguagem descrevendo especificamente os aspectos estrutu-rais e/ou metodológicos de modalidades preferidas, deve-seentender que as reivindicações em anexo não são limitadasaos aspectos ou atos específicos descritos. Em vez disso, osaspectos e atos específicos são descritos apenas como imple-mentações exemplificativas, e são representativos de concei-tos mais gerais.

Claims (20)

1. Um ou mais meios legíveis por computador,CARACTERIZADOS pelo fato de que compreendem instruções exe-cutáveis por computador para impressão digital de video, asinstruções executáveis por computador compreendendo instru-ções para:dessincronização temporal de um video a ser prote-gido;dessincronização espacial do video; ecriação de uma cópia com impressão digital do vi-deo, modificada pelas dessincronizações temporal e espacial.
2. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende a apli-cação de uma solução de deformação de afinidade, em que asolução de deformação de afinidade compreende instruções pa-ra :derivar uma equação descrevendo uma deformação deafinidade do quadro Fi para o quadro F2 dentro do video; eencontrar um vetor de parâmetro descrevendo a de-formação por solução de um problema de minimização derivadoda equação.
3. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende a apli-cação de uma solução de deformação de afinidade, em que asolução de deformação de afinidade compreende instruções pa-ra :estimar uma matriz de deformação W de Fi para F2;computar as matrizes de afinidade para frente epara trás;obter os quadros deformados para frente e paratrás por reamostragem de Fi e F2 nas coordenadas deformadas;einterpolar as coordenadas não integrais para pro-duzir o valor de saida.
4. Um ou mais meios legiveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende a apli-cação de uma solução de fluxo óptico, em que a solução defluxo óptico compreende instruções para:assumir uma iluminação constante / em um ponto (x,y), antes e depois do movimento;derivar uma equação de fluxo, na qual V/ é um ve-tor de gradiente espacial de /; ecomputar um vetor de movimento com o qual se amos-tra o video, usando V/ e um gradiente temporal e espacialestimado da luminância.
5. Um ou mais meios legiveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende aplicaruma solução de comutação de vetor de movimento, em que a decomutação de vetor de movimento compreende instruções para:gerar uma pluralidade de pares de quadros deformados ;associar um vetor de movimento com cada par dosquadros deformados, obtendo-se, desse modo, uma pluralidadede vetores de movimento;aplicar uma função de erro a cada um dos vetoresde movimento; eusar a função de erro para selecionar um vetor demovimento de entre a pluralidade de vetores de movimento,para uso na dessincronização temporal.
6. Um ou mais meios legiveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende aplicaruma solução de interpolação temporal compensada por movimen-to, em que a solução de interpolação temporal compensada pormovimento compreende instruções para:gerar Gi e G2 por deformação de Fi e F2 para um ca-so de tempo;reamostrar Gi e G2 de acordo com uma função de F1 e F2; eobter o quadro interpolado F em função de Gi e G2.
7. Um ou mais meios legiveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende a apli-cação de uma solução de reamostragem temporal aleatória li-mitada, em que a solução de reamostragem temporal aleatórialimitada compreende instruções para:gerar Índices de tempo pseudo-aleatórios ao longode um eixo temporal e reamostrar o vídeo nos índices de tem-po recém-gerados por meio de interpolação de quadros;limitar a geração para requerer pelo menos um qua-dro na reamostragem entre dois intervalos de quadros no vi-deo original;gerar incrementos de tempo aleatórios A, para quefique distribuídos uniformemente dentro de [1 - Ô, 1 + õ] ;inicializar t(0) = 0 e computar Índice de tempot(i) = t(i - 1) + A, para i = 1, 2, N, em que N é ocomprimento do video reamostrado e é aleatório de acordo comN ~ Uniform[M(l - a), M(l + a)];representar em escala os valores t(l) a t(N) pararequerer que todos os Índices de tempo caiam dentro de [0,M] ; eselecionar a para controlar o período de variação,e 8 para controlar a instabilidade temporal.
8. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização temporal do video compreende uma es-tratégia de salto de interpolação, em que a estratégia desalto de interpolação compreende instruções para:determinar que quadros dentro do video descrevem ovideo complexo e de movimento rápido; esaltar a reamostragem desses quadros.
9. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial do video compreende instru-ções para girar, representar em escala e transladar pontosdentro do video a ser protegido.
10. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial do vídeo compreende uma so-lução de encurvamento aleatório, em que a solução de encur-vamento aleatório compreende instruções para:gerar, usando uma chave, uma grade de amostragempseudo-aleatória;preservar a ordem dos locais de amostragem com re-lação tanto às linhas quanto às colunas;amostrar todas as regiões tendo uma área maior doque um limiar;gerar vetores de perturbação periodicamente paraos locais amostrados; euniformizar os vetores de perturbação por interpolação.
11. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial do vídeo compreende filtra-ção de luminância, em que a filtração de luminância compre-ende instruções para:criar um filtro de luminância simétrico; eselecionar parâmetros dentro do filtro para aumen-tar a qualidade perceptiva e aumentar a aleatoriedade na có-pia com impressão digital do vídeo.
12. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial compreende a separação dosparâmetros, em que a separação dos parâmetros compreendeinstruções para:executar uma operação de rotação em um quadro;ratear o quadro com o quadro girado;determinar pequenos valores pelos quais a operaçãode rotação pode ser conduzida de modo que resulte em carac-terísticas perceptivas no quadro rateado;utilizar os pequenos valores como um tamanho deetapa distinto na criação da cópia com impressão digital; erepetir para as operações de representação em es-cala e translação.
13. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial do video compreende instru-ções para uniformização temporal, em que a uniformizaçãotemporal compreende instruções para:gerar parâmetros de rotação, representação em es-cala e translação, e de filtração de luminância, usados paraa dessincronização espacial de quadros no video, para todosos outros N quadros; einterpolar para obter campos de parâmetros nosquadros intermediários, entre os grupos de N quadros.
14. Um ou mais meios legíveis por computador, deacordo com a reivindicação 1, CARACTERIZADOS pelo fato deque a dessincronização espacial do video compreende instru-ções para distribuição dos parâmetros, em que a distribuiçãode parâmetros compreende instruções para:separar os quadros Fi e F2, em que os quadros F1 eF2 são associados dentro das cópias com impressão digital 1e 2 do quadro F do video, por distanciamento dos parâmetrosde rotação, representação em escala, translação e encurva-mento aleatório associados com Fi e F2; eintrodução de uma limitação de aleatoriedade dosparâmetros, em que a limitação de aleatoriedade é uma funçãode uma entropia de uma distribuição dos parâmetros excedendoum valor de limiar.
15. Um ou mais meios legíveis por computador,CARACTERIZADOS pelo fato de que compreendem instruções exe-cutáveis por computador para impressão digital de video, asinstruções executáveis por computador compreendendo instru-ções para:aplicar primeira e segunda dessincronizações tem-porais a um video a ser protegido;aplicar primeira e segunda dessincronizações espa-ciais ao video; ecriar primeira e segunda cópias com impressão di-gital do video de acordo com as dessincronizações temporaise as dessincronizações espaciais.em que a combinação das primeira e segunda cópiascom impressão digital em um video colusivo resulta em carac-teristicas perceptivas.
16. Um ou mais meios legíveis por computador, deacordo com a reivindicação 15, CARACTERIZADOS pelo fato deque a aplicação de dessincronização temporal compreende ins-truções para substituir os Índices de tempo, associados coma amostragem de quadros do vídeo, com índices de tempo alea-tórios .
17. Um ou mais meios legíveis por computador, deacordo com a reivindicação 15, CARACTERIZADOS pelo fato deque a aplicação de dessincronização espacial compreende ins-truções para operações globais, aplicadas a uma pluralidadede quadros, e operações locais, aplicadas aos quadros indi-viduais .
18. Um ou mais meios legíveis por computador,CARACTERIZADOS pelo fato de que compreendem instruções exe-cutáveis por computador para impressão digital de vídeo, asinstruções executáveis por computador compreendendo instru-ções para:dessincronização temporal de um vídeo a ser prote-gido por uso de índices de tempo pseudo-aleatórios;dessincronização espacial do vídeo por aplicaçãode operações de rotação, representação em escala e transla-ção, em combinação com operações de encurvamento aleatório; ecriar uma cópia com impressão digital do vídeo mo-dificada pelas dessincronizações temporal e espacial.
19. Um ou mais meios legíveis por computador, deacordo com a reivindicação 18, CARACTERIZADOS pelo fato deque a dessincronização temporal compreende instruções paraaplicar uma solução de deformação de afinidade à reamostra-gem, em que um vetor de parâmetro é usado para alterar osquadros dentro do vídeo.
20. Um ou mais meios legíveis por computador, deacordo com a reivindicação 18, CARACTERIZADOS pelo fato deque a dessincronização espacial compreende instruções paraaplicar as operações de rotação, representação em escala etranslação globalmente, e as operações de encurvamento alea-tório localmente.
BRPI0610169-0A 2005-05-27 2006-04-21 dessincronização resistente a colusão para impressão digital de vìdeo BRPI0610169A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/139,176 US7397933B2 (en) 2005-05-27 2005-05-27 Collusion resistant desynchronization for digital video fingerprinting
US11/139.176 2005-05-27
PCT/US2006/015558 WO2006130271A2 (en) 2005-05-27 2006-04-21 Collusion resistant desynchronization for digital video fingerprinting

Publications (1)

Publication Number Publication Date
BRPI0610169A2 true BRPI0610169A2 (pt) 2010-06-01

Family

ID=37463405

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0610169-0A BRPI0610169A2 (pt) 2005-05-27 2006-04-21 dessincronização resistente a colusão para impressão digital de vìdeo

Country Status (10)

Country Link
US (1) US7397933B2 (pt)
EP (1) EP1883895B1 (pt)
JP (1) JP5095611B2 (pt)
KR (1) KR101224744B1 (pt)
CN (1) CN101427265B (pt)
BR (1) BRPI0610169A2 (pt)
IL (1) IL186758A (pt)
MX (1) MX2007014559A (pt)
RU (1) RU2407215C2 (pt)
WO (1) WO2006130271A2 (pt)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060088225A1 (en) 2004-10-26 2006-04-27 The Secretary Of State For The Home Department Comparison
WO2008136933A1 (en) * 2007-05-07 2008-11-13 Thomson Licensing Method and apparatus for processing video sequences
GB0819069D0 (en) 2008-10-17 2008-11-26 Forensic Science Service Ltd Improvements in and relating to methods and apparatus for comparison
US8913779B2 (en) * 2010-02-02 2014-12-16 Futurewei Technologies, Inc. System and method for securing media content
CN101872398B (zh) * 2010-06-13 2012-05-30 上海交通大学 基于码分多址和分集技术的抗合谋数字指纹方法
US8942438B2 (en) 2010-07-19 2015-01-27 The University Of Maryland, College Park Method and apparatus for authenticating swipe biometric scanners
WO2012126522A1 (en) * 2011-03-23 2012-09-27 Metaio Gmbh Method for registering at least one part of a first and second image using a collineation warping function
KR20140008377A (ko) 2011-03-25 2014-01-21 톰슨 라이센싱 비디오 스트림 내의 데이터를 감추고 복구하는 방법
US9819965B2 (en) * 2012-11-13 2017-11-14 Intel Corporation Content adaptive transform coding for next generation video
DE102013000301A1 (de) * 2013-01-10 2014-07-10 Basler Ag Verfahren und Vorrichtung zur Erzeugung eines verbesserten Farbbildes mit einem Sensor mit Farbfilter
EP2951999A4 (en) 2013-01-30 2016-07-20 Intel Corp CONTENT PARAMETRIC TRANSFORMATIONS FOR CODING VIDEOS OF THE NEXT GENERATION
CN104796733B (zh) * 2014-01-20 2019-03-29 北京数码视讯科技股份有限公司 视频数据的处理方法、装置及系统
CN106233716B (zh) * 2014-04-22 2019-12-24 日本电信电话株式会社 动态错觉呈现装置、动态错觉呈现方法、程序
WO2016187776A1 (zh) * 2015-05-25 2016-12-01 北京大学深圳研究生院 一种基于光流法的视频插帧方法及系统
US10469486B2 (en) 2016-04-08 2019-11-05 University Of Maryland Method and apparatus for authenticating device and for sending/receiving encrypted information
RU2658811C2 (ru) * 2016-12-12 2018-06-22 Общество С Ограниченной Ответственностью "Дисикон" Способ и система устранения эффекта скользящего затвора камеры
KR102154897B1 (ko) 2018-09-18 2020-09-10 이화여자대학교 산학협력단 블록체인 및 핑거프린팅을 이용한 디지털 콘텐츠 관리 방법, 이를 수행하기 위한 장치 및 기록매체
US10860845B2 (en) * 2018-10-22 2020-12-08 Robert Bosch Gmbh Method and system for automatic repetitive step and cycle detection for manual assembly line operations

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4914694A (en) * 1988-04-11 1990-04-03 Eidak Corporation Modifying a television signal to inhibit recording/reproduction
JP2760083B2 (ja) * 1989-09-22 1998-05-28 富士通株式会社 フレーム間補間方式
US5355411A (en) * 1990-08-14 1994-10-11 Macdonald John L Document security system
JP2644367B2 (ja) * 1990-10-26 1997-08-25 富士通株式会社 フレーム間補間方式
DE69636084T2 (de) * 1995-09-28 2006-09-14 Nec Corp. Verfahren und Vorrichtung zum Einfügen eines Spreizspektrumwasserzeichens in Multimediadaten
US5664018A (en) * 1996-03-12 1997-09-02 Leighton; Frank Thomson Watermarking process resilient to collusion attacks
US6381367B1 (en) * 1997-05-29 2002-04-30 Macrovision Corp. Method and apparatus for compression compatible video fingerprinting
US6091822A (en) * 1998-01-08 2000-07-18 Macrovision Corporation Method and apparatus for recording scrambled video audio signals and playing back said video signal, descrambled, within a secure environment
US6145081A (en) * 1998-02-02 2000-11-07 Verance Corporation Method and apparatus for preventing removal of embedded information in cover signals
JP4083302B2 (ja) * 1998-08-12 2008-04-30 株式会社東芝 動画像スクランブル/デスクランブル装置
US6539475B1 (en) * 1998-12-18 2003-03-25 Nec Corporation Method and system for protecting digital data from unauthorized copying
US6785401B2 (en) * 2001-04-09 2004-08-31 Tektronix, Inc. Temporal synchronization of video watermark decoding
US6975743B2 (en) * 2001-04-24 2005-12-13 Microsoft Corporation Robust and stealthy video watermarking into regions of successive frames
EP1479078A1 (en) * 2002-02-19 2004-11-24 Koninklijke Philips Electronics N.V. Collusion-robust watermarking

Also Published As

Publication number Publication date
JP5095611B2 (ja) 2012-12-12
US7397933B2 (en) 2008-07-08
JP2008546277A (ja) 2008-12-18
CN101427265A (zh) 2009-05-06
WO2006130271A3 (en) 2008-11-20
US20060269097A1 (en) 2006-11-30
EP1883895B1 (en) 2018-10-10
EP1883895A4 (en) 2011-08-10
RU2007143962A (ru) 2009-06-10
WO2006130271A2 (en) 2006-12-07
KR101224744B1 (ko) 2013-01-21
MX2007014559A (es) 2008-11-06
IL186758A (en) 2011-03-31
CN101427265B (zh) 2011-08-03
EP1883895A2 (en) 2008-02-06
IL186758A0 (en) 2008-03-20
KR20080012281A (ko) 2008-02-11
RU2407215C2 (ru) 2010-12-20

Similar Documents

Publication Publication Date Title
BRPI0610169A2 (pt) dessincronização resistente a colusão para impressão digital de vìdeo
US9292937B2 (en) Opt-keyframe reconstruction for robust video-based structure from motion
Granados et al. How not to be seen—object removal from videos of crowded scenes
Liu et al. A new video watermarking algorithm based on 1D DFT and Radon transform
Wang et al. Motion-aware temporal coherence for video resizing
Takore et al. A new robust and imperceptible image watermarking scheme based on hybrid transform and PSO
Wang et al. Watermarking for DIBR 3D images based on SIFT feature points
Ling et al. Virtual contour guided video object inpainting using posture mapping and retrieval
Li et al. Steganerf: Embedding invisible information within neural radiance fields
Junayed et al. Consistent video inpainting using axial attention-based style transformer
Xie et al. X-portrait: Expressive portrait animation with hierarchical motion attention
Wang et al. A dtcwt-svd based video watermarking resistant to frame rate conversion
e Souza et al. Improvement of global motion estimation in two‐dimensional digital video stabilisation methods
Tošić et al. Dictionary learning for stereo image representation
Kang et al. Spherical panorama image watermarking using viewpoint detection
Madhavan et al. Optimisation for video watermarking using ABC algorithm
Zhang et al. A multi-lens stereoscopic synthetic video dataset
Munoz-Ramirez et al. Parallel steganography framework for hiding a color image inside stereo images
Etoom et al. Frequency-domain watermarking of 3D DIBR images using the steerable pyramid and discrete cosine transforms
Brodie Methods for Generative Adversarial Output Enhancement
Li et al. Vivid-ZOO: Multi-View Video Generation with Diffusion Model
Aouthu et al. Robust video watermarking with complex conjugate symmetric sequency transform using SURF feature matching
CN117412145A (zh) 视频版权控制方法、设备及介质
Liu et al. Detail Preserving 3D Motion Compression Based on Local Transformation

Legal Events

Date Code Title Description
B08L Patent application lapsed because of non payment of annual fee [chapter 8.12 patent gazette]

Free format text: REFERENTE AO NAO RECOLHIMENTO DAS 7A E 8A ANUIDADES.

B08I Publication cancelled [chapter 8.9 patent gazette]

Free format text: ANULADA A PUBLICACAO CODIGO 8.12 NA RPI NO 2260 DE 29/04/2014 POR TER SIDO INDEVIDA.

B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE AS 7A, 8A, 9A, 10A, 11A, 12A, 13A E 14A ANUIDADES.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2602 DE 17-11-2020 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.