MX2007014559A - Desincronizacion resistente a colusion para impresion de huellas digitales de video digital. - Google Patents

Desincronizacion resistente a colusion para impresion de huellas digitales de video digital.

Info

Publication number
MX2007014559A
MX2007014559A MX2007014559A MX2007014559A MX2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A
Authority
MX
Mexico
Prior art keywords
video
computer
frames
frame
readable media
Prior art date
Application number
MX2007014559A
Other languages
English (en)
Inventor
Mehmet Kivanc Mihcak
Yinian Mao
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MX2007014559A publication Critical patent/MX2007014559A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/167Systems rendering the television signal unintelligible and subsequently intelligible
    • H04N7/1675Providing digital key or authorisation information for generation or regeneration of the scrambling sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C5/00Ciphering apparatus or methods not provided for in the preceding groups, e.g. involving the concealment or deformation of graphic data such as designs, written or printed messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4405Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0063Image watermarking in relation to collusion attacks, e.g. collusion attack resistant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91307Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Television Systems (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Se describen sistemas y métodos de desincronizan un video para protegerse, con lo cual se crean uno o más videos con huellas digitales impresas digitalmente. En una implementación, un video a protegerse se desincroniza temporalmente y se desincroniza espacialmente. Se crea una copia de huellas digitales impresas del video, como se modificó a través de desincronizaciones temporales y espaciales.

Description

DES IINC RQ N IZAC I O N ESI ST E NTE A C O LU SÍO N PARA I M P RESIÓ N D E H U E LLAS DIG ITALES D E VI DEO DDG ITAL ANTEC E D E NTE S La proliferación de multimedia digital, junto con bandas anchas siempre en aumento en comunicaciones de Internet, ha hecho al manejo de derechos digitales más y más desafiante. Ya que cualquier usuario final que recibe una copia de contenido multimedia puede redistribuir la copia a otros usuarios, un mecanismo para trazar al distribuidor ilegal necesita establecerse para proteger los derechos de autor digitales. La impresión de huellas digitales multimedia es una forma de IDs únicas embebidas en cada contenido multimedia de usuario. Debido a que las huellas digitales embebidas únicamente están asociadas con el usuario a quién se le otorga la copia la extracción de esa huella digital en una copia pirata únicanente identifica al usuario asociado con la huella digital. Ya que los datos multimedia pueden modificarse ligeramente sin céiusar distorsión perceptual, una huella digital puede embeberse dentro de los datos sin degradar la experiencia de usuario final. Ha existido un número de trabajos anteriores en imagen de impresión de huelles digitales y señal de audio. Sin embargo, la búsqueda en impresión de huellas digitales de video ha estado un poco limitada. Usualmente, mientras cambia la señal huésped para impresión de huellas digitales, el esquema de impresión de huellas digitales consi eraciones importantes, ya que el valor de multimedia yace en parte en su puntualidad y calidad perceptual. Por consiguiente, un grupo de atacantes, cada uno en posesión de una copia con impresión de huellas digitales de un video puede conspirar para formar un ataque de colusión. Tal ataque intenta atenuar o remover la impresión de huellas digitales embebida en cada copia. Cuando el número de copias con impresión de huella digital dentro del ataque de colusión es lo suficientemente grande, aproximadamente 30 a 40 conspiradores, la utilidad de la impresión de huellas digitales se reduce tanto que puede no ser posible para el detector de impresión de huellas digitales detectar la existencia de huella digital en la copia de colusión.
BREVE DESCRIPCION DE LA INVENCION pe describe la desincronización resistente a colusión para uso en impresión de huellas digitales de video digital, para que un video a protegerse se sincronice, con ello crea uno o más videos dígita mente impresos con huella digital. En una implementación, un video para protegerse se desincroniza temporalmente y se desinoroniza espacialmente. Se crea una copia de huella digital impresa del video, como modificada por las desincronizaciones tempo rales y espaciales.
BREVE DESCRIPCION DE LOS DIBUJOS La descripción detallada se describe con referencia a las figuras acompañantes. En las figuras, el dígito(s) izquierdo de un número de referencia identifica la figura en la cual aparece primero el número de referencia. El uso de los mismos números de referencia en diferentes figuras indica artículos similares o idénticos. La Figura 1 ilustra una línea de tiempo ilustrativa que permite que sle comparen índices de tiempo uniformemente muestreados con índicas de tiempo aleatoriamente muestreados. La Figura 2 ilustra aspectos ilustrativos de desincronización temporal que incluyen estrategias de envoltura a fines, en donde el marco F2 se envuelve hacia el marco F2. La Figura 3 ilustra aspectos ilustrativos de desincronización tempóral, que incluye estrategias para envolver a fines, en donde los marc ts F, y F2 son envueltos. La Figura 4 ilustra aspectos ilustrativos de desincronización tempóral, que incluyen estrategias de flujo óptico. La Figura 5 ilustra aspectos ilustrativos de desincronización tempóral, que incluye estrategias de conmutación de vector de movi iento. La Figura 6 ilustra aspectos ilustrativos de desincronización tempóral, que incluyen estrategias de interpolación temporal compínsadas de movimiento. La Figura 7 ilustra aspectos ilustrativos de índice de tiempo DESCRIPCION DETALLADA La siguiente discusión se dirige a sistemas y métodos que combaten los ataques de colusión, en donde dos o más receptores de copiáis con huellas digitales impresas de contenido multimedia (por ejemplo un DVD con contenido de audio video, tal como una película) intentan combinar sus copias para crear una versión de alta calidad sin huellas digitales. En particular, los sistemas y métodos se disertan para resultar en la generación de artefactos perceptuales si las copias se recombinan. La Figura 1 muestra una técnica de desincronización ilustrativa 100 utilizada para contenido multimedia de impresión de huellas digitales para contrarrestar ataques de colusión. En la modalidad de la Figura 1, un esquema de desincronización resistente a colusión incluye desincronización de video en dominios temporales y espaciales. Cada copia de usuario de video ligeramente se cambia de tal forma que los cambios no serán notables para tabaco individual, pero serán lo suficientemente significativos para producir artefactos perceptuales cuando se combinan múltiples copias (por ejemplo, por tales métodos como promediados). Ya que las características físicas del eje temporal y el eje espacial signif cativamente, la desincronización temporal y espacial típicamente se separa en dos pasos. En un primer paso, el muestreo pseudo-aleatorio limitado primero se aplica en dominio temporal. Dado un grupo de marcos de video uniformemente muestreados a lo largo del eje tiempo, se emplea una interpolación de marco a base de movimiento para generar nuevos marcos de video en índices de tiempD arbitrario. En un segundo paso, cada marco de video además se desincroniza por una operación geométrica global que involucra rotación, escalda y traducción, seguido por una inclinación aleatoria local que utiliza una rejilla de muestreo espacial aleatorio. Los asuntas de calidad perceptual se dirigen al suavizar los parámetros de d-sincronización a lo largo de ejes espaciales y temporales. Además, el asunto de seguridad de desincronización se analiza en términos de complejidad computacional. En particular, la Figura 1 muestra un ejemplo 100 de una moda idad en donde el muestreo temporal pseudo-aleatorio de técnicas de desincronización de video y espaciales se combinan para producir copias con huellas digitales impresas de un video que pueden trazarse de nuevo a un receptor original, y cuando se combinan con copias con huellas digitales impresas similares resultan en una copia defectuosa dañada por artefactos visibles. En el b oque 102, un video para protegerse se desincroniza temporalmente. En el bloque 104, el video se desincroniza espacialmente. En el bloque 106, la copia con huella digital impresa del video se crea, como se modifica por las desincronizaciones temporales y espaciales. ftfiuesjtreo Temporal Pseudo-aleatono de Video Esa sección expande la desincronización temporal, un tema introducido por el bloque 102 de la Figura 1. La desincronización temporal puede utilizar muestreo temporal pseudo-aleatorio, que involucra interpolación de marco de video. El problema básico asoc ado con la interpolación de marco de video es que dado un par de méircos de video cercanos en tiempo (por ejemplo en tiempo ^ y F2 en tiempo t2, en donde (t2>t1) y T = t2-t! es el período de marco de video de fuente) deseamos genera un marco intermedio en el tiempo {\i + ?.?), en donde 0=?=1. En muchos casos, el promediado directo de los pixeles de marco correspondientes no dará un buen resultado, debido a que los objetos en marcos de video tienden a moverse y tal movimiento debe tomarse en cuenta cuando se conduce la interpolación. Por consiguiente, existe una necesidad de técnicas más sofisticadas. La desincronización temporal puede utilizar muestreo temporal pseudo-aleatorio. El muestreo temporal pseudo-aleatorio de video puede utilizar una estrategia de envoltura a fin para proporcionar la base para interpolación de marco de video. Por ejemplo, dado los dos marcos de video F y F2 es ventajoso a envolver F ^ hacia F2. Las coordanadas de F^ pueden denotarse por ( ,, yi) en cuanto a que F2 by (x2, y2). Las coordenadas homogéneas pueden utilizarse para descr bir la envoltura a fin 2-D de F-i a F2, de acuerdo con: matriz de transformación al fin se denota en la ecuación anterior por W. Los parámetros wi a w6 toman en cuenta las operaciones de rotación, escalda y traducción. Todos estos parámetros primero se estiman en imágenes muestreadas hacia debajo de F^ y F2, después se escalan hacia arriba y refinan para imágenes de tamaño mayor, hasta que finalmente alcanzan el tamaño de mé reo original. La búsqueda de parámetro involucra encontrar una solución a un problema de minimización. Denotar la operación de envoltura de un rrarco por en volturaw(.) , y una métrica de distancia que mide la distancia entre dos marcos por dist(.,.). Ya hay una operación para envoli er se determina únicamente por los parámetros para envolver, intentamos encontrar el vector de parámetro w*= [ ? * w2* w3* w4* w5* W6*]T de manera que w* = dist min.(envolturasw(F1),F2) (2) Cuando la métrica de distancia es la suma del cuadrado de las diferencias, la fórmula anterior se vuelve un problema de mínimos cuadrados. Tal problema puede resolverse por el algoritmo de Lucas-Kanade, clásico, que esencialmente utiliza el método de Gauss-Newton para encontrar la mínima. Para reducir la complejidad de cálculo debido a la alta dimer sionalidad , se debe notar que los parámetros de traducción, w3 y w6i son separables de otros parámetros. Por lo tanto, w3 y w6 puede determinarse primero, seguido por un procedimiento interactivo para actualizar el vector de parámetro hasta que converge. 1 o Por consiguiente, la solución para envolver a fin puede aplicarse al derivar una ecuación que describe una envoltura a fin del marco al marco F2 dentro del video, tal como ecuación (1). Al deriv.ir la ecuación, un vector de parámetro que describe la envoltura puede encontrarse al resolver un problema de minimización derivado de la ecuación, tal como ecuación (2). La Figura 2 muestra una modalidad 200 de desincronización tempcral caracterizada por una solución para envolver a fin en donde F ! se envuelve hacia F2. La solución para envolver a fin que se encuentra dentro de un grupo de funciones para envolver F para que cualquier imagen dada I, una imagen envuelta G pueda generase al aplicar una función para envolver ok(.)eO a la imagen I, obtener I ' ø k ( I ) , para distribución a un usuario k. Cada usuario por lo tanto recibirá una copia diferente de la imagen I, con lo cual complica un ataquje de colusión. En el bloque 202, se deriva una matriz de transformación a fin para envolverse del marco al marco F2 dentro del video, en donde la matriz toma en cuenta las operaciones de rotación, escalda y traducción (RST). La ecuación (1) es representativa de la matriz de transformación a fin. En el bloque 204, se encuentra una solución a un problema de minimización asociado con la matriz. La ecuación (2) es representativa del problema de minimización. El problema de minimización puede atacarse en cualquier forma apropiada. Por ejemplo, en el bloque 206 se aplica una solución de cuadrados menos, en donde la ecuación se basa en una métrica de distancia, dist, que es una suma del cuadrado de las diferencias. En el bloque 208, la complejidad computacional del problema de minimización puede reducirse al separar parámetros de traducción de otros parámetros, resolver primero parámetros de traducción, y aplicar un procedimiento interactivo al vector de parámetro hasta que converge. De esa forma, en el ejemplo anterior, los parámetros , y w6 se determinaron primero, con lo cual se reduce la dimensionalidad del problema para facilitar la solución a los péirámetros restantes. La discusión anterior de la Figura 2 se refiere a la interpolación demarco de video generalmente, y más particularmente a una herramienta para envolver a fin para muestreo temporal pseudo-aleatorio. Bajo estas circunstancias, hemos observado que de los dos marcos de video F, y F2 es ventajoso envolver F hacia F2. Una herramienta para envolver a fin de alternativa presentada por la Figura 3 y adaptada para una aplicación similar, puede ser ventajoso envolj/er tanto y F2 de envoltura. ¡Supongamos que tenemos el marco F, en tiempo Ti y F2 en tiempjo t2 y deseamos envolver tanto el marco F -¡ y F2 hacia el caso de tiempo (ti + ? ,T), en donde 0=?<1. Primero estimamos la matriz para envolver de F, a F2. Entonces las matrices de transformación a fin hacia delante y hacia atrás WF y WB, que envuelven F, y F2 hacia leí tiempo + ?.?), puede calcularse de acuerdo con Los marcos envueltos hacia adelante y hacia atrás, Fadeiante de Fi y Fatrás de F2 se obtienen al re-muestrear F y F2 respectivamente en coordenadas envueltas. Fadeiante=remuestrear(F1(WF,[x y 1]T)), y (5) Fatras = remuestrear(F2(WB[x y 1]T)). (6) Ya que el punto de re-muestreo no puede estar en coordenadas de entero, los métodos de interpolación, tal como interpolación bilineal o interpolación cúbica puede utilizarse para producir el valor de salida. La Figura 3 muestra una modalidad 300 de desincronización temporal caracterizada por una segunda solución para envolver a fin, en donde tanto y F2 se envuelven hacia un caso de tiempo (ti+?.?), en donde 0=?=1). La segunda solución para envolver a fin también se encuentra dentro de un grupo de funciones para envolver F para cualquier imagen dada I, pueda generarse una imagen envue lta G al aplicar un función para envolver ok(.)eO a la imagen I, obteniendo I * = ø k ( I ) , para distribución a un usuario k. Cada usuario por lo tanto recibirá una copia diferente de la imagen I, con lo cual complica un ataque de colusión. En el bloque 302, una matriz para envol er W de F, a F2 se estima. En el bloque 304, puede calcularse las matrices a fines hacia delante y hacia a tras, al utilizar la matriz de estimado W. Las ecuaciones (3) y (4) anteriores son ejemplos de las matrices hacia delante y hacia atrás. Las matrices hacia delante y hacia a tras permiten el calculo de marcos envueltos hacia adelante y hacia atrás. Por consiguiente, en el bloque 306 se obtienen marcos envueltos hacia delante y hacia atrás al re-mueslrear F1 y F2 en coordenadas envueltas. En el ejemplo anterior, las ecuaciones (5) y (6) muestran como los marcos hacia delante y hacia atrás, Fadeiante y Fatrás, pueden obtenerse al re-muestrear y utiliz ir las matrices hacia delante y hacia atrás. En el bloque 308, en donde se producen coordenadas no-integrales, puede utilizarse interpolación para producir valores de salida aceptables. Las modalidades del muestreo temporal pseudo-aleatorio del video pueden utilizar una estrategia de flujo óptica para proporcionar la base para interpolación de marco de video. Por consiguiente, el flujo óptico puede proporcionar el muestreo temporal pseudo-aleatorio de video que se utiliza para aplicar una huella digital al video derivado de un video para protegerse. El flujo óptico se refiere a molimiento bidimensional observado en datos de video. Ya que los ojos ] humanos perciben movimiento al observar puntos correspondientes en diferentes ubicaciones en diferentes momentos, la id ntificación de un movimiento se basa en la suposición de intensidad constante que el valor de luminancia del mismo punto de objeto no cambia después de movimiento. Se considera que una secuencia de video la variación de luminancia se denota por f(x, y, t). Supongamos un punto de objeto P en ubicación parcial (x, y) y tiempo t se mueve a (x + dx, y + dy) en tiempo t + dt. Bajo la suposición de intensidad constante, tenemos F(x + dx, + dy, t + dt) = f(x,y,t). (7) ¡Al asumir la continuidad del campo de luminancia a lo largo del eje espacial y temporal, aplicamos la expansión de Taylor a lado izquierdo de (7), para que la ecuación ahora se vuelva Ox Oy at (8) Después llegamos a la ecuación de flujo óptica (V/)7'v+^_ = 0 (10) en dojnde (Vf) 3es el vector de gradiente espacial de f (x, y, t). ;l_a ecuación de flujo óptico ofrece un acercamiento para calcular el vector de movimiento si podemos estimar el gradiente espacial y temporal de la luminancia. En la modalidad, los gradientes espaciales para la ubicación (x, y) se estiman dentro de una ventana de 5x5 centrada en (x, y). Por consiguiente, la función de ecuación (10) suede aumentarse para calcular los componentes x y y del vector de movimiento. jl_a Figura 4 muestra una modalidad 400 de la desincronización tempcjral caracterizada por una aplicación de una solución de flujo ópticcj al re-muestreo. En particular, un vector de gradiente espacial se utiliza para alterar marcos dentro del video, con lo cual se envuelve el video de forma diferente para cada usuario al que se distribuyen las copias del video. En el bloque 402, se asume una ilumiración constante f de un punto (x, y) antes y después de movimiento. Tal suposición es consistente con el rastreo natural realiz ado por el ojo humano, en donde el movimiento se observa más fácilmente cuando el objeto tiene una apariencia generalmente consistente. En el bloque 404, se derivó una ecuación de flujo. Por ejemplo, las ecuaciones (9) y (10) son representativas de ecuaciones de flujo ópticas que ayudan en el cálculo de vector de movimiento, un estimado del gradiente espacial y temporal de la luminancia.
En bloque 406, un vector de movimiento se calcula con el cual muesírea el video al utilizar Vf y un gradiente espacial y temporal estimado de la luminancia. Las modalidades de muestreo temporal pseudo-aleatorio de video pueden utilizar una estrategia de conmutación de vector de movimiento para proporcionar la base para interpolación de marco de video! La conmutación de vector de movimiento ayuda a seleccionar i un vector de movimiento para corregir la envoltura implicada por . Supongamos que tenemos en marco Fw en el tiempo ti y F2 en el tiempD t2 (t2 > ti) y deseamos generar un nuevo marco en el tiempo i (ti + ?.?). Primero generamos tres pares de marcos envueltos. El primer par es solo los marcos de entrada (F,, F2). El segundo par son los marcos de entrada a fines envueltos hacia el caso de tiempo (t! + K.T), (Fadeiante, Fatras). El tercer par son los marcos envueltos a Jx ¾' V/' dy' ? d/' y S es una ventana de pixel de 5x5 pequeñas entrada en (x, y). El vector} de movimiento v(x, y) es constante en la suma y Vfx, Vfy, son funciojnes de (x, y). Tal formulación puede resolverse por el algoritmo de Lucas- anade clásico, que es esencialmente un método de Gauss-Newton para resolver interactivamente un problema de optimización numérica dado. Al utilizar la función de error anterior, el vector de movimiento candidato que logra el erro mínimo en la ubicación (x, y) se elige como el vector de movimiento nuevo. Para aplic.ición de interpolación, imponemos suavidad en el vector de movimiento al aplicar un filtrado suave en el campo de vector de movimiento al utilizar filtro mediano o promedio. Esto genera el campo de vector de movimiento final v. La Figura 5 muestra una modalidad 500 de desincronización temporal caracterizada al aplicar una solución de conmutación de vecto' de movimiento al re-muestreo. En el bloque 502, se genera una pluralidad de pares de marcos envueltos. En el bloque 504, se asocia un vector de movimiento con cada par de marcos, con lo cual se obtiene una pluralidad de vectores de movimiento. En el bloque 506, se aplica una función de error a cada uno de los vectores de movimiento. La función de error puede estar en la forma de ecuación (11). En el bloque 508, la función de erro se utiliza para seleccionar un voctor de movimiento para utilizarse en la desincronización tempera!. Las modalidades del muestreo temporal pseudo-aleatorio del video pueden utilizar una estrategia de interpolación temporal I compensada de movimiento para proporcionar la base para interpolación de marco de video. En una estrategia de interpolación temporal compensada de movimiento, los marcos de entrada pueden envolverse hacia un caso de tiempo. Por ejemplo, basándose en el campo de movimiento v, los marcos de entrada Fi y F2 se envuelven hacia el caso de tiempo + ?.?) para generar dos marcos envueltos Gi y G2- Para este propósito, los vectores de movimientos de escalan linealmente y el marco envuelto es la versión re-m uestreada del marco de fuente. Por ejemplo d = remuestra (F^x + Avx, y + Avy)), (12) y el marco G2 puede obtenerse en una forma similar. Una vez que obtenemos y G2 el marco de interpolación final F(x, y) se obtiene como F(x, y) = (1-A).G1(x, y) + A.G2(x, y). (13) Por consiguiente, el video puede desincronizarse temporalmente al aplicar una solución de interpolación temporal compensada de movimiento para el re-muestreo. Gi y G2 pueden generarse al envolver F F2 hacia un caso de tiempo, tal como (ti + ?.?). d y G2 después puede re-m uestrearse de acuerdo con una función de F-, y F2, tal como ecuación (12). Finalmente, el marco interpolado F puede obtenerse como una función de Gi G2 tal como al utilizar la ecuación (13). La Figura 6 muestra una modalidad 600 de desincronización tempqral caracterizada por aplicar una solución de interpolación tempe-ral compensada con movimiento al re-muestreo, en donde los marees de entrada F( y F2 y un vector de movimiento asociado v se utilizan para derivar un marco interpolado F, para que el muestreo de F resulte en un muestreo con huellas digitales impresas. En el bloque 602, los marcos d y G2 se generan al envolver marcos F-\ y F2 hacia un caso de tiempo (t + ?.?). Por ejemplo, la ecuación (12) muestra como el marco Gi puede obtenerse del marco Fi. En el bloque 604, los marcos d G2 se re-muestrean de marcos Fi y F2. Por ejempjlo, el re-muestreo puede realizarse de acuerdo con la cuestión (12). En el bloque 606, un marco interpolado puede obtenerse como una función de los marcos envueltos y G2. Por ejemplo, la ecuación (13) es un ejemplo de cómo el marco interpolado F puede obtenerse de los marcos envueltos G y G2. Las modalidades del muestreo temporal pseudo-aleatoria de i video pueden utilizar una estrategia de re-muestreo temporal aleatorio limitada para proporcionar la base para interpolación de marco de video. En una modalidad, los índices de tiempo pseudo- I aleatorios se generan a lo largo del eje temporal, lo que permite el re-muestreo del video recientemente generado por medio de interpolación de marcos. Para lograr una buena calidad perceptual, ponemos la limitación que deben haber al menos un marco en el video re-m uestreado entre dos intervalos de marco en el video original, es decir, entre cualquier marco i e i + 2 en el video original. Haciendo referencia a la Figura 7, se puede observar que se localiza un ínjd ice de tiempo aleatoriamente muestreado entre cada uno de los índices de tiempo uniformemente muestreado. Tal limitación limita el ruido temporal en el video muestreado, al mismo tiempo que i permite espacio para aleatoriedad temporal. Para lograr esta meta, primero generamos incrementos de tiempo aleatorios i.i.d. (independientes idénticamente distribuidos) A¡, que se distribuye uniformemente en la escala de [1 - d,1 + d]. Después iniciamos t(0) = C y calculamos el índice de tiempo t(i)=t(i-1 ) + ?, para i=1, 2, N. Aquí es la longitud total del video re-muestreado, que es un valor aleatorio de acuerdo con N~Un¡form[M(1 + a)], en donde M es el número total de marcos en el video original. Finalmente, escalamos los valores de t(1) a t(N) para asegurar que todos los índices de tiempo caen en la escala de [0, M]. Pueden elegirse dos parámetros en esta configuración, d que controla la cantidad de ruido temporal y a que controla la variación de longitud. En un ejemplo por el cual puede implementarse la desintonización temporal d y a pueden seleccionarse como 5 = 0.75 y a = 0.0035. Otros valores pueden dar resultados satisfactorios en varias aplicaciones de otros conceptos. La Figura 8 muestra una modalidad 800 de desincronización tempcral caracterizada por aplicar una estrategia de re-muestreo temporal aleatoria limitada al re-muestreo, en donde los índices de tiempo uniformemente muestreados asociados con el video se reemplazan con índices de tiempo aleatoriamente muestreados asociados con el re-muestreo. En el bloque 802, los índices de tiempo pseudo-aleatorios se generan a lo largo de un eje temporal. Este video después se re-muestrea en los casos de tiempo recientemente generados, tal como al utilizar interpolación demarco.
En e bloque 804, la generación de índices de tiempo pseudo-aleatoriamente muestreados se limita a requerir al menos un marco en el Ire-muestreo entre dos intervalos de marco en el video original. En ellejemplo de la Figura 7, se puede observar que entre cada dos marcadores de marco originales (vistos en la parte superior de la línea de tiempo) existe un marcador de marco pseudo-aleatorio (visto en la parte inferior de la línea de tiempo). En el bloque 806, se generan incrementos de tiempo aleatorios A¡ y se distribuyen uniformemente dentro de una escala [1-5,1+5]. En el bloque 808, el índice de tiempo se inicia y calcula en la longitud del video. Por ejemplo, el índice de tiempo puede iniciarse en t(0) = 0, y el índice de tiempo calculado de acuerdo con t(i) = t(i-1 ) + ?, para i = 2, 2.....N, en donde N es la longitud de video re-muestreado y es aleatorio de acuerdo con N~U n if orme[; ( 1 -a) , M(1+a)]. En el bloque 810, los valorés t(1) a t(N) se escalan para requerir todos los índices de tiempo que caen dentro de [0, M], en donde M es el número total de marcos en el video. En el bloque 812, las variables pueden seleccionarse para controlar aspectos de video. En particular, a se elige para controlar longitud de variación y 5 para controlar ruido y temporal. Por ejemplo, 5 puede establecerse en 0.75 y a puede establecerse en 0.0035. _as modalidades de muestreo temporal pseudo-aleatorio de video pueden utilizar una estrategia de saltado de interpolación para mejorar el control de calidad. Cuando los marcos constituyen colectivamente movimiento rápido y/o escenas complejas, el uso de i la interpolación de marco puede no resultar en un resultado perceptual satisfactorio. Por lo tanto, la calidad del marco interpolado puede controlarse al saltar los marcos que representan movimiento rápido y complejo. Cuantitativamente, la variación del campo de vector de movimiento puede calcularse como var(vx) y var(Vy) , en donde la interpolación se salta en cualquier momento que la surfia var(vx) + var(vy) es mayor que un valor de umbral Vv0. En una ¡mplementación, el tamaño de marco puede establecerse a 640x480 pixeles y Vvo puede establecerse a 300. En general, el uso de ur tamaño de marco más pequeño debe resultar en reducción proporcional del umbral, basándose en el ancho o altura del marco. La Figura 9 muestra una modalidad 900 de una estrategia de saltaco de interpolación para mejorar el control de calidad. En el bloque 902, se determina que los marcos dentro del video describen video del movimiento rápido y complejo. Estos marcos representan un asiunto de calidad potencial si se aplica muestreo temporal pseudo-aleatorio. En el bloque 904, se notan los marcos determinados para describir video de movimiento rápido y complejo, y se salta el re-muestreo de estos marcos.
Desinlcronizaciórc Espacial de Video Esta sección discute desincronización espacial, un tema introducido por el bloque 104 de la Figura 1. La desincronización espacial puede utilizarse en conjunto con muestreo temporal pseudo-aleatorio de video para crear desincronización. Una ¡mplementación de desincronización espacial incluye tanto operaciones globales como operaciones locales. Las operaciones globales incluyen rotación de marco, escalada, y traducción (RST). Las operaciones locales incluyen inclinación aleatoria variante y filtrado de luminancia. Con el fin de lograr buena calidad perceptual, los parámetros de estas operaciones se generan para ser espacial y temporalmente suaves.
Las operaciones RST son una forma de desincronización espacial. La rotación, escalda y traducción (cambio) puede representarse al utilizar una coordenada homogénea. Supongamos que las coordenadas antes de las operaciones RST son (x1 t y^, aquel as después de RST (x2, y2), una rotación de T grados llevara a la siguiente relación Similarmente podemos encontrar la relación de coordenadas después de traducción de (tx, ty) y la relación después de escalda El efecto total puede representarse al utilizar una combinación de matrices de transformación de rotación, traducción, y escalada. En la implementación de las ecuaciones 14-16, el ángulo de rotaciónG, factor de escalada sx, y sy, y cantidad de traducción tx, y ty se eligen para limitarse para lograr imperceptibilidad de las I operabiones RST. Las selecciones consistentes con esto incluyen: 06[-0|©];sx,Sy6 [1 -S, 1 +S]; y tye[-r,r]. En esta implementación, se el bloque 1202, se genera una rejilla de muestreo pseudo-aleatoria, típicamente que utiliza una clave. En el bloque 1204, se conserva el orden de las ubicaciones de muestreo con respecto a filas y columnas. En el bloque 1206, todas las regiones que tienen un área mayor en el umbral se muestrean. En el bloque 1208, los vectores de perturbación se generan periódicamente para ubicaciones muestreadas. En el bloque 1210, los vectores de perturbación se suavizan, típicamente por una técnica tal como interpolación. El filtrado de luminancia es una herramienta utilizada para afilar aleatoriamente o suavizar diferentes áreas dentro de un video. El filtrado de luminancia tiene dos efectos. Primero, después de interpolación temporal, las operaciones de RST espacial e inclinación, las imágenes generadas tienden a ser borrosas. De esa forma utilizamos un filtro de afilamiento de borde para mejorar la calidad perceptual de la salida final. Segundo, los parámetros de filtros! de luminancia pueden ser aleatorios, lo que proporciona más aleatóriedad en el video de sincronizado. En una modalidad que carac eriza un sistema de sincronización, se considera un filtro de luminancia de 3x3 simétrico de la forma (-BIS -£/8 -BJf\ -5/8 A+B -B/S 07C) -Bl% -B/S -B/8 Aquí el parámetro A controla la energía total del filtro y el parámetro B representa el efecto de afilamiento. Para buena calidad perceptual, A debe estar cerca de 1 y B debe ser mayor que 0 con el fin de lograr que efecto de afilamiento de borde. En una implementación ilustrativa, A está en la escala de [1-0.04,1 + 0.04] y B est<» en la escala de [0, 0.7]. La Figura 3 se muestra una modalidad 1300 de desincronización espacial caracterizada por filtrado de luminancia. En el bloque 1302, se crea un filtrado de luminancia simétrico. El filtro puede ser la forma de ecuación (17C), o similar. En el bloque 1304, los parámetros se seleccionan para aumentar la calidad perceDtual y aumentar aleatoriedad en la huella digital impresa del video. En una modalidad en donde un filtro tal como ecuación (17C) se utiliza, los parámetros A y B se seleccionan para sintonizar el i filtro de luminancia, como se desee. I La suavización de parámetro y las herramientas de optimización se configuran para controlar errores de parámetro y producir copias diferentemente desincronizadas de video. Una de tales herramientas, 'diferenciación de parámetro' ayuda a propo-cionar un valor suficientemente para parámetros asociados con diferentes copias de un video. Como se discutió anteriormente, los parámetros RST se enlazan para conservar la calidad perceptual. Además, para producir suficiente diferencia entre dos copias diferentemente desincronizadas de video, los parámetros también necesitan diferenciarse (es decir hacerlos diferentes) con un tamaño de paso suficientemente grande. Para determinar el tamaño de paso apropiado en la diferenciación, puede conducirse el siguiente experimento, en un ejemplo, se promedian dos copias de un marco de 640x480, en donde la primera copia es la copia original, y la segunda copia es la copia después de rotación por AE grados. Después, los dos marcos se promedian y observan para determinar si existen artefactos perceptuales en el marco promediado, tal como borrosidad. Generalmente, el uso del valor ?0 más pequeño que causa que los artefactos perceptuales como el tamaño de paso diferente. Al utilizar acercamientos similares, determinar el tamaño de péso de parámetro de escalado y de traducción. Por ejemplo, elegir 8 niveles de cuantificación para el parámetro de rotación 8 para parámetros de traducción, y para los parámetros de escalada.
Estos resultados se resumen en el cuadro I.
CUADRO I DIFERENCIACION DE PARAMETRO PARA OPERACIONES RST a Figura 14 muestra una modalidad 1400 para desintonización espacial caracterizada por suavización y optim zación de parámetros. Esta operación proporciona un tamaño de pasos diferente por el cual pueden realizarse operaciones de desintonización espaciales. En el bloque 1402, se realiza una operación de rotación en un marco. En el bloque 1404, el marco y el maree girado se promedian juntos. El método por el cual este promediado se realiza es de alguna forma accesible. En el bloque 1406, los valores pequeños por los cuales puede realizarse la operación de rotación se determinan, en donde los valores resultan en artefactos perceptuales en el marco promediado. En el bloque 1408 los valores pequeños se utilizan como un tamaño de paso diferente al crear la copia con huellas digitales impresas. En el bloquü 1410, los bloques 1402-1408 se repiten para operaciones de escalada . y de traducción, con lo cual se obtienen de pasos diferentes para estas operaciones. Se utilizan herramientas de suavización temporales para suavizar imágenes de video de los marcos desincronizados. Como un video de señal 3-D proporciona tanto oportunidad y problema para desincronización espacial. Ya que el sistema visual humano puede retenor una imagen después de observarla por corto tiempo, la velocijdad de marco de video estándar de aproximadamente 30 j mareqs por segundo puede suavizar las distorsiones menores en marees individuales. Como un resultado, algunas distorsiones, que pueden tener artefactos perceptuales causados pueden observarse como imágenes fijas, no causaran artefactos perceptuales cuando se observan como imágenes de movimiento. Por otro lado, los ojos humanos son sensibles a cambios temporales y espaciales en una secuencia de video.
Por ejemplo, cuando se gira un marco 0.5 grados y se observa comoj una imagen fija, usualmente no se notará la rotación. Sin embargo, si este marco es seguido por otro marco girado por -0.5 grados, tales rotaciones se notarán claramente debido a que existe un efecto de "ruidos". Para logra suavidad temporal en nuestro esquema, elegimos generar los campos de parámetro de filtrado RST, inclinación y luminancia para cada L marco y utiliza potación lineal para obtener campos de marco en los marcos intermedios. La interpolación lineal se el ge para ahorra tiempo de actualización de parámetro y el almacenamiento requerido. Por ejemplo, supongamos que generamos I el parámetro de rotación r(k) para el k-v o marco y r(k + N) para el (k + L)-vo marco, el parámetro r(i) para k.<i<k + L es r(i) = (i-k)(r(k + L)-r(k))/L. En la implementación anterior, el parámetro L = 128, que I corresponde aproximadamente 4 segundos si la velocidad de video es 30 marcos por segundo. La Figura 15 muestra una modalidad 1500 de desincronización espacial caracterizada por suavización temporal. En el bloque 1502, los parámetros de filtrado RST (rotación, escalada y traducción), inclinación y/o luminancia se generan en el video para otro N número de méircos. En el bloque 1504, los campos de parámetro en marcos intermedios entre grupos de marcos N se determinan por interpolación. Como un resultado, se mejora la suavidad temporal, con ib cual se remueve algún efecto de ruido introducido por operaciones de filtrado RST, de inclinación y luminancia. (Las herramientas de distribución de parámetro ayudan a separar los marcos desincronizadas del video. Supongamos que tenemos un marco F y dos versiones desincronizadas de este marco F, y F2. Con el fin de impedir colusión, desearíamos que la distancia entre F^ y F2 sea lo más lejana posible. Una medida de distancia posib e es la diferencia de pixel por pixel, es decir, d(Fi(x, y), F2(x, y)) = F^x, y)-F2(x, y)l. Suponer que F^ y F2 solo son versiones giradéis de F, en donde F se gira por un ángulo de T1 y F2 por ?2. Se considera que un pixel en la ubicación (x, y) en el marco F! es de la ubicación ( ,, y^ en el marco F, y que el pixel (x, y) en el marco F2 es la ubicación de marco (x2, y2) en el marco X, es decir. Fi(x, y) = F(x1, y,) 7y F2(x, Y) = F(x2. y2). De acuerdo con la ecuación (14) tenemos ción y ?2 son muy pequeños, que desincronización debido a que dese aproximadamente lo mismo. Bajo esta nG2s02. (19) entre dos marcos es dist(Fl(x,y),F2(x,y)) = |F,(x,y)-F2(x,y)| Asumir que el valor de luminancia de F cambia aproximadamente de forma lineal en una comunidad pequeña de cualquier ubicación (x, y), y el usuario de la norma L2 para medir la distarjcia espacial, después la ecuación se vuelve dist( ,(x, y), F2(x, y)) Resultados similares pueden derivarse para operaciones de traducción, escalada, e inclinación. Está claro bajo tal derivación que si deseamos maximizar la distancia entre cualquiera de dos versiones de marcos desincronizados, necesitamos maximizar la distancia entre los dos parámetros de rotación. Ya que los dos parámetros de rotación son variables aleatorias i.i.d. al tomar valores de un grupo separado {-T,-T + ??,-T + 2??, ... ,T}, el problema se vuelvé a encontrar la distribución p para el parámetro que maximiza la distancia esperada entre ?? y ?2. Utilizamos la norma L2 para medir la distancia y formular el problema como sigue. max ?(?? - ?2)2. (22) P _a formulación anterior lleva a una distribución que es Pr(0: T) = ?G(T = T)=1/2. †r a I distribución, aunque maximiza la distancia entre cualquiera de dos copias giradas de un marco, no puede soportar un ataque de f uerzéi bruta debido a que la cantidad aleatoriedad es muy pequeña. Por lo tanto, puede agregarse una limitación de la autoridad a la formu ación (22), como sigue: max ?(?? - ?2)2 sujeto a H(P)> h, (23) p en dohde H( ) denota la entropía de una distribución y h es un umbral para la entropía. Ya que el parámetro de rotación puede cuantjf icarse en 8 niveles, la entropía posible máxima es 3 bits.
Elegir un umbral de entropía h = 2.8 bits y resolver (23) numéifi camente para obtener la distribución en las primeras dos filas en el Cuadro II. Solo se proporciona el PMF de un lado ya que el P F és simétrico. Se debe notar que la distribución es la solución a (23) para todos los PMF de 8 niveles. Por lo tanto, también se puede utilizar como la distribución para el parámetro de traducción. Para el parárrjetro de escalda, ya que se cuantifica en cuatro niveles, elegir el urrjibral de entropía h = 1.9 bits y el PMF correspondiente se muestira en las últimas dos filas en el Cuadro II.
CUADRO II DISTRIBUCIÓN DE PARAMETRO PARA OPERACIONES ST > palores -T -T+?? -T+2?0 -T+3?? Pmfj(un lado) 0.2375 0.1219 0.0781 0,0625 valores -T -T+?? -T+2?0 -T+3?? pmf 0.3420 0.1580 0.1580 0.3420 La Figura 16 muestra una modalidad 1600 de desincronización espacial caracterizada por herramientas de distribución. Tales herramientas son útiles al aumentar la distancia entre dos marcos dentro de dos copias con huellas digitales impresas de un video. En el bloque 1602, los marcos F y F2, se separan, en donde los marcos Fi y F2 están asociados dentro de copias con huellas digitales impresas 1 y 2 del marco F del video. La separación se realiza al distarjciar parámetros de rotación, escalada, traducción e inclinación aleatqria asociados con y F2 En el bloque 1604, la limitación aleato riedad se introduce a parámetros utilizados al crear Fi y F2, en donde la limitación de aleatoriedad es una función de entropía de una distribución de los parámetros que exceden un valor de umbral.
Am iente di® Cómputo Ilustrativo La Figura 17 ilustra un ambiente de cómputo ilustrativo adecuado para implementar desincronización resistente a colusión para impresión de huellas digitales de video digital. El ambiente de cómputo 1700 incluye un sistema de cómputo de propósito general en la forma de una computadora 1702. Los componentes de la computadora 1702 pueden incluir, pero no se limitan a, uno de un procesador a unidades de procesamiento 1704, una memoria de sistema 1706, y un conductor común de sistema 1708 que acopla varios componentes de sistema que incluyen el procesador 1704 a la memoria de sistema 1706. El conductor común de sistema 1708 representa uno o más de cualquiera de varios tipos de estructuras de conductor común, que incluyen un conductor común de memoria o controlador de memoria, un conductor común periférico, un conductor común de Interconexión de Componente Periférico (PCI), un puerto de gráficos acelerado, y un procesador o conductor común local que utilizá cualquiera de una variedad de arquitecturas de conductor común [La computadora 1702 típicamente incluye una variedad de medicjs legibles por computadora. Tales medios puede ser cualquier medicj disponible y es accesible por la computadora 1702 el incluye tanto medios volátiles como no volátiles, medios removibles y no removibles. La memoria de sistema 1706 incluye medios legibles por computadora en la forma en memoria volátil, tal como memoria de acceso aleatorio (RAM) 1710 y/o memoria no volátil tal como memora solo de lectura (ROM) 1712. Un sistema de entrada/salida básico (BIOS) 1714, que contiene las rutinas básicas que ayudan a transferir información entre elementos dentro de la computadora 1702, tal como durante el arranque, se almacena en ROM 1712. La RAM 1710 típicamente contiene datos y/o módulos de programa que son nmediatamente accesibles a y/o actualmente están siendo operados por la unidad de procesamiento 1704. La computadora 1702 también puede incluir otros medios de almacenamiento de computadora removibles/no removibles, volátiles/no volátiles. A manera de ejemplo, la Figura 17 ilustra una unidad de disco duro 1716 que lee de o escribe un medio magnético no r movible, no volátil (no mostrado), una unidad de disco magnético 1718 que lee de o escribe a un disco magnético removible, no volátil 1720 (por ejemplo, un "disco flexible") , y una unidad de disco óptico 1722 que lee de y/o escribe a un disco óptico removible, no vo átil 1724, tal como un CD ROM, DVD-ROM, u otro medio óptico. La unidad de disco duro 1716, unidad de disco magnético 1718, y unida:, de disco óptico 1722 cada uno se conecta al conductor común de sistema 1708 por una o más interfases de medios de datos 1725. Alternativamente, la unidad de disco duro 1716, unidad de disco magnético 1718, y unidad de disco óptico 1722 pueden conectarse al conductor común de sistema 1708 por una interfase SCSI (no mostrada). Las unidades de disco y sus medios legibles por computadora asociados proporcionan almacenamiento no volátil de instrucciones legibl s por computadora, estructuras de datos, módulos de prognima, y otros datos para la computadora 1702. Aunque el ejempjlo ilustra un disco duro 1716, un disco magnético removible 1720, y un disco óptico removible 1724, se debe apreciar que otros tipos de medios legibles por computadora pueden almacenar datos que son accesibles por una computadora, tal como cassettes magnéticos u otros dispositivos de almacenamiento magnético, tarjetas de memoria flash, CD-ROM, discos versátiles digitales DVD u otro almacenamiento óptico, memorias de acceso aleatorias (RAM), memorias solo de lectura (ROM), memoria solo de lectura eléctricamente borrable programable (EEPROM), y similares, también pueden utilizarse para implementar el sistema y ambiente de cómputo ilustrativo. Cualquier número de módulos de programa puede almacenarse en el disco duro 1716, disco magnético 1720, disco óptico 1724, ROM 1712, y/o RAM 1710, que incluye a .manera de ejemplo, un sistema operativo 1726, uno o más programas de aplicación 1728, otros módulos de programa 1730 y datos de programa 1732. Cada uno de tal sistema operativo 1726, uno o más programas de aplicación 1728, otros módulos de programa 1730, y datos de programa 1732 (o alguna combinación de los mismos) pueden incluir una modalidad de un esquema de memoria caché para información de acceso de red de usuario. La computadora 1702 puede incluir una variedad de medios legibles por computadora/procesador identificados como medios de comunicación. Los medios de comunicación típicamente representan instrucciones legibles por computadora, estructuras de datos, módulos de programa, otros datos en una señal de datos modulada tal como una onda portadora u otro mecanismo de transporte el i n c I u y e cualquier medio de entrega de información. El término "señal de datos modulada" significa una señal que tiene una o más de sus características establecidas o cambiadas de tal forma para codificar información en la señal. A manera de ejemplo, y no de limitación, los medios de comunicación incluyen medios por cable tal como red por cable o conexión por cable directa, y medios inalámbricos tal como medios acústicos, RF, infrarrojos, y otros inalámbricos. Las combinaciones de cualquiera de los anteriores también deben incluirse dentro del alcance de medios legibles por computadora. Un usuario puede ingresar comandos la información en el sistema de computadora 1702 a través de dispositivos de entrada tal como un teclado 1734 y dispositivo de señalamiento 1736 (por ejemplo, un "ratón"). Otro dispositivo de entrada 1738 (no mostrados específicamente) pueden incluir un micrófono, palanca de mandos, almohadilla de juegos, antena parabólica, puerto en serie, exponer, y/o si TÍ i I a re s . Gestos y otros dispositivos de entrada se conectan a la unidacl de procesamiento 1704 a través de interfases de entrada/salida 1740 que se acoplan al conductor de sistema 1708, pero pueden conectarse por otra interfase y estructuras de conductor común, tal como un puerto paralelo, puerto de juegos, o un conductor comú en serie universal (USB). Un monitor 1742 u otro dispositivo de presentación también pueden conectarse a I conductor común de sistema 1708 a través de una ihterfase, tal como un adaptador de video 1744. Además del monitor 1742, otros dispositivos periféricos de salida pueden incluir componentes tal como bocinas (no mostradas) y una impresora 1746 puede conectarse a la computadora 1702 a través de las interfases de entrada/salida 1740. |La computadora 1702 puede operar en un ambiente en red que utilizéi conexiones lógicas a una o más computadoras remotas, tal como un dispositivo de cómputo remoto 1748. A manera de ejemplo, el dispositivo de cómputo remoto 1748 puede ser una computadora personal, computadora portátil, un servidor, un enrutador, una computadora de red, un dispositivo par u otro nodo de red común, y similares. El dispositivo de cómputo remoto 1748 se ilustra como una computadora portátil que puede incluir muchos o todos los implementos y características descritos aquí en relación al sistema de computadora 1702. Las conexiones lógicas entre la computadora 1702 y la computadora remota 1748 se ilustran como una red de área local (LAN) 1750 y una red de área ancha general (WAN) 1752. Tales ambie'ntes en red comúnmente están ubicados en oficinas, redes de computadora extendidas en empresas, intranets, el internet. Cuando se ¡mplementa en un ambiente en red de LAN, la computadora 1702 se conecta a una red local 1750 a través de una interfase de red o adaptador 1754. Cuando se implementa en un ambiente en red de WAN, la computadora 1702 típicamente incluye un módem 1756 u otro medio para establecer comunicaciones en la red ancha 1752. El módem 1756, que puede ser interno o externo a la computadora 1702, puede conectarse al conductor común de sistema 1708 a través de las interfases de entrada/salida 1740 u otros mecanismos aprop ados. Se debe apreciar que las conexiones en red ilustradas son Ilustrativas y que pueden emplearse otros medios para estab ecer enlace(s) de comunicación entre las computadoras 1702 y 1748. ?? un ambiente en red, tal como se ilustra con el ambiente de cómputo 1700, los módulos de programa ilustrados relativos a la computadora 1702, o porciones de las mismas, pueden almacenarse en el dispositivo de almacenamiento de red remoto. A manera de ejemplo, los programas de aplicación remotos 1758 reciben en un dispositivo de memoria de computadora remota 1748. Para propósitos de ilustración, los programas de aplicación y otros componentes de programa ejecutables, tal como el sistema operativo, se ilustran aquí como bloques separados, aunque se reconoce que tales programas y componentes reciben en varios tiempos en diferentes componentes de almacenamiento del sistema de computadora 1702, y se ejecutan por el procesador(es) de datos de la ¡computadora.
ComcBusión Los sistemas y métodos ilustrativos para implementar aspectos de desincronización resistente a colusión de impresión de huellas digita es de video digital se describieron, en parte por referencia a los diagramas de flujo de las Figuras 1-6, 8-10 y 12-16. Los elementos de los métodos descritos pueden realizarse por cualquier medio que incluye, por ejemplo, bloques de lógica de hardware en un ASIC o por la ejecución de instrucciones legibles por procesador definidas en un medio legible por procesador. Un "medio legible por procesador", como se utiliza aquí, puede ser cualquier medio que puede contener, almacenar, comunicar, propagar, o transportar instrucciones para uso por ejecución por un procesador. Un medio legibls por procesador, puede ser, sin limitación, un sistema electrónico, magnético, óptico, electromagnético, infrarrojo, o semiconductor, aparato, dispositivo, o medios de preparación. Ejemplos más específicos de un medio legible por procesador incluyen, entre otros, una conexión eléctrica que tiene uno o más cables, un disquete de computadora portátil, una memoria de acceso aleatorio (RAM), una memoria solo de lectura (ROM), una memoria solo ele lectura borrable programable (EPROM o memoria flash), una fibra óptica, un disco de compacto reescribidle (CD-RW), y una memojria solo de lectura de disco compacto portátil (CDROM). ¡Aunque aspectos de esta descripción incluyen lenguaje específicamente que describe características estructurales y/o metoc ológicas de las modalidades preferidas, se debe entender que las rsivindicaciones anexas no se limitan a las características especificas o actos descritos. Más que eso, las características especificas y actos se describen solo como implementaciones ilustrativas, y son representativas de conceptos más generales.

Claims (18)

REIVINDICACIONES
1.- Un medio legible por computadora que comprende instrucciones ejecutables por computadora para impresión de huellas digitales de video digital, las instrucciones ejecutables por computadora comprenden instrucciones para: desincronizar temporalmente un video para protegerse; desincronizar espacialmente el video; y crear una copia con hullas digitales impresas del video como se modif có por desincronizaciones temporales y espaciales. ¡
2.- Uno o más medios legibles por computadora de acuerdo i con léi reivindicación 1, en donde la desincronización temporalmente del v deo comprende aplicar una solución para envolver afín, en donde la solución para envolver afín comprende instrucciones para: derivar una ecuación que describe una envoltura a fin del marcó Fi al marco F2 dentro del video; y encontrar un vector de parámetro que describe la envoltura al resolvjer un problema de minimización derivado de la ecuación. i
3.- Uno o más medios legibles de computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video ¡com prende aplicar una solución para envolver afín, en donde la solución para envolver a fin comprende instrucciones para: estampar una matriz para envolver W de F, a F2; calcular matrices afines hacia delante y hacia atrás; ¡obtener marcos envueltos hacia delante y hacia atrás al re- mueslrear Fi y F2 en coordenadas envueltas; y interpolar coordenadas no integrales para producir el valor de salida .
4.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de flujo óptico, en donde la solución de flujo óptico comprende instrucciones para: asumir una iluminación constante f a un punto (x, y) antes y después de movimiento; derivar una ecuación de flujo, en donde Vf es un vector de g ra di ente espacial de f; y calcular un vector de movimiento con el cual muestrear el video al utilizar Vf y un gradiente espacial y temporal estimado de la lumin ancia.
5.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el videoj comprende aplicar una solución de conmutación de vector de movimiento, en donde la solución de conmutación de vector de movimiento comprende instrucciones para: generar una pluralidad de pares de marcos envueltos; asociar un vector de movimiento con cada par de los marcos envueltos, obteniendo así una pluralidad de vectores de movimiento; 'aplicar una función de error a cada uno de los vectores de movimiento; y utilizar la función de error para seleccionar un vector de movimiento de entre la pluralidad de vectores de movimiento para uso en la desincronización temporal.
6. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de interpolación temporal compensada, en donde la solución la interpolación temporal compensada de movimiento comprende instrucciones para: generar G y G2 al envolver y F2 hacia un caso de tiempo; re-muestrear Gi y G2 de acuerdo con una función de F , y F2; y obtener el marco interpolado F como una función de d y G2-
7. - Uno o más medios legibles por computadora de acuerdo i con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de re-muestreo temporal aleatoria limitada, en donde la solución de re-muestreo temporal aleatoria limitada comprende instrucciones para: generar índices de tiempo pseudo-aleatorio a lo largo de un eje temporal y re-muestrear el video en los casos de tiempo recientemente generados por medio de interpolación de marco; limitar la generación para requerir al menos un marco en el re-muestreo entre dos intervalos de marco en el video original; i generar incrementos de tiempo aleatorio A¡ para distribuirse uniformemente dentro de [1-5,1+5]; iniciar t(0) = 0 y calcular el índice de tiempo t(i) = ti- 1 ) + A¡ para i = 1,2.L,N, en donde N es la longitud de video re-muestreado y es aleatoria de acuerdo con N~Uniforme[M(1 -a), M(1 + a)]; escalar los valores t(1) a t(N) para requerir que todos los índicés de tiempo caigan dentro de [0, M]; y elegir a para controlar la longitud de variación y d para contrólar ruido temporal.
8. - Uno o más medios legibles por computadora de acuerdo con l|a reivindicación 1, en donde desincronizar temporalmente el video] comprende una estrategia de brinco de interpolación, en donde la estrategia de brinco de interpolación comprende instrucciones para: [determinar que marcos dentro del video describen video de movinjiiento rápido y completo; y brincar el re-muestreo de estos marcos.
9. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para: ¡rotar, escalar y traducir puntos dentro del video para protegerse.
10. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende una solución de inclinación aleatoria, en donde la soluc ón de inclinación aleatoria comprende instrucciones para: generar, al utilizar una clave, una rejilla de muestra pseudo-aleat ¿ría; conservar el orden de ubicaciones de muestreo con respecto a filas y columnas; jmuestrear todas las regiones que tienen un área mayor que un i umbral; generar vectores de perturbación periódicamente para ubicaciones muestreadas; y suavizar los vectores de perturbación por interpolación.
11. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende filtrado de luminancia, en donde el filtrado de lumin¡ancia comprende instrucciones para: crear un filtro de luminancia simétrica; y Iseleccionar parámetros dentro del filtro para aumentar la i calidad perceptual y aumentar aleatoriedad en la copia con huellas digitales impresas del video.
12. - Uno o más medios legibles por computadora de acuerdo con l'a reivindicación 1, en donde desincronizar espacialmente el videoj comprende diferenciación de parámetro, en donde la diferejnciación de parámetro comprende instrucciones para: ¡realizar una operación de rotación en un marco; promediar el marco con el marco girado; determinar valores pequeños por los cuales puede realizarse la operación de rotación que resulta en artefactos perceptuales en el maree promediado; utilizar los valores pequeños como un tamaño de paso diferente i al crejar la copia con huellas digitales impresas; y ¡repetir operaciones de escalada y de traducción. |
13.- U no o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para suavización temporal, en donde la suévización temporal comprende instrucciones para: generar parámetros de filtrado de rotación, escalada y traducción y luminancia utilizados para desincronizar espacialmente marcos en el video para cada otro N número de marcos; y I jinterpolar para obtener campos de parámetro en marcos internjiedios entre grupos de N marcos.
14.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para distribución de parámetro, en donde la distribución de parámetro comprende instrucciones para: separar marcos y F2, en donde los marcos Fi y F2 se asocian dentro de copias con huellas digitales impresas 1 y 2 del marco F del video por distancia de parámetros de inclinación rotacional, de escalada, de traducción y aleatorios asociados con F-, y F; y introducir una limitación de aleatoriedad a los parámetros, en donde la limitación de aleatoriedad es una función de una entropía de una distribución de parámetros que exceden un valor de umbral.
15.- Uno o más medios legibles por computadora que comprenden instrucciones ejecutables por computadora para imprejsión de huellas digitales en video, las instrucciones ejecutables por computadora que comprenden instrucciones para: aplicar la primera y segunda desincronizaciones temporales a un vicheo para protegerse; aplicar primeras y segundas desincronizaciones espaciales al video[ y crear primeras y segundas copias con huellas digitales impresas del video de acuerdo con las desincronizaciones tempcjrales y las desincronizaciones espaciales; en donde la combinación de la primera y segunda copias con huelles digitales impresas en un video, coludido resulta en artefactos perce ptibles.
16.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 15, en donde aplicar desincronizaciones temporales comprende instrucciones para: -eemplazar índices de tiempo asociados con muestreo de marco de video con Índices de tiempo aleatorios.
17.- Uno o más medios legibles por computadora de acuerdo con a reivindicación 15, en donde aplicar desincronizaciones espaciales comprende instrucciones para: operaciones globales aplicadas a una pluralidad de marcos y operaciones aplicadas a marcos individuales. {
l8.- Uno o más medios legibles por computadora que comprenden instrucciones ejecutables por computadora para impresión de huellas digitales de video digital, las instrucciones ejecutables por computadora comprenden instrucciones para: desincronizar temporalmente un video para protegerse al utilizar índices de tiempo pseudo-aleatorio;
MX2007014559A 2005-05-27 2006-04-21 Desincronizacion resistente a colusion para impresion de huellas digitales de video digital. MX2007014559A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/139,176 US7397933B2 (en) 2005-05-27 2005-05-27 Collusion resistant desynchronization for digital video fingerprinting
PCT/US2006/015558 WO2006130271A2 (en) 2005-05-27 2006-04-21 Collusion resistant desynchronization for digital video fingerprinting

Publications (1)

Publication Number Publication Date
MX2007014559A true MX2007014559A (es) 2008-11-06

Family

ID=37463405

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2007014559A MX2007014559A (es) 2005-05-27 2006-04-21 Desincronizacion resistente a colusion para impresion de huellas digitales de video digital.

Country Status (10)

Country Link
US (1) US7397933B2 (es)
EP (1) EP1883895B1 (es)
JP (1) JP5095611B2 (es)
KR (1) KR101224744B1 (es)
CN (1) CN101427265B (es)
BR (1) BRPI0610169A2 (es)
IL (1) IL186758A (es)
MX (1) MX2007014559A (es)
RU (1) RU2407215C2 (es)
WO (1) WO2006130271A2 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060088225A1 (en) 2004-10-26 2006-04-27 The Secretary Of State For The Home Department Comparison
WO2008136933A1 (en) * 2007-05-07 2008-11-13 Thomson Licensing Method and apparatus for processing video sequences
GB0819069D0 (en) 2008-10-17 2008-11-26 Forensic Science Service Ltd Improvements in and relating to methods and apparatus for comparison
US8913779B2 (en) * 2010-02-02 2014-12-16 Futurewei Technologies, Inc. System and method for securing media content
CN101872398B (zh) * 2010-06-13 2012-05-30 上海交通大学 基于码分多址和分集技术的抗合谋数字指纹方法
US8942438B2 (en) 2010-07-19 2015-01-27 The University Of Maryland, College Park Method and apparatus for authenticating swipe biometric scanners
WO2012126522A1 (en) * 2011-03-23 2012-09-27 Metaio Gmbh Method for registering at least one part of a first and second image using a collineation warping function
KR20140008377A (ko) 2011-03-25 2014-01-21 톰슨 라이센싱 비디오 스트림 내의 데이터를 감추고 복구하는 방법
US9819965B2 (en) * 2012-11-13 2017-11-14 Intel Corporation Content adaptive transform coding for next generation video
DE102013000301A1 (de) * 2013-01-10 2014-07-10 Basler Ag Verfahren und Vorrichtung zur Erzeugung eines verbesserten Farbbildes mit einem Sensor mit Farbfilter
EP2951999A4 (en) 2013-01-30 2016-07-20 Intel Corp CONTENT PARAMETRIC TRANSFORMATIONS FOR CODING VIDEOS OF THE NEXT GENERATION
CN104796733B (zh) * 2014-01-20 2019-03-29 北京数码视讯科技股份有限公司 视频数据的处理方法、装置及系统
CN106233716B (zh) * 2014-04-22 2019-12-24 日本电信电话株式会社 动态错觉呈现装置、动态错觉呈现方法、程序
WO2016187776A1 (zh) * 2015-05-25 2016-12-01 北京大学深圳研究生院 一种基于光流法的视频插帧方法及系统
US10469486B2 (en) 2016-04-08 2019-11-05 University Of Maryland Method and apparatus for authenticating device and for sending/receiving encrypted information
RU2658811C2 (ru) * 2016-12-12 2018-06-22 Общество С Ограниченной Ответственностью "Дисикон" Способ и система устранения эффекта скользящего затвора камеры
KR102154897B1 (ko) 2018-09-18 2020-09-10 이화여자대학교 산학협력단 블록체인 및 핑거프린팅을 이용한 디지털 콘텐츠 관리 방법, 이를 수행하기 위한 장치 및 기록매체
US10860845B2 (en) * 2018-10-22 2020-12-08 Robert Bosch Gmbh Method and system for automatic repetitive step and cycle detection for manual assembly line operations

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4914694A (en) * 1988-04-11 1990-04-03 Eidak Corporation Modifying a television signal to inhibit recording/reproduction
JP2760083B2 (ja) * 1989-09-22 1998-05-28 富士通株式会社 フレーム間補間方式
US5355411A (en) * 1990-08-14 1994-10-11 Macdonald John L Document security system
JP2644367B2 (ja) * 1990-10-26 1997-08-25 富士通株式会社 フレーム間補間方式
DE69636084T2 (de) * 1995-09-28 2006-09-14 Nec Corp. Verfahren und Vorrichtung zum Einfügen eines Spreizspektrumwasserzeichens in Multimediadaten
US5664018A (en) * 1996-03-12 1997-09-02 Leighton; Frank Thomson Watermarking process resilient to collusion attacks
US6381367B1 (en) * 1997-05-29 2002-04-30 Macrovision Corp. Method and apparatus for compression compatible video fingerprinting
US6091822A (en) * 1998-01-08 2000-07-18 Macrovision Corporation Method and apparatus for recording scrambled video audio signals and playing back said video signal, descrambled, within a secure environment
US6145081A (en) * 1998-02-02 2000-11-07 Verance Corporation Method and apparatus for preventing removal of embedded information in cover signals
JP4083302B2 (ja) * 1998-08-12 2008-04-30 株式会社東芝 動画像スクランブル/デスクランブル装置
US6539475B1 (en) * 1998-12-18 2003-03-25 Nec Corporation Method and system for protecting digital data from unauthorized copying
US6785401B2 (en) * 2001-04-09 2004-08-31 Tektronix, Inc. Temporal synchronization of video watermark decoding
US6975743B2 (en) * 2001-04-24 2005-12-13 Microsoft Corporation Robust and stealthy video watermarking into regions of successive frames
EP1479078A1 (en) * 2002-02-19 2004-11-24 Koninklijke Philips Electronics N.V. Collusion-robust watermarking

Also Published As

Publication number Publication date
JP5095611B2 (ja) 2012-12-12
US7397933B2 (en) 2008-07-08
BRPI0610169A2 (pt) 2010-06-01
JP2008546277A (ja) 2008-12-18
CN101427265A (zh) 2009-05-06
WO2006130271A3 (en) 2008-11-20
US20060269097A1 (en) 2006-11-30
EP1883895B1 (en) 2018-10-10
EP1883895A4 (en) 2011-08-10
RU2007143962A (ru) 2009-06-10
WO2006130271A2 (en) 2006-12-07
KR101224744B1 (ko) 2013-01-21
IL186758A (en) 2011-03-31
CN101427265B (zh) 2011-08-03
EP1883895A2 (en) 2008-02-06
IL186758A0 (en) 2008-03-20
KR20080012281A (ko) 2008-02-11
RU2407215C2 (ru) 2010-12-20

Similar Documents

Publication Publication Date Title
MX2007014559A (es) Desincronizacion resistente a colusion para impresion de huellas digitales de video digital.
US5960081A (en) Embedding a digital signature in a video sequence
US20130265443A1 (en) Nonlinear Self-Calibration for Structure From Motion (SFM) Techniques
JP2000151984A (ja) 付随情報付加装置および方法、付随情報検出装置および方法、ならびに不正利用防止システム
WO2000013136A1 (en) Watermarking system and methodology for digital multimedia content
KR101785194B1 (ko) Dibr 3차원 영상을 위한 템플릿 기반 워터마킹 방법 및 장치
JP2004320765A (ja) ビデオ画像のシーケンスに透かし入れする方法、装置、及び、コンピュータプログラム
Ahuja et al. All aspects of digital video watermarking under an umbrella
US10331862B2 (en) Viewport decryption
Kumar et al. A multi-image hiding technique in dilated video regions based on cooperative game-theoretic approach
US9973742B2 (en) Methods and apparatus for preparation of casual stereoscopic video
e Souza et al. Improvement of global motion estimation in two‐dimensional digital video stabilisation methods
Zhou et al. Adap-360: User-adaptive area-of-focus projections for bandwidth-efficient 360-degree video streaming
Ahuja et al. Robust Video Watermarking Scheme Based on Intra-Coding Process in MPEG-2 Style.
Mao et al. Collusion-resistant intentional de-synchronization for digital video fingerprinting
Narkedamilly et al. Discrete multiwavelet–based video watermarking scheme using SURF
MX2022007742A (es) Metodos y aparato de codificacion y decodificacion.
Tsai et al. Text-video completion using structure repair and texture propagation
Shukla et al. Unsteady camera zoom stabilization using slope estimation over interest warping vectors
KR102036077B1 (ko) 비저블 워터마크가 삽입되는 영상을 처리하는 방법 및 그 영상 처리 장치
Fonseca et al. Improvement of global motion estimation in two‐dimensional digital video stabilisation methods.
Jo et al. A Reversible Watermarking Algorithm in the Lossless Mode of HEVC.
Zhang et al. A multi-lens stereoscopic synthetic video dataset
Osharovska et al. MEDIA CONTENT PROTECTION BY 3D MESH WATERMARKING TECHNIQUE
Rout et al. Secure video steganographic model using framelet transform and elliptic curve cryptography

Legal Events

Date Code Title Description
FG Grant or registration