MX2007014559A - Desincronizacion resistente a colusion para impresion de huellas digitales de video digital. - Google Patents
Desincronizacion resistente a colusion para impresion de huellas digitales de video digital.Info
- Publication number
- MX2007014559A MX2007014559A MX2007014559A MX2007014559A MX2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A MX 2007014559 A MX2007014559 A MX 2007014559A
- Authority
- MX
- Mexico
- Prior art keywords
- video
- computer
- frames
- frame
- readable media
- Prior art date
Links
- 230000002123 temporal effect Effects 0.000 claims abstract description 44
- 230000033001 locomotion Effects 0.000 claims description 50
- 238000005070 sampling Methods 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 39
- 238000013519 translation Methods 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 19
- 238000009826 distribution Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 7
- 230000004069 differentiation Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000009194 climbing Effects 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims 3
- 238000000034 method Methods 0.000 abstract description 16
- 230000015654 memory Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 239000004020 conductor Substances 0.000 description 12
- 238000003860 storage Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000034656 Contusions Diseases 0.000 description 1
- 206010021403 Illusion Diseases 0.000 description 1
- 241000208125 Nicotiana Species 0.000 description 1
- 235000002637 Nicotiana tabacum Nutrition 0.000 description 1
- 208000034526 bruise Diseases 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000000227 grinding Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/167—Systems rendering the television signal unintelligible and subsequently intelligible
- H04N7/1675—Providing digital key or authorisation information for generation or regeneration of the scrambling sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8352—Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/005—Robust watermarking, e.g. average attack or collusion attack resistant
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09C—CIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
- G09C5/00—Ciphering apparatus or methods not provided for in the preceding groups, e.g. involving the concealment or deformation of graphic data such as designs, written or printed messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2347—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8358—Generation of protective data, e.g. certificates involving watermark
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/913—Television signal processing therefor for scrambling ; for copy protection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2201/00—General purpose image data processing
- G06T2201/005—Image watermarking
- G06T2201/0063—Image watermarking in relation to collusion attacks, e.g. collusion attack resistant
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/913—Television signal processing therefor for scrambling ; for copy protection
- H04N2005/91307—Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Television Systems (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
Abstract
Se describen sistemas y métodos de desincronizan un video para protegerse, con lo cual se crean uno o más videos con huellas digitales impresas digitalmente. En una implementación, un video a protegerse se desincroniza temporalmente y se desincroniza espacialmente. Se crea una copia de huellas digitales impresas del video, como se modificó a través de desincronizaciones temporales y espaciales.
Description
DES IINC RQ N IZAC I O N ESI ST E NTE A C O LU SÍO N PARA I M P RESIÓ N D E H U E LLAS DIG ITALES D E VI DEO DDG ITAL
ANTEC E D E NTE S
La proliferación de multimedia digital, junto con bandas anchas siempre en aumento en comunicaciones de Internet, ha hecho al manejo de derechos digitales más y más desafiante. Ya que cualquier usuario final que recibe una copia de contenido multimedia puede redistribuir la copia a otros usuarios, un mecanismo para trazar al distribuidor ilegal necesita establecerse para proteger los derechos de autor digitales. La impresión de huellas digitales multimedia es una forma de IDs únicas embebidas en cada contenido multimedia de usuario. Debido a que las huellas digitales embebidas únicamente están asociadas con el usuario a quién se le otorga la copia la extracción de esa huella digital en una copia pirata únicanente identifica al usuario asociado con la huella digital. Ya que los datos multimedia pueden modificarse ligeramente sin céiusar distorsión perceptual, una huella digital puede embeberse dentro de los datos sin degradar la experiencia de usuario final. Ha existido un número de trabajos anteriores en imagen de impresión de huelles digitales y señal de audio. Sin embargo, la búsqueda en impresión de huellas digitales de video ha estado un poco limitada. Usualmente, mientras cambia la señal huésped para impresión de huellas digitales, el esquema de impresión de huellas digitales
consi eraciones importantes, ya que el valor de multimedia yace en parte en su puntualidad y calidad perceptual. Por consiguiente, un grupo de atacantes, cada uno en posesión de una copia con impresión de huellas digitales de un video puede conspirar para formar un ataque de colusión. Tal ataque intenta atenuar o remover la impresión de huellas digitales embebida en cada copia. Cuando el número de copias con impresión de huella digital dentro del ataque de colusión es lo suficientemente grande, aproximadamente 30 a 40 conspiradores, la utilidad de la impresión de huellas digitales se reduce tanto que puede no ser posible para el detector de impresión de huellas digitales detectar la existencia de huella digital en la copia de colusión.
BREVE DESCRIPCION DE LA INVENCION
pe describe la desincronización resistente a colusión para uso en impresión de huellas digitales de video digital, para que un video a protegerse se sincronice, con ello crea uno o más videos dígita mente impresos con huella digital. En una implementación, un video para protegerse se desincroniza temporalmente y se desinoroniza espacialmente. Se crea una copia de huella digital impresa del video, como modificada por las desincronizaciones tempo rales y espaciales.
BREVE DESCRIPCION DE LOS DIBUJOS
La descripción detallada se describe con referencia a las figuras acompañantes. En las figuras, el dígito(s) izquierdo de un número de referencia identifica la figura en la cual aparece primero el número de referencia. El uso de los mismos números de referencia en diferentes figuras indica artículos similares o idénticos. La Figura 1 ilustra una línea de tiempo ilustrativa que permite que sle comparen índices de tiempo uniformemente muestreados con índicas de tiempo aleatoriamente muestreados. La Figura 2 ilustra aspectos ilustrativos de desincronización temporal que incluyen estrategias de envoltura a fines, en donde el marco F2 se envuelve hacia el marco F2. La Figura 3 ilustra aspectos ilustrativos de desincronización tempóral, que incluye estrategias para envolver a fines, en donde los marc ts F, y F2 son envueltos. La Figura 4 ilustra aspectos ilustrativos de desincronización tempóral, que incluyen estrategias de flujo óptico. La Figura 5 ilustra aspectos ilustrativos de desincronización tempóral, que incluye estrategias de conmutación de vector de movi iento. La Figura 6 ilustra aspectos ilustrativos de desincronización tempóral, que incluyen estrategias de interpolación temporal compínsadas de movimiento. La Figura 7 ilustra aspectos ilustrativos de índice de tiempo
DESCRIPCION DETALLADA
La siguiente discusión se dirige a sistemas y métodos que combaten los ataques de colusión, en donde dos o más receptores de copiáis con huellas digitales impresas de contenido multimedia (por ejemplo un DVD con contenido de audio video, tal como una película) intentan combinar sus copias para crear una versión de alta calidad sin huellas digitales. En particular, los sistemas y métodos se disertan para resultar en la generación de artefactos perceptuales si las copias se recombinan. La Figura 1 muestra una técnica de desincronización ilustrativa 100 utilizada para contenido multimedia de impresión de huellas digitales para contrarrestar ataques de colusión. En la modalidad de la Figura 1, un esquema de desincronización resistente a colusión incluye desincronización de video en dominios temporales y espaciales. Cada copia de usuario de video ligeramente se cambia de tal forma que los cambios no serán notables para tabaco individual, pero serán lo suficientemente significativos para producir artefactos perceptuales cuando se combinan múltiples copias (por ejemplo, por tales métodos como promediados). Ya que las características físicas del eje temporal y el eje espacial signif cativamente, la desincronización temporal y espacial típicamente se separa en dos pasos. En un primer paso, el muestreo pseudo-aleatorio limitado primero se aplica en dominio temporal. Dado un grupo de marcos de video uniformemente muestreados a lo
largo del eje tiempo, se emplea una interpolación de marco a base de movimiento para generar nuevos marcos de video en índices de tiempD arbitrario. En un segundo paso, cada marco de video además se desincroniza por una operación geométrica global que involucra rotación, escalda y traducción, seguido por una inclinación aleatoria local que utiliza una rejilla de muestreo espacial aleatorio. Los asuntas de calidad perceptual se dirigen al suavizar los parámetros de d-sincronización a lo largo de ejes espaciales y temporales. Además, el asunto de seguridad de desincronización se analiza en términos de complejidad computacional. En particular, la Figura 1 muestra un ejemplo 100 de una moda idad en donde el muestreo temporal pseudo-aleatorio de técnicas de desincronización de video y espaciales se combinan para producir copias con huellas digitales impresas de un video que pueden trazarse de nuevo a un receptor original, y cuando se combinan con copias con huellas digitales impresas similares resultan en una copia defectuosa dañada por artefactos visibles. En el b oque 102, un video para protegerse se desincroniza temporalmente. En el bloque 104, el video se desincroniza espacialmente. En el bloque 106, la copia con huella digital impresa del video se crea, como se modifica por las desincronizaciones temporales y espaciales.
ftfiuesjtreo Temporal Pseudo-aleatono de Video Esa sección expande la desincronización temporal, un tema
introducido por el bloque 102 de la Figura 1. La desincronización temporal puede utilizar muestreo temporal pseudo-aleatorio, que involucra interpolación de marco de video. El problema básico asoc ado con la interpolación de marco de video es que dado un par de méircos de video cercanos en tiempo (por ejemplo en tiempo ^ y F2 en tiempo t2, en donde (t2>t1) y T = t2-t! es el período de marco de video de fuente) deseamos genera un marco intermedio en el tiempo {\i + ?.?), en donde 0=?=1. En muchos casos, el promediado directo de los pixeles de marco correspondientes no dará un buen resultado, debido a que los objetos en marcos de video tienden a moverse y tal movimiento debe tomarse en cuenta cuando se conduce la interpolación. Por consiguiente, existe una necesidad de técnicas más sofisticadas. La desincronización temporal puede utilizar muestreo temporal pseudo-aleatorio. El muestreo temporal pseudo-aleatorio de video puede utilizar una estrategia de envoltura a fin para proporcionar la base para interpolación de marco de video. Por ejemplo, dado los dos marcos de video F y F2 es ventajoso a envolver F ^ hacia F2. Las coordanadas de F^ pueden denotarse por ( ,, yi) en cuanto a que F2 by (x2, y2). Las coordenadas homogéneas pueden utilizarse para descr bir la envoltura a fin 2-D de F-i a F2, de acuerdo con:
matriz de transformación al fin se denota en la ecuación
anterior por W. Los parámetros wi a w6 toman en cuenta las operaciones de rotación, escalda y traducción. Todos estos parámetros primero se estiman en imágenes muestreadas hacia debajo de F^ y F2, después se escalan hacia arriba y refinan para imágenes de tamaño mayor, hasta que finalmente alcanzan el tamaño de mé reo original. La búsqueda de parámetro involucra encontrar una solución a un problema de minimización. Denotar la operación de envoltura de un rrarco por en volturaw(.) , y una métrica de distancia que mide la distancia entre dos marcos por dist(.,.). Ya hay una operación para envoli er se determina únicamente por los parámetros para envolver, intentamos encontrar el vector de parámetro w*= [ ? * w2* w3* w4* w5* W6*]T de manera que w* = dist min.(envolturasw(F1),F2) (2)
Cuando la métrica de distancia es la suma del cuadrado de las diferencias, la fórmula anterior se vuelve un problema de mínimos cuadrados. Tal problema puede resolverse por el algoritmo de Lucas-Kanade, clásico, que esencialmente utiliza el método de Gauss-Newton para encontrar la mínima. Para reducir la complejidad de cálculo debido a la alta dimer sionalidad , se debe notar que los parámetros de traducción, w3 y w6i son separables de otros parámetros. Por lo tanto, w3 y w6 puede determinarse primero, seguido por un procedimiento interactivo para actualizar el vector de parámetro hasta que converge.
1 o Por consiguiente, la solución para envolver a fin puede aplicarse al derivar una ecuación que describe una envoltura a fin del marco al marco F2 dentro del video, tal como ecuación (1). Al deriv.ir la ecuación, un vector de parámetro que describe la envoltura puede encontrarse al resolver un problema de minimización derivado de la ecuación, tal como ecuación (2). La Figura 2 muestra una modalidad 200 de desincronización tempcral caracterizada por una solución para envolver a fin en donde F ! se envuelve hacia F2. La solución para envolver a fin que se encuentra dentro de un grupo de funciones para envolver F para que cualquier imagen dada I, una imagen envuelta G pueda generase al aplicar una función para envolver ok(.)eO a la imagen I, obtener I ' ø k ( I ) , para distribución a un usuario k. Cada usuario por lo tanto recibirá una copia diferente de la imagen I, con lo cual complica un ataquje de colusión. En el bloque 202, se deriva una matriz de transformación a fin para envolverse del marco al marco F2 dentro del video, en donde la matriz toma en cuenta las operaciones de rotación, escalda y traducción (RST). La ecuación (1) es representativa de la matriz de transformación a fin. En el bloque 204, se encuentra una solución a un problema de minimización asociado con la matriz. La ecuación (2) es representativa del problema de minimización. El problema de minimización puede atacarse en cualquier forma apropiada. Por ejemplo, en el bloque 206 se aplica una solución de cuadrados menos, en donde la ecuación se basa en una métrica de distancia, dist, que es una suma del cuadrado de las
diferencias. En el bloque 208, la complejidad computacional del problema de minimización puede reducirse al separar parámetros de traducción de otros parámetros, resolver primero parámetros de traducción, y aplicar un procedimiento interactivo al vector de parámetro hasta que converge. De esa forma, en el ejemplo anterior, los parámetros , y w6 se determinaron primero, con lo cual se reduce la dimensionalidad del problema para facilitar la solución a los péirámetros restantes. La discusión anterior de la Figura 2 se refiere a la interpolación demarco de video generalmente, y más particularmente a una herramienta para envolver a fin para muestreo temporal pseudo-aleatorio. Bajo estas circunstancias, hemos observado que de los dos marcos de video F, y F2 es ventajoso envolver F hacia F2. Una herramienta para envolver a fin de alternativa presentada por la Figura 3 y adaptada para una aplicación similar, puede ser ventajoso envolj/er tanto y F2 de envoltura. ¡Supongamos que tenemos el marco F, en tiempo Ti y F2 en tiempjo t2 y deseamos envolver tanto el marco F -¡ y F2 hacia el caso de tiempo (ti + ? ,T), en donde 0=?<1. Primero estimamos la matriz para envolver de F, a F2. Entonces las matrices de transformación a fin hacia delante y hacia atrás WF y WB, que envuelven F, y F2 hacia leí tiempo + ?.?), puede calcularse de acuerdo con
Los marcos envueltos hacia adelante y hacia atrás, Fadeiante de Fi y Fatrás de F2 se obtienen al re-muestrear F y F2 respectivamente en coordenadas envueltas. Fadeiante=remuestrear(F1(WF,[x y 1]T)), y (5) Fatras = remuestrear(F2(WB[x y 1]T)). (6) Ya que el punto de re-muestreo no puede estar en coordenadas de entero, los métodos de interpolación, tal como interpolación bilineal o interpolación cúbica puede utilizarse para producir el valor de salida. La Figura 3 muestra una modalidad 300 de desincronización temporal caracterizada por una segunda solución para envolver a fin, en donde tanto y F2 se envuelven hacia un caso de tiempo (ti+?.?), en donde 0=?=1). La segunda solución para envolver a fin también se encuentra dentro de un grupo de funciones para envolver F para cualquier imagen dada I, pueda generarse una imagen envue lta G al aplicar un función para envolver ok(.)eO a la imagen I, obteniendo I * = ø k ( I ) , para distribución a un usuario k. Cada usuario por lo tanto recibirá una copia diferente de la imagen I, con lo cual complica un ataque de colusión. En el bloque 302, una matriz para envol er W de F, a F2 se estima. En el bloque 304, puede calcularse las matrices a fines hacia delante y hacia a tras, al utilizar la matriz
de estimado W. Las ecuaciones (3) y (4) anteriores son ejemplos de las matrices hacia delante y hacia atrás. Las matrices hacia delante y hacia a tras permiten el calculo de marcos envueltos hacia adelante y hacia atrás. Por consiguiente, en el bloque 306 se obtienen marcos envueltos hacia delante y hacia atrás al re-mueslrear F1 y F2 en coordenadas envueltas. En el ejemplo anterior, las ecuaciones (5) y (6) muestran como los marcos hacia delante y hacia atrás, Fadeiante y Fatrás, pueden obtenerse al re-muestrear y utiliz ir las matrices hacia delante y hacia atrás. En el bloque 308, en donde se producen coordenadas no-integrales, puede utilizarse interpolación para producir valores de salida aceptables. Las modalidades del muestreo temporal pseudo-aleatorio del video pueden utilizar una estrategia de flujo óptica para proporcionar la base para interpolación de marco de video. Por consiguiente, el flujo óptico puede proporcionar el muestreo temporal pseudo-aleatorio de video que se utiliza para aplicar una huella digital al video derivado de un video para protegerse. El flujo óptico se refiere a molimiento bidimensional observado en datos de video. Ya que los ojos ] humanos perciben movimiento al observar puntos correspondientes en diferentes ubicaciones en diferentes momentos, la id ntificación de un movimiento se basa en la suposición de intensidad constante que el valor de luminancia del mismo punto de objeto no cambia después de movimiento. Se considera que una secuencia de video la variación de luminancia se denota por f(x, y, t). Supongamos un punto de objeto P en ubicación parcial (x, y) y
tiempo t se mueve a (x + dx, y + dy) en tiempo t + dt. Bajo la suposición de intensidad constante, tenemos F(x + dx, + dy, t + dt) = f(x,y,t). (7) ¡Al asumir la continuidad del campo de luminancia a lo largo del eje espacial y temporal, aplicamos la expansión de Taylor a lado izquierdo de (7), para que la ecuación ahora se vuelva
Ox Oy at (8) Después llegamos a la ecuación de flujo óptica
(V/)7'v+^_ = 0 (10)
en dojnde (Vf) 3es el vector de gradiente espacial de f (x, y, t). ;l_a ecuación de flujo óptico ofrece un acercamiento para calcular el vector de movimiento si podemos estimar el gradiente espacial y temporal de la luminancia. En la modalidad, los gradientes espaciales para la ubicación (x, y) se estiman dentro de una ventana de 5x5 centrada en (x, y). Por consiguiente, la función de ecuación (10) suede aumentarse para calcular los componentes x y y del vector de movimiento. jl_a Figura 4 muestra una modalidad 400 de la desincronización tempcjral caracterizada por una aplicación de una solución de flujo ópticcj al re-muestreo. En particular, un vector de gradiente espacial
se utiliza para alterar marcos dentro del video, con lo cual se envuelve el video de forma diferente para cada usuario al que se distribuyen las copias del video. En el bloque 402, se asume una ilumiración constante f de un punto (x, y) antes y después de movimiento. Tal suposición es consistente con el rastreo natural realiz ado por el ojo humano, en donde el movimiento se observa más fácilmente cuando el objeto tiene una apariencia generalmente consistente. En el bloque 404, se derivó una ecuación de flujo. Por ejemplo, las ecuaciones (9) y (10) son representativas de ecuaciones de flujo ópticas que ayudan en el cálculo de vector de movimiento, un estimado del gradiente espacial y temporal de la luminancia.
En bloque 406, un vector de movimiento se calcula con el cual muesírea el video al utilizar Vf y un gradiente espacial y temporal
estimado de la luminancia. Las modalidades de muestreo temporal pseudo-aleatorio de video pueden utilizar una estrategia de conmutación de vector de movimiento para proporcionar la base para interpolación de marco de video! La conmutación de vector de movimiento ayuda a seleccionar i un vector de movimiento para corregir la envoltura implicada por . Supongamos que tenemos en marco Fw en el tiempo ti y F2 en el tiempD t2 (t2 > ti) y deseamos generar un nuevo marco en el tiempo i (ti + ?.?). Primero generamos tres pares de marcos envueltos. El
primer par es solo los marcos de entrada (F,, F2). El segundo par son los marcos de entrada a fines envueltos hacia el caso de tiempo (t! + K.T), (Fadeiante, Fatras). El tercer par son los marcos envueltos a
Jx ¾' V/' dy' ? d/'
y S es una ventana de pixel de 5x5 pequeñas entrada en (x, y). El vector} de movimiento v(x, y) es constante en la suma y Vfx, Vfy, son funciojnes de (x, y). Tal formulación puede resolverse por el algoritmo de Lucas- anade clásico, que es esencialmente un método de Gauss-Newton para resolver interactivamente un problema de optimización numérica dado. Al utilizar la función de error anterior, el vector de movimiento candidato que logra el erro mínimo en la ubicación (x, y) se elige como el vector de movimiento nuevo. Para
aplic.ición de interpolación, imponemos suavidad en el vector de movimiento al aplicar un filtrado suave en el campo de vector de movimiento al utilizar filtro mediano o promedio. Esto genera el campo de vector de movimiento final v. La Figura 5 muestra una modalidad 500 de desincronización temporal caracterizada al aplicar una solución de conmutación de vecto' de movimiento al re-muestreo. En el bloque 502, se genera una pluralidad de pares de marcos envueltos. En el bloque 504, se asocia un vector de movimiento con cada par de marcos, con lo cual se obtiene una pluralidad de vectores de movimiento. En el bloque 506, se aplica una función de error a cada uno de los vectores de movimiento. La función de error puede estar en la forma de ecuación (11). En el bloque 508, la función de erro se utiliza para seleccionar un voctor de movimiento para utilizarse en la desincronización tempera!. Las modalidades del muestreo temporal pseudo-aleatorio del video pueden utilizar una estrategia de interpolación temporal
I compensada de movimiento para proporcionar la base para interpolación de marco de video. En una estrategia de interpolación temporal compensada de movimiento, los marcos de entrada pueden envolverse hacia un caso de tiempo. Por ejemplo, basándose en el campo de movimiento v, los marcos de entrada Fi y F2 se envuelven hacia el caso de tiempo
+ ?.?) para generar dos marcos envueltos Gi y G2- Para este propósito, los vectores de movimientos de escalan linealmente y el marco envuelto es la versión re-m uestreada del
marco de fuente. Por ejemplo d = remuestra (F^x + Avx, y + Avy)), (12) y el marco G2 puede obtenerse en una forma similar. Una vez que obtenemos y G2 el marco de interpolación final F(x, y) se obtiene como F(x, y) = (1-A).G1(x, y) + A.G2(x, y). (13) Por consiguiente, el video puede desincronizarse temporalmente al aplicar una solución de interpolación temporal compensada de movimiento para el re-muestreo. Gi y G2 pueden generarse al envolver F F2 hacia un caso de tiempo, tal como (ti + ?.?). d y G2 después puede re-m uestrearse de acuerdo con una función de F-, y F2, tal como ecuación (12). Finalmente, el marco interpolado F puede obtenerse como una función de Gi G2 tal como al utilizar la ecuación (13). La Figura 6 muestra una modalidad 600 de desincronización tempqral caracterizada por aplicar una solución de interpolación tempe-ral compensada con movimiento al re-muestreo, en donde los marees de entrada F( y F2 y un vector de movimiento asociado v se utilizan para derivar un marco interpolado F, para que el muestreo de F resulte en un muestreo con huellas digitales impresas. En el bloque 602, los marcos d y G2 se generan al envolver marcos F-\ y F2 hacia un caso de tiempo (t + ?.?). Por ejemplo, la ecuación (12) muestra como el marco Gi puede obtenerse del marco Fi. En el bloque 604, los marcos d G2 se re-muestrean de marcos Fi y F2. Por ejempjlo, el re-muestreo puede realizarse de acuerdo con la cuestión
(12). En el bloque 606, un marco interpolado puede obtenerse como una función de los marcos envueltos y G2. Por ejemplo, la ecuación (13) es un ejemplo de cómo el marco interpolado F puede obtenerse de los marcos envueltos G y G2. Las modalidades del muestreo temporal pseudo-aleatoria de i video pueden utilizar una estrategia de re-muestreo temporal aleatorio limitada para proporcionar la base para interpolación de marco de video. En una modalidad, los índices de tiempo pseudo- I aleatorios se generan a lo largo del eje temporal, lo que permite el re-muestreo del video recientemente generado por medio de interpolación de marcos. Para lograr una buena calidad perceptual, ponemos la limitación que deben haber al menos un marco en el video re-m uestreado entre dos intervalos de marco en el video original, es decir, entre cualquier marco i e i + 2 en el video original. Haciendo referencia a la Figura 7, se puede observar que se localiza un ínjd ice de tiempo aleatoriamente muestreado entre cada uno de los índices de tiempo uniformemente muestreado. Tal limitación limita el ruido temporal en el video muestreado, al mismo tiempo que i permite espacio para aleatoriedad temporal. Para lograr esta meta, primero generamos incrementos de tiempo aleatorios i.i.d. (independientes idénticamente distribuidos) A¡, que se distribuye uniformemente en la escala de [1 - d,1 + d]. Después iniciamos t(0) = C y calculamos el índice de tiempo t(i)=t(i-1 ) + ?, para i=1, 2, N. Aquí es la longitud total del video re-muestreado, que es un valor aleatorio de acuerdo con N~Un¡form[M(1 + a)], en donde M es el
número total de marcos en el video original. Finalmente, escalamos los valores de t(1) a t(N) para asegurar que todos los índices de tiempo caen en la escala de [0, M]. Pueden elegirse dos parámetros en esta configuración, d que controla la cantidad de ruido temporal y a que controla la variación de longitud. En un ejemplo por el cual puede implementarse la desintonización temporal d y a pueden seleccionarse como 5 = 0.75 y a = 0.0035. Otros valores pueden dar resultados satisfactorios en varias aplicaciones de otros conceptos. La Figura 8 muestra una modalidad 800 de desincronización tempcral caracterizada por aplicar una estrategia de re-muestreo temporal aleatoria limitada al re-muestreo, en donde los índices de tiempo uniformemente muestreados asociados con el video se reemplazan con índices de tiempo aleatoriamente muestreados asociados con el re-muestreo. En el bloque 802, los índices de tiempo pseudo-aleatorios se generan a lo largo de un eje temporal. Este video después se re-muestrea en los casos de tiempo recientemente generados, tal como al utilizar interpolación demarco.
En e bloque 804, la generación de índices de tiempo pseudo-aleatoriamente muestreados se limita a requerir al menos un marco en el Ire-muestreo entre dos intervalos de marco en el video original. En ellejemplo de la Figura 7, se puede observar que entre cada dos marcadores de marco originales (vistos en la parte superior de la línea de tiempo) existe un marcador de marco pseudo-aleatorio (visto en la parte inferior de la línea de tiempo). En el bloque 806, se
generan incrementos de tiempo aleatorios A¡ y se distribuyen
uniformemente dentro de una escala [1-5,1+5]. En el bloque 808, el índice de tiempo se inicia y calcula en la longitud del video. Por ejemplo, el índice de tiempo puede iniciarse en t(0) = 0, y el índice de tiempo calculado de acuerdo con t(i) = t(i-1 ) + ?, para i = 2, 2.....N, en donde N es la longitud de video re-muestreado y es aleatorio de acuerdo con N~U n if orme[; ( 1 -a) , M(1+a)]. En el bloque 810, los
valorés t(1) a t(N) se escalan para requerir todos los índices de tiempo que caen dentro de [0, M], en donde M es el número total de marcos en el video. En el bloque 812, las variables pueden seleccionarse para controlar aspectos de video. En particular, a se elige para controlar longitud de variación y 5 para controlar ruido y
temporal. Por ejemplo, 5 puede establecerse en 0.75 y a puede establecerse en 0.0035. _as modalidades de muestreo temporal pseudo-aleatorio de video pueden utilizar una estrategia de saltado de interpolación para mejorar el control de calidad. Cuando los marcos constituyen colectivamente movimiento rápido y/o escenas complejas, el uso de i la interpolación de marco puede no resultar en un resultado perceptual satisfactorio. Por lo tanto, la calidad del marco interpolado puede controlarse al saltar los marcos que representan movimiento rápido y complejo. Cuantitativamente, la variación del campo de vector de movimiento puede calcularse como var(vx) y var(Vy) , en donde la interpolación se salta en cualquier momento que la surfia var(vx) + var(vy) es mayor que un valor de umbral Vv0. En
una ¡mplementación, el tamaño de marco puede establecerse a 640x480 pixeles y Vvo puede establecerse a 300. En general, el uso de ur tamaño de marco más pequeño debe resultar en reducción proporcional del umbral, basándose en el ancho o altura del marco. La Figura 9 muestra una modalidad 900 de una estrategia de saltaco de interpolación para mejorar el control de calidad. En el bloque 902, se determina que los marcos dentro del video describen video del movimiento rápido y complejo. Estos marcos representan un asiunto de calidad potencial si se aplica muestreo temporal pseudo-aleatorio. En el bloque 904, se notan los marcos determinados para describir video de movimiento rápido y complejo, y se salta el re-muestreo de estos marcos.
Desinlcronizaciórc Espacial de Video Esta sección discute desincronización espacial, un tema introducido por el bloque 104 de la Figura 1. La desincronización espacial puede utilizarse en conjunto con muestreo temporal pseudo-aleatorio de video para crear desincronización. Una ¡mplementación de desincronización espacial incluye tanto operaciones globales como operaciones locales. Las operaciones globales incluyen rotación de marco, escalada, y traducción (RST). Las operaciones locales incluyen inclinación aleatoria variante y filtrado de luminancia. Con el fin de lograr buena calidad perceptual, los parámetros de estas operaciones se generan para ser espacial y temporalmente suaves.
Las operaciones RST son una forma de desincronización espacial. La rotación, escalda y traducción (cambio) puede representarse al utilizar una coordenada homogénea. Supongamos que las coordenadas antes de las operaciones RST son (x1 t y^, aquel as después de RST (x2, y2), una rotación de T grados llevara a la siguiente relación
Similarmente podemos encontrar la relación de coordenadas después de traducción de (tx, ty)
y la relación después de escalda
El efecto total puede representarse al utilizar una combinación de matrices de transformación de rotación, traducción, y escalada. En la implementación de las ecuaciones 14-16, el ángulo de rotaciónG, factor de escalada sx, y sy, y cantidad de traducción tx, y
ty se eligen para limitarse para lograr imperceptibilidad de las
I operabiones RST. Las selecciones consistentes con esto incluyen:
06[-0|©];sx,Sy6 [1 -S, 1 +S]; y tye[-r,r]. En esta implementación, se
el bloque 1202, se genera una rejilla de muestreo pseudo-aleatoria, típicamente que utiliza una clave. En el bloque 1204, se conserva el orden de las ubicaciones de muestreo con respecto a filas y columnas. En el bloque 1206, todas las regiones que tienen un área mayor en el umbral se muestrean. En el bloque 1208, los vectores de perturbación se generan periódicamente para ubicaciones muestreadas. En el bloque 1210, los vectores de perturbación se suavizan, típicamente por una técnica tal como interpolación. El filtrado de luminancia es una herramienta utilizada para afilar aleatoriamente o suavizar diferentes áreas dentro de un video. El filtrado de luminancia tiene dos efectos. Primero, después de interpolación temporal, las operaciones de RST espacial e inclinación, las imágenes generadas tienden a ser borrosas. De esa forma utilizamos un filtro de afilamiento de borde para mejorar la calidad perceptual de la salida final. Segundo, los parámetros de filtros! de luminancia pueden ser aleatorios, lo que proporciona más aleatóriedad en el video de sincronizado. En una modalidad que carac eriza un sistema de sincronización, se considera un filtro de luminancia de 3x3 simétrico de la forma
(-BIS -£/8 -BJf\ -5/8 A+B -B/S 07C) -Bl% -B/S -B/8
Aquí el parámetro A controla la energía total del filtro y el parámetro B representa el efecto de afilamiento. Para buena calidad perceptual, A debe estar cerca de 1 y B debe ser mayor que 0 con el
fin de lograr que efecto de afilamiento de borde. En una implementación ilustrativa, A está en la escala de [1-0.04,1 + 0.04] y B est<» en la escala de [0, 0.7]. La Figura 3 se muestra una modalidad 1300 de desincronización espacial caracterizada por filtrado de luminancia. En el bloque 1302, se crea un filtrado de luminancia simétrico. El filtro puede ser la forma de ecuación (17C), o similar. En el bloque 1304, los parámetros se seleccionan para aumentar la calidad perceDtual y aumentar aleatoriedad en la huella digital impresa del video. En una modalidad en donde un filtro tal como ecuación (17C) se utiliza, los parámetros A y B se seleccionan para sintonizar el i filtro de luminancia, como se desee. I La suavización de parámetro y las herramientas de optimización se configuran para controlar errores de parámetro y producir copias diferentemente desincronizadas de video. Una de tales herramientas, 'diferenciación de parámetro' ayuda a propo-cionar un valor suficientemente para parámetros asociados con diferentes copias de un video. Como se discutió anteriormente, los parámetros RST se enlazan para conservar la calidad perceptual. Además, para producir suficiente diferencia entre dos copias diferentemente desincronizadas de video, los parámetros también necesitan diferenciarse (es decir hacerlos diferentes) con un tamaño de paso suficientemente grande. Para determinar el tamaño de paso apropiado en la diferenciación, puede conducirse el siguiente experimento, en un ejemplo, se promedian dos copias de un marco
de 640x480, en donde la primera copia es la copia original, y la segunda copia es la copia después de rotación por AE grados. Después, los dos marcos se promedian y observan para determinar si existen artefactos perceptuales en el marco promediado, tal como borrosidad. Generalmente, el uso del valor ?0 más pequeño que causa que los artefactos perceptuales como el tamaño de paso diferente. Al utilizar acercamientos similares, determinar el tamaño de péso de parámetro de escalado y de traducción. Por ejemplo, elegir 8 niveles de cuantificación para el parámetro de rotación 8 para parámetros de traducción, y para los parámetros de escalada.
Estos resultados se resumen en el cuadro I.
CUADRO I
DIFERENCIACION DE PARAMETRO PARA OPERACIONES RST
a Figura 14 muestra una modalidad 1400 para desintonización espacial caracterizada por suavización y optim zación de parámetros. Esta operación proporciona un tamaño de pasos diferente por el cual pueden realizarse operaciones de
desintonización espaciales. En el bloque 1402, se realiza una operación de rotación en un marco. En el bloque 1404, el marco y el maree girado se promedian juntos. El método por el cual este promediado se realiza es de alguna forma accesible. En el bloque 1406, los valores pequeños por los cuales puede realizarse la operación de rotación se determinan, en donde los valores resultan en artefactos perceptuales en el marco promediado. En el bloque
1408 los valores pequeños se utilizan como un tamaño de paso diferente al crear la copia con huellas digitales impresas. En el bloquü 1410, los bloques 1402-1408 se repiten para operaciones de escalada . y de traducción, con lo cual se obtienen de pasos diferentes para estas operaciones. Se utilizan herramientas de suavización temporales para suavizar imágenes de video de los marcos desincronizados. Como un video de señal 3-D proporciona tanto oportunidad y problema para desincronización espacial. Ya que el sistema visual humano puede retenor una imagen después de observarla por corto tiempo, la velocijdad de marco de video estándar de aproximadamente 30 j mareqs por segundo puede suavizar las distorsiones menores en marees individuales. Como un resultado, algunas distorsiones, que pueden tener artefactos perceptuales causados pueden observarse como imágenes fijas, no causaran artefactos perceptuales cuando se observan como imágenes de movimiento. Por otro lado, los ojos humanos son sensibles a cambios temporales y espaciales en una secuencia de video.
Por ejemplo, cuando se gira un marco 0.5 grados y se observa comoj una imagen fija, usualmente no se notará la rotación. Sin embargo, si este marco es seguido por otro marco girado por -0.5 grados, tales rotaciones se notarán claramente debido a que existe un efecto de "ruidos". Para logra suavidad temporal en nuestro esquema, elegimos generar los campos de parámetro de filtrado RST, inclinación y luminancia para cada L marco y utiliza potación lineal para obtener campos de marco en los marcos intermedios. La interpolación lineal se el ge para ahorra tiempo de actualización de parámetro y el almacenamiento requerido. Por ejemplo, supongamos que generamos
I el parámetro de rotación r(k) para el k-v o marco y r(k + N) para el (k + L)-vo marco, el parámetro r(i) para k.<i<k + L es r(i) = (i-k)(r(k + L)-r(k))/L. En la implementación anterior, el parámetro L = 128, que
I corresponde aproximadamente 4 segundos si la velocidad de video es 30 marcos por segundo. La Figura 15 muestra una modalidad 1500 de desincronización espacial caracterizada por suavización temporal. En el bloque 1502, los parámetros de filtrado RST (rotación, escalada y traducción), inclinación y/o luminancia se generan en el video para otro N número de méircos. En el bloque 1504, los campos de parámetro en marcos intermedios entre grupos de marcos N se determinan por interpolación. Como un resultado, se mejora la suavidad temporal, con ib cual se remueve algún efecto de ruido introducido por
operaciones de filtrado RST, de inclinación y luminancia. (Las herramientas de distribución de parámetro ayudan a separar los marcos desincronizadas del video. Supongamos que tenemos un marco F y dos versiones desincronizadas de este marco F, y F2. Con el fin de impedir colusión, desearíamos que la distancia entre F^ y F2 sea lo más lejana posible. Una medida de distancia posib e es la diferencia de pixel por pixel, es decir, d(Fi(x, y), F2(x, y)) = F^x, y)-F2(x, y)l. Suponer que F^ y F2 solo son versiones giradéis de F, en donde F se gira por un ángulo de T1 y F2 por ?2. Se considera que un pixel en la ubicación (x, y) en el marco F! es de la ubicación ( ,, y^ en el marco F, y que el pixel (x, y) en el marco F2 es la ubicación de marco (x2, y2) en el marco X, es decir. Fi(x, y) = F(x1, y,) 7y F2(x, Y) = F(x2. y2). De acuerdo con la ecuación (14) tenemos
ción y ?2 son muy pequeños, que desincronización debido a que dese aproximadamente lo mismo. Bajo esta
nG2s02. (19)
entre dos marcos es
dist(Fl(x,y),F2(x,y)) = |F,(x,y)-F2(x,y)|
Asumir que el valor de luminancia de F cambia aproximadamente de forma lineal en una comunidad pequeña de cualquier ubicación (x, y), y el usuario de la norma L2 para medir la distarjcia espacial, después la ecuación se vuelve dist( ,(x, y), F2(x, y))
Resultados similares pueden derivarse para operaciones de traducción, escalada, e inclinación. Está claro bajo tal derivación que si deseamos maximizar la distancia entre cualquiera de dos versiones de marcos desincronizados, necesitamos maximizar la distancia entre los dos parámetros de rotación. Ya que los dos parámetros de rotación son variables aleatorias i.i.d. al tomar valores de un grupo separado {-T,-T + ??,-T + 2??, ... ,T}, el problema se vuelvé a encontrar la distribución p para el parámetro que maximiza la distancia esperada entre ?? y ?2. Utilizamos la norma L2 para medir la distancia y formular el problema como sigue. max ?(?? - ?2)2. (22) P
_a formulación anterior lleva a una distribución que es Pr(0: T) = ?G(T = T)=1/2.
†r a I distribución, aunque maximiza la distancia entre cualquiera de dos copias giradas de un marco, no puede soportar un ataque de f uerzéi bruta debido a que la cantidad aleatoriedad es muy pequeña. Por lo tanto, puede agregarse una limitación de la autoridad a la formu ación (22), como sigue: max ?(?? - ?2)2 sujeto a H(P)> h, (23) p
en dohde H( ) denota la entropía de una distribución y h es un umbral para la entropía. Ya que el parámetro de rotación puede cuantjf icarse en 8 niveles, la entropía posible máxima es 3 bits.
Elegir un umbral de entropía h = 2.8 bits y resolver (23) numéifi camente para obtener la distribución en las primeras dos filas en el Cuadro II. Solo se proporciona el PMF de un lado ya que el P F és simétrico. Se debe notar que la distribución es la solución a (23) para todos los PMF de 8 niveles. Por lo tanto, también se puede utilizar como la distribución para el parámetro de traducción. Para el parárrjetro de escalda, ya que se cuantifica en cuatro niveles, elegir el urrjibral de entropía h = 1.9 bits y el PMF correspondiente se muestira en las últimas dos filas en el Cuadro II.
CUADRO II DISTRIBUCIÓN DE PARAMETRO PARA OPERACIONES ST
> palores -T -T+?? -T+2?0 -T+3??
Pmfj(un lado) 0.2375 0.1219 0.0781 0,0625 valores -T -T+?? -T+2?0 -T+3?? pmf 0.3420 0.1580 0.1580 0.3420
La Figura 16 muestra una modalidad 1600 de desincronización espacial caracterizada por herramientas de distribución. Tales herramientas son útiles al aumentar la distancia entre dos marcos dentro de dos copias con huellas digitales impresas de un video. En el bloque 1602, los marcos F y F2, se separan, en donde los marcos Fi y F2 están asociados dentro de copias con huellas digitales impresas 1 y 2 del marco F del video. La separación se realiza al distarjciar parámetros de rotación, escalada, traducción e inclinación aleatqria asociados con y F2 En el bloque 1604, la limitación aleato riedad se introduce a parámetros utilizados al crear Fi y F2, en donde la limitación de aleatoriedad es una función de entropía de una distribución de los parámetros que exceden un valor de umbral.
Am iente di® Cómputo Ilustrativo La Figura 17 ilustra un ambiente de cómputo ilustrativo adecuado para implementar desincronización resistente a colusión para impresión de huellas digitales de video digital. El ambiente de
cómputo 1700 incluye un sistema de cómputo de propósito general en la forma de una computadora 1702. Los componentes de la computadora 1702 pueden incluir, pero no se limitan a, uno de un procesador a unidades de procesamiento 1704, una memoria de sistema 1706, y un conductor común de sistema 1708 que acopla varios componentes de sistema que incluyen el procesador 1704 a la memoria de sistema 1706. El conductor común de sistema 1708 representa uno o más de cualquiera de varios tipos de estructuras de conductor común, que incluyen un conductor común de memoria o controlador de memoria, un conductor común periférico, un conductor común de Interconexión de Componente Periférico (PCI), un puerto de gráficos acelerado, y un procesador o conductor común local que utilizá cualquiera de una variedad de arquitecturas de conductor común [La computadora 1702 típicamente incluye una variedad de medicjs legibles por computadora. Tales medios puede ser cualquier medicj disponible y es accesible por la computadora 1702 el incluye tanto medios volátiles como no volátiles, medios removibles y no removibles. La memoria de sistema 1706 incluye medios legibles por computadora en la forma en memoria volátil, tal como memoria de acceso aleatorio (RAM) 1710 y/o memoria no volátil tal como memora solo de lectura (ROM) 1712. Un sistema de entrada/salida básico (BIOS) 1714, que contiene las rutinas básicas que ayudan a transferir información entre elementos dentro de la computadora 1702, tal como durante el arranque, se almacena en ROM 1712. La
RAM 1710 típicamente contiene datos y/o módulos de programa que son nmediatamente accesibles a y/o actualmente están siendo operados por la unidad de procesamiento 1704. La computadora 1702 también puede incluir otros medios de almacenamiento de computadora removibles/no removibles, volátiles/no volátiles. A manera de ejemplo, la Figura 17 ilustra una unidad de disco duro 1716 que lee de o escribe un medio magnético no r movible, no volátil (no mostrado), una unidad de disco magnético 1718 que lee de o escribe a un disco magnético removible, no volátil 1720 (por ejemplo, un "disco flexible") , y una unidad de disco óptico 1722 que lee de y/o escribe a un disco óptico removible, no vo átil 1724, tal como un CD ROM, DVD-ROM, u otro medio óptico. La unidad de disco duro 1716, unidad de disco magnético 1718, y unida:, de disco óptico 1722 cada uno se conecta al conductor común de sistema 1708 por una o más interfases de medios de datos 1725. Alternativamente, la unidad de disco duro 1716, unidad de disco magnético 1718, y unidad de disco óptico 1722 pueden conectarse al conductor común de sistema 1708 por una interfase SCSI (no mostrada). Las unidades de disco y sus medios legibles por computadora asociados proporcionan almacenamiento no volátil de instrucciones legibl s por computadora, estructuras de datos, módulos de prognima, y otros datos para la computadora 1702. Aunque el ejempjlo ilustra un disco duro 1716, un disco magnético removible 1720, y un disco óptico removible 1724, se debe apreciar que otros
tipos de medios legibles por computadora pueden almacenar datos que son accesibles por una computadora, tal como cassettes magnéticos u otros dispositivos de almacenamiento magnético, tarjetas de memoria flash, CD-ROM, discos versátiles digitales DVD u otro almacenamiento óptico, memorias de acceso aleatorias (RAM), memorias solo de lectura (ROM), memoria solo de lectura eléctricamente borrable programable (EEPROM), y similares, también pueden utilizarse para implementar el sistema y ambiente de cómputo ilustrativo. Cualquier número de módulos de programa puede almacenarse en el disco duro 1716, disco magnético 1720, disco óptico 1724, ROM 1712, y/o RAM 1710, que incluye a .manera de ejemplo, un sistema operativo 1726, uno o más programas de aplicación 1728, otros módulos de programa 1730 y datos de programa 1732. Cada uno de tal sistema operativo 1726, uno o más programas de aplicación 1728, otros módulos de programa 1730, y datos de programa 1732 (o alguna combinación de los mismos) pueden incluir una modalidad de un esquema de memoria caché para información de acceso de red de usuario. La computadora 1702 puede incluir una variedad de medios legibles por computadora/procesador identificados como medios de comunicación. Los medios de comunicación típicamente representan instrucciones legibles por computadora, estructuras de datos, módulos de programa, otros datos en una señal de datos modulada tal como una onda portadora u otro mecanismo de transporte el
i n c I u y e cualquier medio de entrega de información. El término "señal de datos modulada" significa una señal que tiene una o más de sus características establecidas o cambiadas de tal forma para codificar información en la señal. A manera de ejemplo, y no de limitación, los medios de comunicación incluyen medios por cable tal como red por cable o conexión por cable directa, y medios inalámbricos tal como medios acústicos, RF, infrarrojos, y otros inalámbricos. Las combinaciones de cualquiera de los anteriores también deben incluirse dentro del alcance de medios legibles por computadora. Un usuario puede ingresar comandos la información en el sistema de computadora 1702 a través de dispositivos de entrada tal como un teclado 1734 y dispositivo de señalamiento 1736 (por ejemplo, un "ratón"). Otro dispositivo de entrada 1738 (no mostrados específicamente) pueden incluir un micrófono, palanca de mandos, almohadilla de juegos, antena parabólica, puerto en serie, exponer, y/o si TÍ i I a re s . Gestos y otros dispositivos de entrada se conectan a la unidacl de procesamiento 1704 a través de interfases de entrada/salida 1740 que se acoplan al conductor de sistema 1708, pero pueden conectarse por otra interfase y estructuras de conductor común, tal como un puerto paralelo, puerto de juegos, o un conductor comú en serie universal (USB). Un monitor 1742 u otro dispositivo de presentación también pueden conectarse a I conductor común de sistema 1708 a través de una ihterfase, tal como un adaptador de video 1744. Además del monitor 1742, otros dispositivos periféricos de salida pueden incluir
componentes tal como bocinas (no mostradas) y una impresora 1746 puede conectarse a la computadora 1702 a través de las interfases de entrada/salida 1740. |La computadora 1702 puede operar en un ambiente en red que utilizéi conexiones lógicas a una o más computadoras remotas, tal como un dispositivo de cómputo remoto 1748. A manera de ejemplo, el dispositivo de cómputo remoto 1748 puede ser una computadora personal, computadora portátil, un servidor, un enrutador, una computadora de red, un dispositivo par u otro nodo de red común, y similares. El dispositivo de cómputo remoto 1748 se ilustra como una computadora portátil que puede incluir muchos o todos los implementos y características descritos aquí en relación al sistema de computadora 1702. Las conexiones lógicas entre la computadora 1702 y la computadora remota 1748 se ilustran como una red de área local (LAN) 1750 y una red de área ancha general (WAN) 1752. Tales ambie'ntes en red comúnmente están ubicados en oficinas, redes de computadora extendidas en empresas, intranets, el internet. Cuando se ¡mplementa en un ambiente en red de LAN, la computadora 1702 se conecta a una red local 1750 a través de una interfase de red o adaptador 1754. Cuando se implementa en un ambiente en red de WAN, la computadora 1702 típicamente incluye un módem 1756 u otro medio para establecer comunicaciones en la red ancha 1752. El módem 1756, que puede ser interno o externo a la computadora 1702, puede conectarse al conductor común de sistema 1708 a
través de las interfases de entrada/salida 1740 u otros mecanismos aprop ados. Se debe apreciar que las conexiones en red ilustradas son Ilustrativas y que pueden emplearse otros medios para estab ecer enlace(s) de comunicación entre las computadoras 1702 y
1748. ?? un ambiente en red, tal como se ilustra con el ambiente de cómputo 1700, los módulos de programa ilustrados relativos a la computadora 1702, o porciones de las mismas, pueden almacenarse en el dispositivo de almacenamiento de red remoto. A manera de ejemplo, los programas de aplicación remotos 1758 reciben en un dispositivo de memoria de computadora remota 1748. Para propósitos de ilustración, los programas de aplicación y otros componentes de programa ejecutables, tal como el sistema operativo, se ilustran aquí como bloques separados, aunque se reconoce que tales programas y componentes reciben en varios tiempos en diferentes componentes de almacenamiento del sistema de computadora 1702, y se ejecutan por el procesador(es) de datos de la ¡computadora.
ComcBusión Los sistemas y métodos ilustrativos para implementar aspectos de desincronización resistente a colusión de impresión de huellas digita es de video digital se describieron, en parte por referencia a los diagramas de flujo de las Figuras 1-6, 8-10 y 12-16. Los elementos de los métodos descritos pueden realizarse por cualquier
medio que incluye, por ejemplo, bloques de lógica de hardware en un ASIC o por la ejecución de instrucciones legibles por procesador definidas en un medio legible por procesador. Un "medio legible por procesador", como se utiliza aquí, puede ser cualquier medio que puede contener, almacenar, comunicar, propagar, o transportar instrucciones para uso por ejecución por un procesador. Un medio legibls por procesador, puede ser, sin limitación, un sistema electrónico, magnético, óptico, electromagnético, infrarrojo, o semiconductor, aparato, dispositivo, o medios de preparación. Ejemplos más específicos de un medio legible por procesador incluyen, entre otros, una conexión eléctrica que tiene uno o más cables, un disquete de computadora portátil, una memoria de acceso aleatorio (RAM), una memoria solo de lectura (ROM), una memoria solo ele lectura borrable programable (EPROM o memoria flash), una fibra óptica, un disco de compacto reescribidle (CD-RW), y una memojria solo de lectura de disco compacto portátil (CDROM). ¡Aunque aspectos de esta descripción incluyen lenguaje específicamente que describe características estructurales y/o metoc ológicas de las modalidades preferidas, se debe entender que las rsivindicaciones anexas no se limitan a las características especificas o actos descritos. Más que eso, las características especificas y actos se describen solo como implementaciones ilustrativas, y son representativas de conceptos más generales.
Claims (18)
1.- Un medio legible por computadora que comprende instrucciones ejecutables por computadora para impresión de huellas digitales de video digital, las instrucciones ejecutables por computadora comprenden instrucciones para: desincronizar temporalmente un video para protegerse; desincronizar espacialmente el video; y crear una copia con hullas digitales impresas del video como se modif có por desincronizaciones temporales y espaciales. ¡
2.- Uno o más medios legibles por computadora de acuerdo i con léi reivindicación 1, en donde la desincronización temporalmente del v deo comprende aplicar una solución para envolver afín, en donde la solución para envolver afín comprende instrucciones para: derivar una ecuación que describe una envoltura a fin del marcó Fi al marco F2 dentro del video; y encontrar un vector de parámetro que describe la envoltura al resolvjer un problema de minimización derivado de la ecuación. i
3.- Uno o más medios legibles de computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video ¡com prende aplicar una solución para envolver afín, en donde la solución para envolver a fin comprende instrucciones para: estampar una matriz para envolver W de F, a F2; calcular matrices afines hacia delante y hacia atrás; ¡obtener marcos envueltos hacia delante y hacia atrás al re- mueslrear Fi y F2 en coordenadas envueltas; y interpolar coordenadas no integrales para producir el valor de salida .
4.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de flujo óptico, en donde la solución de flujo óptico comprende instrucciones para: asumir una iluminación constante f a un punto (x, y) antes y después de movimiento; derivar una ecuación de flujo, en donde Vf es un vector de g ra di ente espacial de f; y calcular un vector de movimiento con el cual muestrear el video al utilizar Vf y un gradiente espacial y temporal estimado de la lumin ancia.
5.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el videoj comprende aplicar una solución de conmutación de vector de movimiento, en donde la solución de conmutación de vector de movimiento comprende instrucciones para: generar una pluralidad de pares de marcos envueltos; asociar un vector de movimiento con cada par de los marcos envueltos, obteniendo así una pluralidad de vectores de movimiento; 'aplicar una función de error a cada uno de los vectores de movimiento; y utilizar la función de error para seleccionar un vector de movimiento de entre la pluralidad de vectores de movimiento para uso en la desincronización temporal.
6. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de interpolación temporal compensada, en donde la solución la interpolación temporal compensada de movimiento comprende instrucciones para: generar G y G2 al envolver y F2 hacia un caso de tiempo; re-muestrear Gi y G2 de acuerdo con una función de F , y F2; y obtener el marco interpolado F como una función de d y G2-
7. - Uno o más medios legibles por computadora de acuerdo i con la reivindicación 1, en donde desincronizar temporalmente el video comprende aplicar una solución de re-muestreo temporal aleatoria limitada, en donde la solución de re-muestreo temporal aleatoria limitada comprende instrucciones para: generar índices de tiempo pseudo-aleatorio a lo largo de un eje temporal y re-muestrear el video en los casos de tiempo recientemente generados por medio de interpolación de marco; limitar la generación para requerir al menos un marco en el re-muestreo entre dos intervalos de marco en el video original; i generar incrementos de tiempo aleatorio A¡ para distribuirse uniformemente dentro de [1-5,1+5]; iniciar t(0) = 0 y calcular el índice de tiempo t(i) = ti- 1 ) + A¡ para i = 1,2.L,N, en donde N es la longitud de video re-muestreado y es aleatoria de acuerdo con N~Uniforme[M(1 -a), M(1 + a)]; escalar los valores t(1) a t(N) para requerir que todos los índicés de tiempo caigan dentro de [0, M]; y elegir a para controlar la longitud de variación y d para contrólar ruido temporal.
8. - Uno o más medios legibles por computadora de acuerdo con l|a reivindicación 1, en donde desincronizar temporalmente el video] comprende una estrategia de brinco de interpolación, en donde la estrategia de brinco de interpolación comprende instrucciones para: [determinar que marcos dentro del video describen video de movinjiiento rápido y completo; y brincar el re-muestreo de estos marcos.
9. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para: ¡rotar, escalar y traducir puntos dentro del video para protegerse.
10. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende una solución de inclinación aleatoria, en donde la soluc ón de inclinación aleatoria comprende instrucciones para: generar, al utilizar una clave, una rejilla de muestra pseudo-aleat ¿ría; conservar el orden de ubicaciones de muestreo con respecto a filas y columnas; jmuestrear todas las regiones que tienen un área mayor que un i umbral; generar vectores de perturbación periódicamente para ubicaciones muestreadas; y suavizar los vectores de perturbación por interpolación.
11. - Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende filtrado de luminancia, en donde el filtrado de lumin¡ancia comprende instrucciones para: crear un filtro de luminancia simétrica; y Iseleccionar parámetros dentro del filtro para aumentar la i calidad perceptual y aumentar aleatoriedad en la copia con huellas digitales impresas del video.
12. - Uno o más medios legibles por computadora de acuerdo con l'a reivindicación 1, en donde desincronizar espacialmente el videoj comprende diferenciación de parámetro, en donde la diferejnciación de parámetro comprende instrucciones para: ¡realizar una operación de rotación en un marco; promediar el marco con el marco girado; determinar valores pequeños por los cuales puede realizarse la operación de rotación que resulta en artefactos perceptuales en el maree promediado; utilizar los valores pequeños como un tamaño de paso diferente i al crejar la copia con huellas digitales impresas; y ¡repetir operaciones de escalada y de traducción. |
13.- U no o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para suavización temporal, en donde la suévización temporal comprende instrucciones para: generar parámetros de filtrado de rotación, escalada y traducción y luminancia utilizados para desincronizar espacialmente marcos en el video para cada otro N número de marcos; y I jinterpolar para obtener campos de parámetro en marcos internjiedios entre grupos de N marcos.
14.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 1, en donde desincronizar espacialmente el video comprende instrucciones para distribución de parámetro, en donde la distribución de parámetro comprende instrucciones para: separar marcos y F2, en donde los marcos Fi y F2 se asocian dentro de copias con huellas digitales impresas 1 y 2 del marco F del video por distancia de parámetros de inclinación rotacional, de escalada, de traducción y aleatorios asociados con F-, y F; y introducir una limitación de aleatoriedad a los parámetros, en donde la limitación de aleatoriedad es una función de una entropía de una distribución de parámetros que exceden un valor de umbral.
15.- Uno o más medios legibles por computadora que comprenden instrucciones ejecutables por computadora para imprejsión de huellas digitales en video, las instrucciones ejecutables por computadora que comprenden instrucciones para: aplicar la primera y segunda desincronizaciones temporales a un vicheo para protegerse; aplicar primeras y segundas desincronizaciones espaciales al video[ y crear primeras y segundas copias con huellas digitales impresas del video de acuerdo con las desincronizaciones tempcjrales y las desincronizaciones espaciales; en donde la combinación de la primera y segunda copias con huelles digitales impresas en un video, coludido resulta en artefactos perce ptibles.
16.- Uno o más medios legibles por computadora de acuerdo con la reivindicación 15, en donde aplicar desincronizaciones temporales comprende instrucciones para: -eemplazar índices de tiempo asociados con muestreo de marco de video con Índices de tiempo aleatorios.
17.- Uno o más medios legibles por computadora de acuerdo con a reivindicación 15, en donde aplicar desincronizaciones espaciales comprende instrucciones para: operaciones globales aplicadas a una pluralidad de marcos y operaciones aplicadas a marcos individuales. {
l8.- Uno o más medios legibles por computadora que comprenden instrucciones ejecutables por computadora para impresión de huellas digitales de video digital, las instrucciones ejecutables por computadora comprenden instrucciones para: desincronizar temporalmente un video para protegerse al utilizar índices de tiempo pseudo-aleatorio;
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/139,176 US7397933B2 (en) | 2005-05-27 | 2005-05-27 | Collusion resistant desynchronization for digital video fingerprinting |
PCT/US2006/015558 WO2006130271A2 (en) | 2005-05-27 | 2006-04-21 | Collusion resistant desynchronization for digital video fingerprinting |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2007014559A true MX2007014559A (es) | 2008-11-06 |
Family
ID=37463405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2007014559A MX2007014559A (es) | 2005-05-27 | 2006-04-21 | Desincronizacion resistente a colusion para impresion de huellas digitales de video digital. |
Country Status (10)
Country | Link |
---|---|
US (1) | US7397933B2 (es) |
EP (1) | EP1883895B1 (es) |
JP (1) | JP5095611B2 (es) |
KR (1) | KR101224744B1 (es) |
CN (1) | CN101427265B (es) |
BR (1) | BRPI0610169A2 (es) |
IL (1) | IL186758A (es) |
MX (1) | MX2007014559A (es) |
RU (1) | RU2407215C2 (es) |
WO (1) | WO2006130271A2 (es) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060088225A1 (en) | 2004-10-26 | 2006-04-27 | The Secretary Of State For The Home Department | Comparison |
WO2008136933A1 (en) * | 2007-05-07 | 2008-11-13 | Thomson Licensing | Method and apparatus for processing video sequences |
GB0819069D0 (en) | 2008-10-17 | 2008-11-26 | Forensic Science Service Ltd | Improvements in and relating to methods and apparatus for comparison |
US8913779B2 (en) * | 2010-02-02 | 2014-12-16 | Futurewei Technologies, Inc. | System and method for securing media content |
CN101872398B (zh) * | 2010-06-13 | 2012-05-30 | 上海交通大学 | 基于码分多址和分集技术的抗合谋数字指纹方法 |
US8942438B2 (en) | 2010-07-19 | 2015-01-27 | The University Of Maryland, College Park | Method and apparatus for authenticating swipe biometric scanners |
WO2012126522A1 (en) * | 2011-03-23 | 2012-09-27 | Metaio Gmbh | Method for registering at least one part of a first and second image using a collineation warping function |
KR20140008377A (ko) | 2011-03-25 | 2014-01-21 | 톰슨 라이센싱 | 비디오 스트림 내의 데이터를 감추고 복구하는 방법 |
US9819965B2 (en) * | 2012-11-13 | 2017-11-14 | Intel Corporation | Content adaptive transform coding for next generation video |
DE102013000301A1 (de) * | 2013-01-10 | 2014-07-10 | Basler Ag | Verfahren und Vorrichtung zur Erzeugung eines verbesserten Farbbildes mit einem Sensor mit Farbfilter |
EP2951999A4 (en) | 2013-01-30 | 2016-07-20 | Intel Corp | CONTENT PARAMETRIC TRANSFORMATIONS FOR CODING VIDEOS OF THE NEXT GENERATION |
CN104796733B (zh) * | 2014-01-20 | 2019-03-29 | 北京数码视讯科技股份有限公司 | 视频数据的处理方法、装置及系统 |
CN106233716B (zh) * | 2014-04-22 | 2019-12-24 | 日本电信电话株式会社 | 动态错觉呈现装置、动态错觉呈现方法、程序 |
WO2016187776A1 (zh) * | 2015-05-25 | 2016-12-01 | 北京大学深圳研究生院 | 一种基于光流法的视频插帧方法及系统 |
US10469486B2 (en) | 2016-04-08 | 2019-11-05 | University Of Maryland | Method and apparatus for authenticating device and for sending/receiving encrypted information |
RU2658811C2 (ru) * | 2016-12-12 | 2018-06-22 | Общество С Ограниченной Ответственностью "Дисикон" | Способ и система устранения эффекта скользящего затвора камеры |
KR102154897B1 (ko) | 2018-09-18 | 2020-09-10 | 이화여자대학교 산학협력단 | 블록체인 및 핑거프린팅을 이용한 디지털 콘텐츠 관리 방법, 이를 수행하기 위한 장치 및 기록매체 |
US10860845B2 (en) * | 2018-10-22 | 2020-12-08 | Robert Bosch Gmbh | Method and system for automatic repetitive step and cycle detection for manual assembly line operations |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4914694A (en) * | 1988-04-11 | 1990-04-03 | Eidak Corporation | Modifying a television signal to inhibit recording/reproduction |
JP2760083B2 (ja) * | 1989-09-22 | 1998-05-28 | 富士通株式会社 | フレーム間補間方式 |
US5355411A (en) * | 1990-08-14 | 1994-10-11 | Macdonald John L | Document security system |
JP2644367B2 (ja) * | 1990-10-26 | 1997-08-25 | 富士通株式会社 | フレーム間補間方式 |
DE69636084T2 (de) * | 1995-09-28 | 2006-09-14 | Nec Corp. | Verfahren und Vorrichtung zum Einfügen eines Spreizspektrumwasserzeichens in Multimediadaten |
US5664018A (en) * | 1996-03-12 | 1997-09-02 | Leighton; Frank Thomson | Watermarking process resilient to collusion attacks |
US6381367B1 (en) * | 1997-05-29 | 2002-04-30 | Macrovision Corp. | Method and apparatus for compression compatible video fingerprinting |
US6091822A (en) * | 1998-01-08 | 2000-07-18 | Macrovision Corporation | Method and apparatus for recording scrambled video audio signals and playing back said video signal, descrambled, within a secure environment |
US6145081A (en) * | 1998-02-02 | 2000-11-07 | Verance Corporation | Method and apparatus for preventing removal of embedded information in cover signals |
JP4083302B2 (ja) * | 1998-08-12 | 2008-04-30 | 株式会社東芝 | 動画像スクランブル/デスクランブル装置 |
US6539475B1 (en) * | 1998-12-18 | 2003-03-25 | Nec Corporation | Method and system for protecting digital data from unauthorized copying |
US6785401B2 (en) * | 2001-04-09 | 2004-08-31 | Tektronix, Inc. | Temporal synchronization of video watermark decoding |
US6975743B2 (en) * | 2001-04-24 | 2005-12-13 | Microsoft Corporation | Robust and stealthy video watermarking into regions of successive frames |
EP1479078A1 (en) * | 2002-02-19 | 2004-11-24 | Koninklijke Philips Electronics N.V. | Collusion-robust watermarking |
-
2005
- 2005-05-27 US US11/139,176 patent/US7397933B2/en not_active Expired - Fee Related
-
2006
- 2006-04-21 EP EP06751320.0A patent/EP1883895B1/en active Active
- 2006-04-21 MX MX2007014559A patent/MX2007014559A/es active IP Right Grant
- 2006-04-21 CN CN2006800182588A patent/CN101427265B/zh active Active
- 2006-04-21 KR KR1020077025412A patent/KR101224744B1/ko active IP Right Grant
- 2006-04-21 RU RU2007143962/09A patent/RU2407215C2/ru not_active IP Right Cessation
- 2006-04-21 BR BRPI0610169-0A patent/BRPI0610169A2/pt not_active IP Right Cessation
- 2006-04-21 WO PCT/US2006/015558 patent/WO2006130271A2/en active Application Filing
- 2006-04-21 JP JP2008513493A patent/JP5095611B2/ja not_active Expired - Fee Related
-
2007
- 2007-10-18 IL IL186758A patent/IL186758A/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
JP5095611B2 (ja) | 2012-12-12 |
US7397933B2 (en) | 2008-07-08 |
BRPI0610169A2 (pt) | 2010-06-01 |
JP2008546277A (ja) | 2008-12-18 |
CN101427265A (zh) | 2009-05-06 |
WO2006130271A3 (en) | 2008-11-20 |
US20060269097A1 (en) | 2006-11-30 |
EP1883895B1 (en) | 2018-10-10 |
EP1883895A4 (en) | 2011-08-10 |
RU2007143962A (ru) | 2009-06-10 |
WO2006130271A2 (en) | 2006-12-07 |
KR101224744B1 (ko) | 2013-01-21 |
IL186758A (en) | 2011-03-31 |
CN101427265B (zh) | 2011-08-03 |
EP1883895A2 (en) | 2008-02-06 |
IL186758A0 (en) | 2008-03-20 |
KR20080012281A (ko) | 2008-02-11 |
RU2407215C2 (ru) | 2010-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MX2007014559A (es) | Desincronizacion resistente a colusion para impresion de huellas digitales de video digital. | |
US5960081A (en) | Embedding a digital signature in a video sequence | |
US20130265443A1 (en) | Nonlinear Self-Calibration for Structure From Motion (SFM) Techniques | |
JP2000151984A (ja) | 付随情報付加装置および方法、付随情報検出装置および方法、ならびに不正利用防止システム | |
WO2000013136A1 (en) | Watermarking system and methodology for digital multimedia content | |
KR101785194B1 (ko) | Dibr 3차원 영상을 위한 템플릿 기반 워터마킹 방법 및 장치 | |
JP2004320765A (ja) | ビデオ画像のシーケンスに透かし入れする方法、装置、及び、コンピュータプログラム | |
Ahuja et al. | All aspects of digital video watermarking under an umbrella | |
US10331862B2 (en) | Viewport decryption | |
Kumar et al. | A multi-image hiding technique in dilated video regions based on cooperative game-theoretic approach | |
US9973742B2 (en) | Methods and apparatus for preparation of casual stereoscopic video | |
e Souza et al. | Improvement of global motion estimation in two‐dimensional digital video stabilisation methods | |
Zhou et al. | Adap-360: User-adaptive area-of-focus projections for bandwidth-efficient 360-degree video streaming | |
Ahuja et al. | Robust Video Watermarking Scheme Based on Intra-Coding Process in MPEG-2 Style. | |
Mao et al. | Collusion-resistant intentional de-synchronization for digital video fingerprinting | |
Narkedamilly et al. | Discrete multiwavelet–based video watermarking scheme using SURF | |
MX2022007742A (es) | Metodos y aparato de codificacion y decodificacion. | |
Tsai et al. | Text-video completion using structure repair and texture propagation | |
Shukla et al. | Unsteady camera zoom stabilization using slope estimation over interest warping vectors | |
KR102036077B1 (ko) | 비저블 워터마크가 삽입되는 영상을 처리하는 방법 및 그 영상 처리 장치 | |
Fonseca et al. | Improvement of global motion estimation in two‐dimensional digital video stabilisation methods. | |
Jo et al. | A Reversible Watermarking Algorithm in the Lossless Mode of HEVC. | |
Zhang et al. | A multi-lens stereoscopic synthetic video dataset | |
Osharovska et al. | MEDIA CONTENT PROTECTION BY 3D MESH WATERMARKING TECHNIQUE | |
Rout et al. | Secure video steganographic model using framelet transform and elliptic curve cryptography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration |