ES2447890T3 - Sistema de integración de datos - Google Patents

Sistema de integración de datos Download PDF

Info

Publication number
ES2447890T3
ES2447890T3 ES08702408.9T ES08702408T ES2447890T3 ES 2447890 T3 ES2447890 T3 ES 2447890T3 ES 08702408 T ES08702408 T ES 08702408T ES 2447890 T3 ES2447890 T3 ES 2447890T3
Authority
ES
Spain
Prior art keywords
color
pixels
pixel
coordinates
denoted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08702408.9T
Other languages
English (en)
Inventor
Zeev Geyzel
Leonid Dorrendorf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synamedia Ltd
Original Assignee
NDS Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from IL181167A external-priority patent/IL181167A0/en
Priority claimed from IL183841A external-priority patent/IL183841A0/en
Application filed by NDS Ltd filed Critical NDS Ltd
Application granted granted Critical
Publication of ES2447890T3 publication Critical patent/ES2447890T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/005Robust watermarking, e.g. average attack or collusion attack resistant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0063Image watermarking in relation to collusion attacks, e.g. collusion attack resistant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0065Extraction of an embedded watermark; Reliable detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0081Image watermarking whereby both original and watermarked images are required at decoder, e.g. destination-based, non-blind, non-oblivious

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

Un procedimiento de integración de marcas de agua, que comprende: recibir la información (15) de marcado; representar la información (15) de marcado como un vector de 2 coordenadas, denotado ω, donde las 2coordenadas se denotan, respectivamente, como α, β, de manera que ω >= (α, β); yproporcionar un fotograma de vídeo a ser marcado, en el que el fotograma de vídeo comprende unapluralidad de píxeles, en el que cada píxel de entre la pluralidad de píxeles se representa como p, en el que p>= (x, y), en el que x e y comprenden coordenadas de píxel p, en el que la pluralidad de píxeles están representados como una tríada de elementos de color, denotados,respectivamente, como R, G y B; y caracterizado por que el procedimiento comprende además:marcar el fotograma de vídeo transformando cada píxel de entre la pluralidad de píxeles de la manerasiguiente: R'(p) >= R(p) + <p, ωR>; G'(p) >= G(p) + <p, ωG>; y B'(p) >= B(p) + <p, ωB>, en las que: ωR, ωG y ωB representan la información de marcado codificada como tres vectores de 2 coordenadassobre la tríada de elementos de color R, G y B; <p, ωR> representa una operación de producto escalar sobre p y ωR; <p, ωG> representa una operación de producto escalar sobre p y ωG; y <p, ωB> representa una operación de producto escalar sobre p y ωB.

Description

Sistema de integración de datos
Campo de la invención
La presente invención se refiere a sistemas de integración de datos y, particularmente, a sistemas de integración de datos que usan una identificación única como entrada.
Antecedentes de la invención
Con los recientes avances en la distribución de contenidos en Internet, incluyendo las redes peer-to-peer y los sistemas de transmisión de video en tiempo real, con el fin de prevenir la distribución no autorizada de contenidos, es importante integrar datos en los vídeos para rastrear el punto de distribución. Frecuentemente, el punto de distribución es un espectador autorizado, tal como un cine donde se realizan copias piratas con cámaras de vídeo,
o un decodificador de TV, cuya salida es capturada y re-codificada en un archivo de vídeo. Después de rastrear la fuente, pueden tomarse medidas para prevenir una distribución no autorizada adicional.
La integración de señales en vídeo es un campo rico, tanto en la investigación académica como en las invenciones comerciales. La aplicación de marcas de agua encubiertas en el de dominio de la compresión (MPEG) es bien conocido en la técnica, al igual que las marcas de agua obvias que aparecen como mapas de bits sobre el vídeo, y marcas de agua esteganográficas.
Digital Watermarking of Visual Data: State of the Art and New Trends, por M. Barni, F. Bartolini y A. Piva., Congres Signal processing X: Theories and Applications (Tampere, 4-8 Septiembre 2000), EUPSICO 2000: European Signal Processing Conference No 10, Tampere, Finlandia (04/09/2000), revisa el estado del arte en la aplicación de marcas de agua digitales a los datos visuales. Se adopta una perspectiva de comunicación para identificar los temas principales en la aplicación de marcas de agua digitales y para presentar las soluciones más comunes adoptadas por la comunidad investigadora. Los autores consideran, en primer lugar, los diversos enfoques de integración y ocultación de marcas de agua. A continuación, se tiene en cuenta el canal de comunicación, y se revisan las principales tendencias de investigación en el modelado de ataques. Se presta especial atención a la recuperación de la marca de agua debido al impacto que tiene sobre la fiabilidad final de todo el sistema de aplicación de marcas de agua.
Multichannel Watermarking of Color Images, por M. Barni, F. Bartolini y A. Piva., publicado en IEEE Transactions on Circuits and Systems for Video Technology, Vol. 12, Nº 3, Marzo de 2002, describe que en el campo de las marcas de agua para imágenes, la investigación se ha centrado principalmente en las marcas de agua para imágenes en escala de grises, mientras que la extensión al caso de imágenes a color se consigue normalmente mediante el marcado de la imagen usando luminancia, o mediante el procesamiento de cada canal de color por separado. En este artículo, se presenta una técnica de marcado de agua en el dominio DCT, diseñada expresamente para aprovechar las peculiaridades de las imágenes en color. La marca de agua es ocultada dentro de los datos modificando un subconjunto de los coeficientes DCT de imagen completa de cada canal de color. La detección se basa en una medida de correlación global que se calcula teniendo en cuenta la información transmitida por los tres canales de color, así como su interdependencia. En última instancia, para decidir si la imagen contiene o no la marca de agua, el valor de correlación es comparado con un valor umbral. Con respecto a los algoritmos en escala de grises existentes, se propone un nuevo enfoque de selección de umbral, que permite reducir la probabilidad de falsas detecciones a un mínimo, garantizando al mismo tiempo una probabilidad determinada de detecciones falsas. Se presentan resultados experimentales, así como un análisis teórico, para demostrar la validez del nuevo enfoque con respecto a los algoritmos que operan solamente en la luminancia de la imagen.
Digital Watermarking for 3D Polygons using Multiresolution Wavelet Decomposition, por Satoshi Kanai, Hiroaki Date y Takeshi Kishinami, disponible en la World Wide Web en citeseer.ist.psu.edu/504450.html, describe que, recientemente, existe un gran interés en procedimientos para proteger los derechos de autor de los datos digitales y prevenir la duplicación ilegal de los mismos. Sin embargo, en el área de CAD/CAM y CG, no hay maneras efectivas para proteger los derechos de autor de los modelos geométricos en 3D. Como una primera etapa para resolver este problema, en este artículo se introduce un nuevo procedimiento de aplicación de marcas de agua digitales para los modelos poligonales en 3D. La aplicación de marcas de agua es uno de los procedimientos de protección de derechos de autor en los que una marca de agua invisible es integrada en secreto en los datos originales. El procedimiento propuesto de aplicación de marca de agua se basa en la transformada de tren de ondas (Wavelet Transform, WT) y la representación multirresolución (Multiresolution Representation, MRR) del modelo poligonal. La marca de agua puede ser integrada en los vectores de coeficientes de tren de ondas grandes en diferentes niveles de resolución de la MRR. Esto hace que la marca de agua integrada sea imperceptible e
invariable con relación a la transformación afín. Y también hace que el control del error geométrico causado por la marca de agua sea fiable. En primer lugar, se analizan los requisitos y las características del procedimiento de aplicación de marca de agua propuesto. En segundo lugar, se muestran las formulaciones matemáticas de WT y MRR del modelo poligonal. En tercer lugar, se propone el algoritmo de inserción y extracción de la marca de agua. Finalmente, se muestra la eficacia del procedimiento de aplicación de marca de agua propuesto mediante diversos resultados de simulación.
La patente US Nº 7.068.809 de Stach describe un procedimiento en el que se usan técnicas de segmentación en los procedimientos de integración y detección de marcas de agua digitales en señales multimedia, tales como imágenes, vídeo y audio. Un integrador de marcas de agua digitales segmenta una señal multimedia en regiones con formas arbitrarias en base a una característica de la señal, tal como una medida de similitud, una medida de textura, una medida de forma o luminancia u otra medida extrema de valor de color. A continuación, los atributos de estas regiones son usados para adaptar una señal auxiliar de manera que sea ocultada más eficazmente en la señal multimedia. En una implementación ejemplar, el procedimiento de segmentación hace uso de un modelo de perceptibilidad humana para agrupar muestras de una señal multimedia en regiones contiguas en base a sus similitudes. A continuación, los atributos de la región, tales como sus características de frecuencia, son adaptados a las características de frecuencia de una señal de marca de agua deseada. Un procedimiento de integración ajusta una característica de la región para integrar elementos de una señal auxiliar, tal como una señal de mensaje codificada con corrección de errores. El procedimiento de detección vuelve a calcular la segmentación, calcula las mismas características y asigna los valores de características a símbolos para reconstruir una estimación de la señal auxiliar. A continuación, la señal auxiliar es demodulada o decodifica para recuperar el mensaje usando operaciones de decodificación/demodulación de corrección de errores.
La patente US Nº 6.950.532, de Schumann et al., describe un sistema visual de protección de derechos de autor, en el que el sistema visual de protección de derechos de autor incluye el contenido de entrada, un procesador de interrupción y el contenido de salida. El procesador de interrupción inserta contenido de interrupción al contenido de entrada, creando un contenido de salida que impide la capacidad de los dispositivos ópticos de grabación de realizar copias útiles del contenido de salida.
El resumen de la patente de Japón para JP11075055 describe un procedimiento en el que se integra información secreta en una señal de luminancia, y la información de posición de la información secreta es integrada en una señal de color correspondiente. Un sistema M, que es uno de los números pseudo aleatorios (sistemas PN), es usado para un procedimiento de integración de la información secreta. Una señal de imagen es dividida como un bloque de N valores de píxeles, y se añade un número pseudo aleatorio de longitud N. Esta operación se ejecuta para cada bloque de una señal de imagen de entrada, de manera que puede constituirse una señal de imagen en la que se integra información secreta. El número pseudo aleatorio se solapa sobre la posición de una señal de color correspondiente a la posición en la que la señal secreta está integrada en la señal de luminancia. Cada línea de exploración de la señal de color es dividida en los bloques constituidos de los elementos de la imagen N, y el número pseudo aleatorio de la longitud N es solapado. Para la decodificación se calcula la correlación.
La solicitud de patente US Nº 20020027612, de Brill et al., describe un procedimiento para añadir una marca de agua a una señal de vídeo que representa una imagen, en el que el procedimiento comprende las etapas de aplicar una primera función de marca de agua a un primer conjunto de píxeles de un primer fotograma, y aplicar un complemento de la primera función de marca de agua a un segundo conjunto de píxeles en el primer fotograma.
La patente US Nº 5.832.119 de Rhoads describe un procedimiento mediante el cual una señal de múltiples bits integrada es detectada esteganográficamente a partir de datos empíricos, tales como datos de imagen o de audio, y algunos aspectos de la operación de un sistema relacionado son controlados en virtud de la misma. Una aplicación de la invención es un dispositivo de reproducción o de grabación de vídeo que es controlado según la señal de múltiples bits integrada para limitar las operaciones de reproducción o de grabación. Otro es un quiosco de duplicación de fotografías que reconoce ciertas marcas esteganográficas en una imagen que está siendo copiada e interrumpe la operación de copia.
Se cree que las referencias siguientes reflejan también el estado actual de la técnica:
US 6.760.463 de Rhoads;
US 6.721.440 de Reed et al.;
US 5.636.292 de Rhoads;
US 5.768.426 de Rhoads;
US 5.745.604 de Rhoads; 3
US 6.404.898 de Rhoads; US 7.058.697 de Rhoads; US 5.832.119 de Rhoads; US 5.710.834 de Rhoads; US 7.020.304 de Alattar et al.; US 7.068.809 de Stach; US 6.381.341 de Rhoads; US 6.950.532 de Schumann, et al.; US 7.035.427 de Rhoads; y WO 02/07362 de Digimarc Corp. El documento US-A-5960081 divulga un procedimiento y un aparato para aplicar una marca de agua a un material
de video digital integrando una firma digital. El objetivo de las realizaciones de la presente invención es proporcionar un sistema y un procedimiento mejorados para integrar datos en un objetivo, en el que el objetivo incluye, pero no se limita a, vídeo digital. En consecuencia, durante la integración de los datos, cada píxel de cada fotograma en el que deben integrarse los datos es sometido a una transformación matemática a una tríada de tres componentes de color (R, G, B) del píxel, en base a la posición de píxel en la pantalla y la información de entrada. La información de entrada comprende, por ejemplo y sin limitar la generalidad de lo anterior, un ID único de propietario, codificado como un vector bi-dimensional. Durante la detección de la información integrada, los valores de los componentes de color de los píxeles de cada fotograma que comprenden tramas de datos integradas se suman, produciendo una evaluación de masa de color.
Comparando la evaluación con un resultado esperado, la información integrada puede ser extraída usando una ecuación. Según un aspecto de la presente invención, se proporciona un procedimiento según se define en la reivindicación
1, más adelante.
Según otro aspecto de la presente invención, se proporciona un procedimiento según se define en la reivindicación 9, más adelante. Según un aspecto adicional de la presente invención, se proporciona un sistema según se define en la
reivindicación 12, más adelante.
Según todavía un aspecto adicional de la presente invención, se proporciona un sistema según se define en la reivindicación 13, más adelante. Según todavía un aspecto adicional de la presente invención, se proporciona una señal según se define en la
reivindicación 14, más adelante. Según otro aspecto de la presente invención, se proporciona un medio de almacenamiento según se define en la reivindicación 15, más adelante.
Breve descripción de los dibujos
La presente invención se entenderá y apreciará más completamente a partir de la descripción detallada siguiente, tomada en conjunción con los dibujos, en los que:
La Fig. 1 es un diagrama de bloques simplificado de un sistema de integración de datos en vídeo construido y operativo según una realización preferida de la presente invención;
La Fig. 2 es un dibujo simplificado de un fotograma típico en el que deben integrarse los datos, dentro del sistema de la Fig. 1;
La Fig. 3 es una representación de una realización preferida de un procedimiento de inyección de información de marcado en el fotograma típico de la Fig. 2;
La Fig. 4 es una representación del fotograma típico de la Fig. 2 solapado con ocho vectores;
La Fig. 5 es una ilustración simplificada que representa un fotograma ejemplar, que muestra los elementos de color y las coordenadas de píxel de una pluralidad de píxeles comprendidos en el fotograma ejemplar, antes de la integración de datos, según el sistema de la Fig. 1;
La Fig. 6 es una representación sencilla de un gradiente de color típico y un vector de 2 coordenadas, ω, en un fotograma producido por una implementación preferida de la presente invención, y
Las Figs. 7 y 8 son diagramas de flujo simplificados de los procedimientos de operación preferidos del sistema de la Fig. 1.
Descripción detallada de una realización preferida
Ahora, se hace referencia a la Fig. 1, que es un diagrama de bloques simplificado de un sistema de integración de datos en vídeo construido y operativo según una realización preferida de la presente invención. El sistema de la Fig. 1 comprende un dispositivo 10 de representación de contenido. Preferiblemente, el dispositivo 10 de representación de contenido comprende información 15 de marcado y un sistema 20 de integración de datos.
Preferiblemente, la información 15 de marcado comprende cualquier información apropiada, por ejemplo y sin limitar la generalidad de lo anterior, información que identifica el dispositivo 10 de representación, y, preferiblemente, un ID de dispositivo único para el dispositivo 10 de representación de contenido. De manera alternativa y preferible, unos datos de marca de autor u otros derechos de acceso, por ejemplo y sin limitar la generalidad de lo anterior, permisos de reproducción/copia a ser obedecidos por el dispositivo 10 de representación de contenido. Las personas con conocimientos en la materia apreciarán que la información de derechos de autor puede ser, por ejemplo y sin limitar la generalidad de lo anterior, un solo bit, que indica si tiene derechos de autor/no tiene derechos de autor. De manera alternativa, los derechos de autor pueden ser indicados en una pluralidad de bits, tales como, y sin limitar la generalidad de lo anterior, el permiso de copiar, pero no grabar en un CD. Se supone que los dispositivos de reproducción autorizados respetan dichas señales, mientras que se supone que los dispositivos de reproducción no autorizados no respetan dichas señales. Se aprecia que, de manera alternativa, pueden usarse combinaciones de tipos apropiados de información de identificación como la información 15 de marcado.
Preferiblemente, el sistema 20 de integración de datos está operativo para inyectar datos integrados, representados en la Fig. 1 como un asterisco, *, en los fotogramas 30, 40, 50 de una secuencia 60 de vídeo.
Ahora, se describe el funcionamiento del sistema de la Fig. 1. La secuencia 60 de vídeo se representa como comprendiendo tres tipos de fotogramas de vídeo:
fotogramas que aún no comprenden datos 30 integrados;
fotogramas a los que actualmente se les están integrando datos 40; y
fotogramas que ya tienen datos 50 integrados.
Preferiblemente, el sistema 20 de integración de datos recibe la información 15 de marcado como una entrada, genera los datos integrados, representados como un asterisco, *, e inyecta una marca de agua (denominada, en la presente memoria, "WM") en las tramas en las que actualmente se están integrando datos 40.
El contenido que comprende la secuencia 60 de vídeo, que comprende ahora una pluralidad de fotogramas que ya contienen datos 50 integrados, puede ser subido o puede hacerse disponible en una red 70 de intercambio de contenidos. Típicamente, la red 70 de intercambio de contenidos comprende una red de intercambio de contenidos en tiempo real o una red de intercambio de contenidos peer-to-peer. De manera alternativa, la red 70 de intercambio de contenidos puede comprender cualquier tipo apropiado de esquema de distribución de contenidos en línea y/o fuera de línea, por ejemplo, y sin limitar la generalidad de lo anterior, la venta minorista de DVD piratas. A continuación, un segundo dispositivo 80 puede adquirir la secuencia 60 de vídeo desde la red 70 de intercambio de contenidos.
Un emisor, un propietario de contenidos u otro agente apropiadamente autorizado pueden adquirir también la secuencia 60 de vídeo desde la red 70 de intercambio de contenidos. Tras la adquisición de la secuencia 60 de vídeo desde la red 70 de intercambio de contenidos por el emisor, el propietario del contenido u otra parte interesada, preferiblemente, la secuencia 60 de vídeo es introducida a un dispositivo 90 de detección. Preferiblemente, el dispositivo 90 de detección extrae los datos integrados, representados como un asterisco, *, desde cada una de los fotogramas que ya contienen datos 50 integrados comprendidos en la secuencia 60 de
vídeo. A continuación, los datos integrados extraídos son introducidos a un sistema 95 de detección de datos integrados. Preferiblemente, el sistema 95 de detección de datos integrados es capaz de determinar la información 15 de marcado inyectada a partir de los datos integrados de entrada.
Ahora, se hace referencia a la Fig. 2, que es un dibujo simplificado de un fotograma típico en el que se deben integrar datos, dentro del sistema de la Fig. 1. Las personas con conocimientos en la materia apreciarán que cada fotograma en el que deben integrarse datos comprende una pluralidad de píxeles. Cada uno de entre la pluralidad de píxeles puede ser representado como comprendiendo una tupla representativa de un grupo de elementos de color en el píxel. Por ejemplo y sin limitar la generalidad de lo anterior, en un sistema de color rojo, verde, azul (en adelante, en la presente memoria, R, G, B, donde R significa rojo, G significa verde y B significa azul, independiente de si se consideran en conjunto o de manera individual), cada uno de entre la pluralidad de píxeles puede ser representado como comprendiendo un valor entre 0 y 255.
Las personas con conocimientos en la materia apreciarán que el color del píxel puede ser expresado, de manera alternativa, en cualquier espacio de color apropiado, tal como cualquiera de los sistemas de crominancia/luminancia bien conocidos (por ejemplo, YCbCr, YPbPr, YDbDr), o según el estándar xvYCC, IEC 61966-2-4. En aras de la simplicidad de la descripción, en la presente memoria, el color del píxel se expresa, de una manera no limitativa, como un triplete RGB.
Tal como se usa en la presente memoria, el término "inyectar", en todas sus formas gramaticales, se usa de manera intercambiable, con el término "integrar", en todas sus formas gramaticales.
La siguiente notación, de la cual se representan ciertas porciones, con fines ilustrativos, en la Fig. 2, se usa en la descripción siguiente, así como en las reivindicaciones:
W anchura del fotograma en píxeles
H altura del fotograma en píxeles
p = (x, y) la posición de un píxel con relación al centro. Por ejemplo, el píxel superior izquierdo es (-W/2,-H/2).
R(p), G(p), B(p) componente rojo, verde, azul original del píxel p
R’(p), G'(p), B'(p) componente rojo, verde, azul del píxel p tras la integración de datos
R* = ΣR(p) La suma de R(p) para cada píxel p en un fotograma. De manera similar para G, G* = ΣG(p) y para B, B* = ΣB(p). En aras de la simplicidad de la descripción, el resto de ejemplos se limitan a la componente R.
ω = (α, β) Información a inyectar, representada como un vector de 2 coordenadas. Tal como se ha indicado anteriormente, con referencia a la Fig. 1, la información a inyectar depende preferiblemente de alguna información apropiada, preferiblemente, información que identifica el dispositivo 10 de representación (Fig. 1) y, preferiblemente, un ID de dispositivo único para el dispositivo 10 de representación de contenido (Fig. 1).
<A, B> = Σ(Ai * Bi) Operación de producto escalar de los vectores A y B.
Ahora, se hace referencia a las Figs. 3 y 4. La Fig. 3 es una representación de una realización preferida de un procedimiento de inyección de información 15 de marcado (Fig. 1) en el fotograma típico de la Fig. 2. La Fig. 4 es una representación del fotograma típico de la Fig. 2 solapado con ocho vectores. Tal como se ha descrito anteriormente, con referencia a la Fig. 1, la información 15 de marcado (Fig. 1) comprende, preferiblemente, cualquier información apropiada, por ejemplo y sin limitar la generalidad de lo anterior, información que identifica el dispositivo 10 de representación (Fig. 1) y, preferiblemente, un ID de dispositivo único para el dispositivo 10 de representación de contenido (Fig. 1). En la Fig. 3, la información 300 de marcado se expresa, en aras del presente ejemplo no limitativo, como un número de 32 bits, elegido arbitrariamente.
La información 300 de marcado se muestra dividida en conjuntos de tipletes de 3 bits. Cada uno de los conjuntos de tripletes de 3 bits se representa asociado con un vector ω de 2 coordenadas particular. Específicamente:
Bits
Valores de bits ω asociado Trama
0 -2
100 ωR1 0 – 1800
3 – 5
110 ωG1
6 – 8
100 ωB1
9 – 11
111 ωR2 1801 – 3600
12 – 14
100 ωG2
15 – 17
001 ωB2
18 – 20
110 ωR3 3601 – 5400
21 – 23
011 ωG3
24 – 26
100 ωB3
27 – 29
011 ωR4 5401 – 7200
30 – 31
10 ωG4
Cada triplete 3 bits está asociado con uno de los ocho vectores, a - h, representado en la Fig. 4. Una matriz esquemática preferida de observadores por productos 320 de asociación de cada uno de los tripletes de 3 bits está representada en la parte inferior de la Fig. 3. Específicamente:
Vector
Valor de bit
a
000
b
001
c
010
d
011
e
100
f
101
g
110
h
111
Se apreciará que el procedimiento de división de la información de identificación en grupos de tres bits es arbitrario, y cualquier procedimiento de división alternativo apropiado es válido.
Se aprecia que los vectores a -h están determinados arbitrariamente, y cualquier conjunto alternativo de vectores, aplicado de manera que el conjunto alternativo de vectores tenga un origen en un centro de la pantalla de
10 visualización, es un conjunto de vectores válido para su uso en una realización preferida de la presente invención.
Se aprecia que las asociaciones de valores de bits con vectores son arbitrarias, y cualquier esquema alternativo es válido. Por ejemplo y sin limitar la generalidad de lo anterior, la tabla siguiente representa una asociación alternativa de cada uno de los tripletes de 3 bits con vectores:
Vector
Valor de bit
a
111
b
110
c
101
d
100
e
011
f
010
Vector
Valor de bit
g
001
h
000
Se apreciará que la representación de la información 300 de marcado en la Fig. 3 se representa como un número de 32 bits, sin embargo, se requiere un número de 33 bits o un número de 36 bits con el fin de disponer de un conjunto completo de vectores ωR3, ωG3, ωB3, y posiblemente ωR4, ωG4, ωB4. Una falta de los bits requeridos se indica en la Fig. 3 mediante la presencia de cajas 330 vacías. Con el fin de disponer de un conjunto completo de 33 bits o 36 bits, deben añadirse uno o cuatro bits de relleno a la información 300 de marcado de 32-bit, usando técnicas bien conocidas en la técnica. Por ejemplo y sin limitar la generalidad de lo anterior, una suma de comprobación de 4 bits puede ser añadida como bits de relleno, los últimos 4 bits pueden ser repetidos como bits de relleno, puede añadirse una secuencia arbitraria de 4 bits (por ejemplo, cualquiera de entre 0000, 0101, 1010 o 1111) como bits de relleno, redondeando, de esta manera, la información 300 de marcado de 32 bits a 36 bits. Pueden usarse técnicas similares para redondear la información 300 de marcado de 32 bits a 33-bits.
Preferiblemente, cada conjunto de tres vectores, ωRn, ωGn, ωBn es utilizado para integrar los datos, tal como se describe a continuación, para un número limitado de fotogramas. Por ejemplo y sin limitar la generalidad de lo anterior, en el ejemplo representado en las Figs. 3 y 4, se usan ωR2, ωG2, ωB2 para integrar datos en los fotogramas 1801-3600.
Después de usar la totalidad de los 33-bits o 36-bits en la integración de datos en un conjunto de fotogramas, la información 300 de marcado es repetida.
Preferiblemente, la información 15 de marcado (Fig. 1) es codificada como tres vectores ωR, ωG, ωB, de 2 dimensiones sobre el conjunto de los números reales, sujetos a las limitaciones indicadas a continuación.
Para inyectar datos ωR, ωG, ωB, transformar cada píxel p en un fotograma, tal como se indica a continuación:
R'(p) = R(p) + <p, ωR>;
G'(p) = G(p) + <p, ωG>; y
B'(p) = B(p) + <p, ωB>.
Se aprecia que los valores de R, G y B no pueden exceder nunca el valor máximo impuesto por el sistema de representación de color de vídeo, independientemente de los valores de R’(p), G’(p) y B’(p). Por ejemplo y sin limitar la generalidad de lo anterior, en los sistemas de valores RGB entre 0 y 255, R, G, y B nunca pueden superar un valor máximo de 255. De manera similar, el valor de R, G y B nunca pueden ser menor que un valor mínimo de 0, independientemente de los valores de R’(p), G’(p) y B’(p). Por ejemplo y sin limitar la generalidad de lo anterior, si G’(p) = 258, entonces G’(p) se recorta a 255. De manera similar, si B’(p) = -2, entonces B'(p) es elevado a 0.
Ahora, se hace referencia a la Fig. 5, que es una ilustración simplificada que representa un fotograma ejemplar, que muestra los elementos de color y las coordenadas de píxel para una pluralidad de píxeles comprendidos en el fotograma ejemplar, antes de la integración de datos, según el sistema de la Fig. 1. La descripción de las Figs. 3 y 4 es proporcionada como un ejemplo de una realización preferida de la presente invención. Se aprecia que todos los valores se proporcionan con propósitos puramente ilustrativos, y no deben interpretarse, de ninguna manera, como limitativos. Para facilitar la representación, el fotograma ejemplar representado en la Fig. 5 comprende sólo 16 píxeles. La tabla siguiente enumera diversos valores ejemplares representados en el fotograma ejemplar representado en la Fig. 5:
Píxel
R G B
p(-2, 2)
112 27 19
p(-1, 2)
113 26 25
p(1, 2)
111 27 19
p(2, 2)
110 29 19
Píxel
R G B
p(-2, 1)
110 26 21
p(-1, 1)
114 24 18
p(1, 1)
110 24 23
p(2, 1)
108 23 25
p(-2, -1)
108 23 23
p(-1, -1)
108 22 25
p(1, -1)
100 20 27
p(2, -1)
98 20 30
p(-2, -2)
103 19 27
p(-1, -2)
100 17 29
p(1, -2)
96 13 32
p(2, -2)
94 11 35
R* = ΣR(p) = 1695
G* = ΣG(p) = 351 B* = ΣB(p) = 397
Ahora, se representan diversos ejemplos de integración de datos. Supóngase, en aras de la facilidad de representación, un fotograma 3 píxeles por 3 píxeles. Cada píxel se identifica como Pn, y se proporcionan coordenadas a cada píxel:
P1(-1, -1)
P2(0, -1) P3(1, -1)
P4(-1, 0)
P5(0, 0) P6(1, 0)
P7(-1, 1)
P8(0, 1) P9(1, 1)
Tal como se ha indicado anteriormente, el píxel superior izquierdo es (-W/2, -H/2), de esta manera, la mitad superior del sistema de coordenadas usa valores negativos de y.
Cada uno de los píxeles P1 - P9 comprende un valor RGB, tal como se ha descrito anteriormente. Los valores RGB proporcionados a continuación se proporcionan a modo de ejemplo:
P1(191, 27, 0)
P2(188, 25, 220) P3(212, 6, 194)
P4(123, 203, 86)
P5(212, 38, 161) P6(35, 89, 121)
P7(20, 194, 19)
P8(104, 76, 199) P9(62, 149, 131)
Suponiendo ωR = ωG = ωB = (α, β) = (2, 0), y multiplicando la coordenada de cada píxel (x, y) por (α, β) da (α * x) + (β * y) = (2 * x) + (0 * y) = (2 * x) proporciona un modificador a añadir a cada elemento de color en cada píxel:
P1(-2)
P2(0) P3(2)
P4(-2)
P5(0) P6(2)
P7(-2)
P8(0) P9(2)
La adición del modificador a cada elemento de color de cada píxel, tal como se ha descrito anteriormente, da:
P’1(189, 25, 0)
P’2(188, 25, 220) P’3(214, 6, 194)
P’4(121, 201, 84)
P’5(212, 38, 161) P’6(37, 91, 123)
P’7(18, 192, 17)
P’8(104, 76, 199) P’9(64, 151, 133)
Supóngase, a modo de un segundo ejemplo, un fotograma de 5 píxeles por 5 píxeles:
P1(209, 54, 9)
P2(144, 165, 59) P3(97, 88, 158) P4(112, 87, 92) P5(35, 191, 8)
P6(118, 184, 246)
P7(204, 18, 51) P8(60, 253, 35) P9(20, 116, 54) P10(111, 76, 177)
P11(137, 116, 184)
P12(145, 79, 254) P13(254, 139, 112) P14(7, 96, 68) P15(151, 45, 193)
P16(142, 85, 214)
P17(123, 193, 146) P18(64, 41, 196) P19(231, 60, 231) P29(69, 56, 174)
P21(53, 241, 229)
P22(16, 179, 88) P23(22, 130, 219) P24(36, 132, 117) P25(174, 72, 122)
Cada píxel se identifica como Pn, y se proporcionan coordenadas para cada píxel:
P1(-2, -2)
P2(-1, -2) P3(0, -2) P4(1, -2) P5(2, -2)
P6(-2, -1)
P7(-1, -1) P8(0, -1) P9(1, -1) P10(2, -1)
P11(-2, 0)
P12(-1, 0) P13(0, 0) P14(1, 0) P15(2, 0)
P16(-2, 1)
P17(-1, 1) P18(0, 1) P19(1, 1) P29(2, 1)
P21(-2, 2)
P22(-1, 2) P23(0, 2) P24(1, 2) P25(2, 2)
Suponiendo ωR = ωG = ωB = (α, β) = (-1, 1), y multiplicando las coordenadas de cada píxel (x, y) por (α, β) da (α * x) + (β * y) = (-1 * x) + (1 * y) proporciona un modificador a añadir a cada elemento de color en cada píxel:
10 La adición del modificador a cada elemento de color de cada píxel, tal como se ha descrito anteriormente, proporciona:
P1(-2, -2) = 0
P2(-1, -2) = -1 P3(0, -2) = -2 P4(1, -2) = -3 P5(2, -2) = -4
P6(-2, -1) = 1
P7(-1, -1) = 0 P8(0, -1) = -1 P9(1, -1) = -2 P10(2, -1) = -3
P11(-2, 0) = 2
P12(-1, 0) = 1 P13(0, 0) = 0 P14(1, 0) = -1 P15(2, 0) = -2
P16(-2, 1) = 3
P17(-1, 1) = 2 P18(0, 1) = 1 P19(1, 1) = 0 P29(2, 1) = -1
P21(-2, 2) = 4
P22(-1, 2) = 3 P23(0, 2) = 2 P24(1, 2) = 1 P25(2, 2) = 0
P1(209, 54, 9)
P2(143, 164, 58) P3(95, 86, 156) P4(109, 84, 89) P5(31, 187, 4)
P6(119, 185, 247)
P7(204, 18, 51) P8(59, 252, 34) P9(18, 114, 52) P10(108, 73, 174)
P11(139, 118, 186)
P12(146, 80, 255) P13(254, 139, 112) P14(6, 95, 67) P15(149, 43, 191)
P16(145, 88, 217)
P17(125, 195, 148) P18(65, 42, 197) P19(231, 60, 231) P29(68, 55, 173)
P21(57, 245, 233)
P22(19, 182, 91) P23(24, 132, 221) P24(37, 133, 118) P25(174, 72, 122)
Ahora, se hace referencia a la Fig. 6 que es una representación sencilla de un gradiente de color típico y un vector 610, ω, de 2 coordenadas, en un fotograma 620 producido por una implementación preferida de la presente invención. Tal como se describe a continuación, p es máximo en las esquinas de la pantalla y, de esta manera, el producto escalar <p, ω> es el mayor para las longitudes máximas de p. De esta manera, el píxel 630 se representa
10 como sustancialmente menos oscuro que el píxel 640. Se aprecia que ω 610, en el presente ejemplo, ilustra el efecto de ω 610 en cualquiera de los componentes RGB.
Las personas con conocimientos en la materia apreciarán que una señal de vídeo u otra señal apropiada pueden comprender vídeo que comprende datos integrados, tal como se ha descrito anteriormente con referencia a las Figs. 1 - 6. Las personas con conocimientos en la materia apreciarán que el vídeo que comprende datos
15 integrados, tal como se ha descrito anteriormente, con referencia a las Figs. 1 a 6, puede ser almacenado en un disco compacto (CD), un disco versátil digital (DVD), memoria flash u algún otro medio de almacenamiento apropiado.
Ahora, se describe la detección de los datos integrados. Para facilitar la descripción, la descripción siguiente se centra en sólo un componente de color rojo. Se aprecia que la detección de los datos integrados en otros
20 componentes de color es idéntica a la detección en el componente de color rojo. El dispositivo 90 de detección (Fig. 1) recibe el contenido 60, típicamente desde una red 70 de intercambio de contenido.
En las sumas siguientes, todas las sumas incluyen todos los píxeles en un fotograma bajo examen, a menos que se especifique lo contrario.
Tal como se ha indicado anteriormente, la masa de color, para el componente R antes de integrar los datos en un
25 fotograma determinado se denota R* = ΣR(p). La suma R* = ΣR(p) es la suma de todos los valores de un único elemento de color en cada píxel en una única trama.
Se aprecia que la masa de color, después de integrar datos en un fotograma, sigue siendo la misma:
30 Las personas con conocimientos en la materia apreciarán que el producto escalar, < Σp, ωR > = 0, ya que para cada píxel p = (x, y), hay un píxel p = (-x, -y) correspondiente. Y, de esta manera, para cada sumando en Σ<p, ω>, existe un sumando igual de signo opuesto.
11 Sea C’ un centro de masa de color para un fotograma que comprende datos integrados. De esta manera, para el componente rojo, el centro de masa de color para el fotograma se define como un vector bidimensional normalizado:
Restando, se determina una diferencia entre el centro de masa de color del fotograma después de integrar los datos y el centro de masa de color de un fotograma original:
Debido a que p = (x, y) y ωR = (α, β),
Abriendo los paréntesis y eliminando los sumandos de valor cero:
20 y
De esta manera,
Usando la fórmula para las sumas de potencias:
Las siguientes ecuaciones exactas y aproximadas pueden ser derivadas a partir de las ecuaciones anteriores:
Por lo tanto:
Extrayendo α y β de la ecuación aproximada:
Las expresiones aproximadas se usan anteriormente en aras de la claridad de la descripción. Las personas con conocimientos en la materia apreciarán que deberían usarse las ecuaciones exactas en el procedimiento real de extracción de datos integrados en lugar de aproximaciones.
Para garantizar que la experiencia de visualización no se vea perjudicada, preferiblemente, las ω se eligen de manera que la modificación de la componente de color no excederá un determinado umbral. La opinión de los inventores de la presente invención es que el valor umbral recomendado es el 2%, o aproximadamente 4 en la escala de 0 a 255. Debido a que el producto escalar <p,w> es lineal, el producto escalar <p,w> es el mayor para las longitudes máximas de p. Específicamente, p es máximo en las esquinas de la pantalla. Por consiguiente, la aplicación de la restricción siguiente sirve, preferiblemente, para limitar el límite superior, asegurando de esta manera que el umbral no supere el 2%, con respecto a la escala de 0-255:
La opinión de los autores de la presente invención es que la técnica de integración de datos de frecuencia de masas de color descrita en la presente memoria es muy resistente a los ataques conocidos. Específicamente:
Filtrado - la presente invención, en realizaciones preferidas de la misma, tiene muy poco efecto en el dominio de la frecuencia de imagen y vídeo, típicamente en frecuencias extremadamente bajas, o ninguno en absoluto. Por lo tanto, la técnica WM propuesta no puede ser detectada o eliminada usando filtros de paso bajo estándar, herramientas de balance de color de vídeo, etc., dirigidos al ruido y las señales a altas frecuencias.
Redimensionamiento (estiramiento), rotación y encuadre – Se espera que un estiramiento o una rotación de un vídeo que comprende los datos integrados causen un cambio lineal en los valores de α y β en los datos codificados, ya que, de manera informal, α y β son las coordenadas de un vector que está superpuesto en la pantalla. Además, es posible elegir un procedimiento de codificación que evite el redimensionamiento (estiramiento), la rotación, y los ataques de encuadre, por ejemplo y sin limitar la generalidad de lo anterior, seleccionando el conjunto de vectores ω de manera que el ángulo mínimo entre dos vectores posibles cualquiera sea considerablemente mayor que la rotación máxima resultante de un ataque.
Ataques de colusión – Típicamente, los ataques de colusión trabajan promediando varias señales de vídeo que comprenden WMs, o seleccionando cada fotograma de entre varios fotogramas que comprenden WMs, resultando, de esta manera, en un WM que combina los datos de todas las señales examinadas originalmente. En particular, un análisis de frecuencia de la señal combinada revela, típicamente, todas las frecuencias inyectadas. Si el sistema 20 de integración de datos (Fig. 1) se detiene entre las inyecciones de bytes separados, tal como se ha descrito anteriormente, entonces, la señal resultante contiene, preferiblemente, intervalos cuando sólo uno de los WMs originales está presente, permitiendo, de esta manera, la separación de señales. Las técnicas estándar de corrección de errores, bien conocidas en la técnica, usadas tanto en la inyección como en la detección, se usan, preferiblemente, para ayudar a separar los WMS.
Encuadre – El encuadre de un vídeo que comprende datos integrados puede causar la pérdida de información de color y, en consecuencia, puede cambiar los valores de α y β en los datos codificados. Un cambio en los valores de α y β será proporcional a una disminución de la calidad de vídeo percibida y a la similitud con la calidad de un vídeo original.
Ataques de colusión: Promediado -un ataque de colusión promediando varias señales de vídeo que comprenden los datos integrados resultará, típicamente, en un WM que combina los datos de todas las señales originales promediadas. Un par α y β resultante será un promedio de todos los α y β promediados originalmente. La presente invención, en su realización preferida, previene preferiblemente la pérdida de información, por ejemplo, y sin limitar
5 la generalidad de lo anterior, activando la integración de datos para intervalos de tiempo aleatorios en cada inyector.
Ataques de colusión: Selección - un ataque de colusión mediante la elección de diferentes fotogramas a partir de diferentes señales de vídeo que comprenden los datos integrados resultará en un WM que transporta datos de todas las señales seleccionadas originalmente. Un par α y β resultante identificará cada una de las fuentes
10 participantes, por separado. En otras palabras, un ataque de selección es inútil.
Ahora, se hace referencia a las Figs. 7 - 8, que son diagramas de flujo simplificados de los procedimientos de operación preferidos del sistema de la Fig. 1. Se cree que las Figs. 7 - 8 son auto-explicativas a la luz de la descripción anterior.
Se aprecia que los componentes de software de la presente invención pueden ser implementados, si se desea, en
15 la forma de ROM (memoria de sólo lectura). En general, los componentes de software pueden ser implementados en hardware, si se desea, usando técnicas convencionales.
Se aprecia que diversas características de la invención que se describen, en aras de la claridad, en contextos de realizaciones separadas, pueden ser proporcionadas también en combinación en una única realización. A la inversa, diversas características de la invención que, por brevedad, se describen en el contexto de una única
20 realización pueden proporcionarse también por separado o en cualquier subcombinación adecuada.
Las personas con conocimientos en la materia apreciarán que la presente invención no está limitada por lo que se ha mostrado y descrito particularmente anteriormente en la presente memoria. En su lugar, el alcance de la invención se define sólo por las reivindicaciones siguientes.

Claims (14)

  1. REIVINDICACIONES
    1. Un procedimiento de integración de marcas de agua, que comprende: recibir la información (15) de marcado; representar la información (15) de marcado como un vector de 2 coordenadas, denotado ω, donde las 2
    5 coordenadas se denotan, respectivamente, como α, β, de manera que ω = (α, β); y proporcionar un fotograma de vídeo a ser marcado, en el que el fotograma de vídeo comprende una
    pluralidad de píxeles, en el que cada píxel de entre la pluralidad de píxeles se representa como p, en el que p = (x, y), en el que x e y comprenden coordenadas de píxel p, en el que la pluralidad de píxeles están representados como una tríada de elementos de color, denotados,
    10 respectivamente, como R, G y B; y caracterizado por que el procedimiento comprende además: marcar el fotograma de vídeo transformando cada píxel de entre la pluralidad de píxeles de la manera
    siguiente: R’(p) = R(p) + <p, ωR>; G’(p) = G(p) + <p, ωG>; y
    15 B’(p) = B(p) + <p, ωB>, en las que: ωR, ωG y ωB representan la información de marcado codificada como tres vectores de 2 coordenadas
    sobre la tríada de elementos de color R, G y B; <p, ωR> representa una operación de producto escalar sobre p y ωR; 20 <p, ωG> representa una operación de producto escalar sobre p y ωG; y <p, ωB> representa una operación de producto escalar sobre p y ωB.
  2. 2. Procedimiento según la reivindicación 1 y en el que la información (15) de marcado comprende al menos uno de entre: información que identifica un dispositivo (10) de presentación; 25 una marca de derechos de autor; y
    datos de derecho de acceso; y/o en el que la información que identifica un dispositivo (10) de representación comprende un identificador de dispositivo único; y/o
    en el que los datos de derecho de acceso comprende un permiso de reproducción/copia.
    30 3. Procedimiento según la reivindicación 1 ó 2 y en el cada píxel comprende un elemento de color rojo-verde-azul;
    o cada píxel comprende un elemento de color de crominancia/luminancia.
  3. 4. Procedimiento según la reivindicación 3 y en el que el elemento de color de crominancia/luminancia comprende uno de entre: un elemento de color de crominancia/luminancia YCbCr. 35 un elemento de color de crominancia/luminancia YPbPr.
    un elemento de color de crominancia/luminancia YDbDr. un elemento de color de crominancia/luminancia xvYCC.
  4. 5. Procedimiento según cualquiera de las reivindicaciones 1 - 4 y en el que R’(p), G’(p) y B’(p) no exceden un valor
    máximo permitido para cada dicho elemento de color en un sistema de representación de color o R’(p), G’(p) y 40 B’(p) no son menores de un valor mínimo permitido para cada dicho elemento de color en un sistema de
    representación de color.
  5. 6. Procedimiento según la reivindicación 5 y en el que cualquiera de entre R’(p), G’(p) y B’(p) se truncan para garantizar que cualquiera de entre R'(p), G’(p) y B' (p) no excedan el valor máximo o cualquiera de entre R’(p), G’(p) y B’(p) se elevan para garantizar que cualquiera de entre R'(p), G’(p) y B' (p) no sean menores que el valor
    5 mínimo.
  6. 7. Procedimiento según cualquiera de las reivindicaciones 1 - 6 y en el que la representación de la información (15) de marcado como un vector de 2 coordenadas comprende: expresar la información (15) de marcado como una cadena de bits; subdividir la cadena de bits en una pluralidad de sub-cadenas de bits; y
    10 traducir cada una de entre la pluralidad de sub-cadenas de bits a un vector de 2 coordenadas correspondiente.
  7. 8.
    Procedimiento según la reivindicación 7 y en el que cada una de entre la pluralidad de sub-cadenas de bits comprende una de entre: una cadena de bits de tres bits y una cadena de bits de dos bits.
  8. 9.
    Un procedimiento de extracción de marcas de agua que comprende:
    15 capturar una secuencia (60) de vídeo que comprende datos integrados; y segmentar la secuencia (60) de vídeo en una pluralidad de fotogramas de vídeo comprendidos en la misma; localizar un centro de masa de color, denotado C’, para cada elemento de color R, G y B de cada fotograma
    de vídeo individual de entre la pluralidad de fotogramas de vídeo sumando los componentes de color según
    en el que M representa uno de los elementos de color R, G o B, M* representa la masa de color ΣM(p), que es la suma de todos los valores de elemento de color M en cada píxel en dicho fotograma individual;
    p representa cada píxel en un fotograma de vídeo; en el que el procedimiento comprende además:
    25 localizar un centro de masa de color, denotado C, para cada elemento de color de un fotograma de vídeo individual correspondiente, en el que el fotograma de vídeo individual correspondiente corresponde a un fotograma de vídeo que no comprende datos integrados;
    restar C de C’ para determinar una diferencia D, en la que
    ωM representa la información de marcado codificada como tres vectores de 2 coordenadas, uno para cada uno de los elementos de color R, G y B, y
    derivar, a partir de la diferencia D, un valor de una primera coordenada α y una segunda coordenada β, a 35 partir de la ecuación aproximada
    en las que W representa la anchura de un fotograma en píxeles y H representa la altura del fotograma en
    16 5
    píxeles, en el que:
    la primera coordenada α y la segunda coordenada β comprenden coordenadas de un vector, en el que el vector corresponde a una cadena de bits, en el que la cadena de bits comprende información integrada en el fotograma de vídeo individual.
  9. 10.
    Procedimiento según la reivindicación 9 y en el que la información (15) de marcado es reconstruida como resultado de la derivación del valor de una primera coordenada y una segunda coordenada.
  10. 11.
    Procedimiento según cualquiera de la reivindicación 9 o la reivindicación 11 y en el que un ID de usuario individual es reconocido como resultado de reconstruir la información (15) de marcado.
  11. 12.
    Un sistema de integración de marcas de agua, que comprende: un receptor de información de marcado; un vector de 2 coordenadas, denotado ω, en el que las 2 coordenadas se denotan, respectivamente, α, β, de
    manera que ω = (α, β), en el que el vector de 2 coordenadas representa la información (15) de marcado; un fotograma de vídeo a marcar, en el que el fotograma de vídeo comprende una pluralidad de píxeles, en el
    que cada píxel de entre la pluralidad de píxeles está representado como p, en el que p = (x, y), en el que x e y comprenden coordenadas de píxel p, en el que la pluralidad de píxeles están representados como una tríada de elementos de color, denotados,
    respectivamente, R, G y B, y caracterizado por que el sistema comprende además: un marcador de fotogramas de vídeo operativo para marcar el fotograma de vídeo transformando cada píxel
    entre la pluralidad de píxeles, tal como se indican a continuación: R’(p) = R(p) + <p, ωR>; G’(p) = G(p) + <p, ωG>; y B’(p) = B(p) + <p, ωB>, en las que: ωR, ωG y ωB representan la información de marcado codificada como tres vectores de 2 coordenadas
    sobre la tríada de elementos de color R, G y B; <p, ωR> representa una operación de producto escalar sobre p y ωR; <p, ωG> representa una operación de producto escalar sobre p y ωG; y <p, ωB> representa una operación de producto escalar sobre p y ωB.
  12. 13. Un sistema de extracción de marcas de agua, que comprende:
    una secuencia (60) de vídeo capturada que comprende datos integrados; y
    un segmentador de secuencias de vídeo operativo para segmentar la secuencia (60) de vídeo capturada en una pluralidad de fotogramas de vídeo comprendidos en la misma; caracterizado por que el sistema comprende además:
    un localizador de un primer centro de masa de color, operativo para localizar un primer centro de masa de color, en el que el primer centro de masa de color está denotado como C’, para cada elemento de color de cada fotograma de vídeo individual de entre la pluralidad de fotogramas de vídeo sumando los componentes de color según:
    17 5
    p representa cada píxel en un fotograma de vídeo; en el que el sistema comprende además:
    un localizador de un segundo centro de masa de color, operativo para localizar el segundo centro de masa de color, en el que el segundo centro de masa de color está denotado como C, para cada elemento de color de un fotograma de vídeo individual correspondiente, en el que el fotograma de vídeo individual correspondiente corresponde a un fotograma de vídeo que no comprende datos integrados;
    un procesador operativo para restar C de C’ para determinar una diferencia D, en la que
    en la que M representa uno de los elementos de color R, G o B; y p representa cada píxel en un fotograma de vídeo; en el que el sistema comprende además: un segundo procesador operativo para derivar, a partir de la diferencia D, un valor de una primera
    coordenada α y una segunda coordenada β, a partir de la ecuación aproximada
    en las que W representa la anchura de un fotograma en píxeles y H representa la altura del fotograma en píxeles, en el que:
    la primera coordenada α y la segunda coordenada β comprenden coordenadas de un vector, en el que el vector corresponde a una cadena de bits, en el que la cadena de bits comprende información integrada en el fotograma de vídeo individual.
  13. 14. Una señal que comprende: una secuencia (60) de vídeo que comprende una pluralidad de fotogramas de vídeo, en el que cada una de entre la pluralidad de fotogramas de vídeo comprende una pluralidad de píxeles, en el que cada píxel de entre
    la pluralidad de píxeles está representado como p, en el que p = (x, y), en el que x e y comprenden coordenadas de píxel p, en el que la pluralidad de píxeles están representados como una tríada de elementos de color, denotados,
    respectivamente, como R, G y B, caracterizada por que la información (15) de marcado ha sido utilizada para transformar cada píxel de entre la pluralidad de píxeles, en la que la información (15) de marcado está representada como un vector de 2 coordenadas, denotado ω, en la que las 2 coordenadas se denotan, respectivamente, α, β, de manera que ω
    = (α, β), tal como se indica a continuación: R’(p) = R(p) + <p, ωR>; G’(p) = G(p) + <p, ωG>; y B’(p) = B(p) + <p, ωB>, en las que: ωR, ωG y ωB representan la información (15) de marcado codificada como tres vectores de 2
    coordenadas sobre la tríada de elementos de color R, G y B; <p, ωR> representa una operación de producto escalar sobre p y ωR; <p, ωG> representa una operación de producto escalar sobre p y ωG; y
    <p, ωB> representa una operación de producto escalar sobre p y ωB.
  14. 15. Un medio de almacenamiento que comprende: una secuencia (60) de vídeo que comprende una pluralidad de fotogramas de vídeo, en el que cada uno de entre la pluralidad de fotogramas de vídeo comprende una pluralidad de píxeles, en el que cada píxel de entre
    5 la pluralidad de píxeles está representado como p, en el que p = (x, y), en el que x e y comprenden coordenadas de píxel p, en el que la pluralidad de píxeles están representados como una tríada de elementos de color, denotados,
    respectivamente, como R, G y B, caracterizado por que la información (15) de marcado ha sido utilizada para transformar cada píxel de entre la 10 pluralidad de píxeles, en el que la información (15) de marcado está representada como un vector de 2 coordenadas, denotado ω, en el que las 2 coordenadas se denotan, respectivamente, α, β, de manera que ω
    = (α, β), tal como se indica a continuación: R’(p) = R(p) + <p, ωR>; G’(p) = G(p) + <p, ωG>; y
    15 B’(p) = B(p) + <p, ωB>, en las que: ωR, ωG y ωB representan la información (15) de marcado codificada como tres vectores de 2
    coordenadas sobre la tríada de elementos de color R, G y B; <p, ωR> representa una operación de producto escalar sobre p y ωR; 20 <p, ωG> representa una operación de producto escalar sobre p y ωG; y <p, ωB> representa una operación de producto escalar sobre p y ωB.
    19 20 21 22 23 24 25 26 27
ES08702408.9T 2007-02-05 2008-01-13 Sistema de integración de datos Active ES2447890T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IL18116707 2007-02-05
IL181167A IL181167A0 (en) 2007-02-05 2007-02-05 System for embedding data
IL18384107 2007-06-11
IL183841A IL183841A0 (en) 2007-06-11 2007-06-11 System for embedding data
PCT/IB2008/050104 WO2008096281A1 (en) 2007-02-05 2008-01-13 System for embedding data

Publications (1)

Publication Number Publication Date
ES2447890T3 true ES2447890T3 (es) 2014-03-13

Family

ID=39410022

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08702408.9T Active ES2447890T3 (es) 2007-02-05 2008-01-13 Sistema de integración de datos

Country Status (7)

Country Link
US (2) US8135168B2 (es)
EP (1) EP2115694B1 (es)
ES (1) ES2447890T3 (es)
HK (1) HK1138669A1 (es)
IL (1) IL199479A (es)
PT (1) PT2115694E (es)
WO (1) WO2008096281A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7532740B2 (en) * 1998-09-25 2009-05-12 Digimarc Corporation Method and apparatus for embedding auxiliary information within original data
US8107669B2 (en) * 2006-06-14 2012-01-31 Samsung Electronics Co., Ltd. Video watermarking apparatus in compression domain and method using the same
KR101213161B1 (ko) * 2006-06-14 2012-12-17 삼성전자주식회사 압축영역에서의 비디오 워터마킹 장치 및 그 방법
EP2208153B1 (en) 2008-10-29 2013-12-11 NDS Limited Video signature
JP5607831B2 (ja) * 2010-09-13 2014-10-15 ドルビー ラボラトリーズ ライセンシング コーポレイション 色域外の色座標を使用したデータ伝送
EP2665032A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Methods and devices for 3d object protection using surface subdivision
US9137010B2 (en) 2014-01-13 2015-09-15 Cisco Technology Inc. Watermark with data integrity verification
US9208352B2 (en) 2014-02-10 2015-12-08 Cisco Technology Inc. LFSR watermark system
US9208534B2 (en) 2014-05-07 2015-12-08 Cisco Technology Inc. System and method for embedding data
US10958989B2 (en) 2016-02-25 2021-03-23 Synamedia Limited Framework for embedding data in encoded video

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US7113615B2 (en) * 1993-11-18 2006-09-26 Digimarc Corporation Watermark embedder and reader
US5832119C1 (en) 1993-11-18 2002-03-05 Digimarc Corp Methods for controlling systems using control signals embedded in empirical data
US5710834A (en) 1995-05-08 1998-01-20 Digimarc Corporation Method and apparatus responsive to a code signal conveyed through a graphic image
US7720249B2 (en) * 1993-11-18 2010-05-18 Digimarc Corporation Watermark embedder and reader
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US5636292C1 (en) 1995-05-08 2002-06-18 Digimarc Corp Steganography methods employing embedded calibration data
US6122403A (en) 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
US6721440B2 (en) 1995-05-08 2004-04-13 Digimarc Corporation Low visibility watermarks using an out-of-phase color
US6760463B2 (en) 1995-05-08 2004-07-06 Digimarc Corporation Watermarking methods and media
US6408331B1 (en) 1995-07-27 2002-06-18 Digimarc Corporation Computer linking methods using encoded graphics
US6381341B1 (en) 1996-05-16 2002-04-30 Digimarc Corporation Watermark encoding method exploiting biases inherent in original signal
US7930546B2 (en) * 1996-05-16 2011-04-19 Digimarc Corporation Methods, systems, and sub-combinations useful in media identification
US5960081A (en) 1997-06-05 1999-09-28 Cray Research, Inc. Embedding a digital signature in a video sequence
AU1102201A (en) * 1999-11-05 2001-06-06 Digimarc Corporation Watermarking an image in color plane separations and detecting such watermarks
US6385329B1 (en) 2000-02-14 2002-05-07 Digimarc Corporation Wavelet domain watermarks
US6924816B2 (en) * 2000-03-17 2005-08-02 Sun Microsystems, Inc. Compensating for the chromatic distortion of displayed images
US6950532B1 (en) 2000-04-24 2005-09-27 Cinea Inc. Visual copyright protection
US6563936B2 (en) 2000-09-07 2003-05-13 Sarnoff Corporation Spatio-temporal channel for images employing a watermark and its complement
WO2002051063A1 (en) * 2000-12-21 2002-06-27 Digimarc Corporation Methods, apparatus and programs for generating and utilizing content signatures
KR20030046435A (ko) * 2001-07-10 2003-06-12 교와 가부시키가이샤 전자무늬의 매립방법 및 추출방법, 및 그 장치
US7298865B2 (en) * 2001-07-30 2007-11-20 Sarnoff Corporation Secure robust high-fidelity watermarking
US7068809B2 (en) 2001-08-27 2006-06-27 Digimarc Corporation Segmentation in digital watermarking
AU2003210625A1 (en) 2002-01-22 2003-09-02 Digimarc Corporation Digital watermarking and fingerprinting including symchronization, layering, version control, and compressed embedding
JP4227048B2 (ja) * 2003-04-25 2009-02-18 株式会社東芝 画像処理システム
JP4088300B2 (ja) * 2005-06-01 2008-05-21 富士通株式会社 画像領域検出装置、画像領域検出方法および画像領域検出プログラム
US7965861B2 (en) * 2006-04-26 2011-06-21 The Board Of Regents Of The University Of Texas System Methods and systems for digital image security
CN102686483B (zh) 2009-12-18 2014-06-11 利乐拉瓦尔集团及财务有限公司 灌装组件与用于该灌装组件的垫片以及灌装液体的方法

Also Published As

Publication number Publication date
EP2115694B1 (en) 2013-11-27
IL199479A (en) 2013-03-24
US8755598B2 (en) 2014-06-17
US20100146284A1 (en) 2010-06-10
EP2115694A1 (en) 2009-11-11
HK1138669A1 (en) 2010-08-27
PT2115694E (pt) 2014-02-24
US8135168B2 (en) 2012-03-13
WO2008096281A1 (en) 2008-08-14
US20120155755A1 (en) 2012-06-21

Similar Documents

Publication Publication Date Title
ES2447890T3 (es) Sistema de integración de datos
ES2894328T3 (es) Sistema y procedimiento para el marcado de agua digital
De Vleeschouwer et al. Circular interpretation of bijective transformations in lossless watermarking for media asset management
Maes et al. Digital watermarking for DVD video copy protection
Lin et al. Secret image sharing with steganography and authentication
US9639910B2 (en) System for embedding data
CN104168484A (zh) 一种基于视觉注意机制的视频水印方法
Tseng et al. An extended difference expansion algorithm for reversible watermarking
Ho et al. High-capacity reversible data hiding in binary images using pattern substitution
Sharifara et al. A novel approach to enhance robustness in digital image watermarking using multiple bit-planes of intermediate significant bits
Ni et al. Pinpoint authentication watermarking based on a chaotic system
KR101200345B1 (ko) 점진적 차이값 히스토그램 기반의 가역 워터마킹을 이용한 블록단위 영상 인증방법
Hsu et al. Digital watermarking scheme with visual cryptography
Basu et al. Bit plane index based fragile watermarking scheme for authenticating color image
Ernawan et al. A blind recovery technique with integer wavelet transforms in image watermarking
Shi et al. Integrating multi-predictions encryption with histogram shifting secret-sharing for high-capacity two-layer image data hiding
Kumar et al. A novel approach to enhance robustness in steganography using multiple watermark embedding algorithm
JP3922369B2 (ja) 埋め込み情報の記録装置及び再生装置並びに記録用プログラム及び再生用プログラム
JP2003179746A (ja) デジタル画像に2進メッセージを挿入する方法
Huang et al. Visual Secret Sharing for Copyright Protection and Authentication of Color Images
Bedi et al. A design of secure watermarking scheme for images in spatial domain
Aminu Mustapha Passive video forgery detection using frame correlation statistical features/Aminu Mustapha Bagiwa
JP2024021961A (ja) 動画用電子透かし方法
Tiwari Image Watermarking Based on Discrete Wavelet Transform and Biogeography-Based Optimization
Rathour et al. Research on Image Stegnography using based on Suduko matrix and LSB Value with multi-level encryption