ES2884084T3 - Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión - Google Patents

Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión Download PDF

Info

Publication number
ES2884084T3
ES2884084T3 ES16760113T ES16760113T ES2884084T3 ES 2884084 T3 ES2884084 T3 ES 2884084T3 ES 16760113 T ES16760113 T ES 16760113T ES 16760113 T ES16760113 T ES 16760113T ES 2884084 T3 ES2884084 T3 ES 2884084T3
Authority
ES
Spain
Prior art keywords
content
transmission
broadcast
television
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16760113T
Other languages
English (en)
Inventor
Solis Luis Ignacio Rodriguez
Gallego Pablo Perez
Corral Guillermo Menendez
Iglesias David Fierro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tagsonomy S L
Original Assignee
Tagsonomy S L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tagsonomy S L filed Critical Tagsonomy S L
Application granted granted Critical
Publication of ES2884084T3 publication Critical patent/ES2884084T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/483Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/237Communication with additional data server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Método que busca poder proporcionar o recoger información adicional relativa al contenido de una emisión, siendo necesario para ello diseñar un proceso de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión, donde el método comprende las etapas de: - Creación de una huella del contenido emitido mediante la extracción en tiempo real de características de la imagen correspondientes a una serie de marcos, realizando: - Parcelación de la imagen, es decir la pantalla correspondiente a un marco de la emisión se divide en trozos más pequeños o parcelas. - Extracción del histograma de color correspondiente a cada trozo parcelado, - Búsqueda de puntos significativos de la imagen de cada marco analizado - Detección del periodo de emisión de publicidad - Comparación entre la huella creada del contenido emitido y la huella creada del contenido de referencia hasta lograr un grado de coincidencia o certidumbre o correspondencia dentro de un umbral

Description

DESCRIPCIÓN
Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión.
OBJETO DE LA INVENCIÓN
En primer lugar, el objeto de la presente invención, como se especifica en el título, es un método para sincronizar un contenido audiovisual de referencia y una versión alterada del mismo que se transmite por televisión y, en segundo lugar, un sistema para llevar a cabo dicho método de sincronización.
La sincronización entre la transmisión de contenido por televisión y el contenido de referencia hace posible mostrar y obtener metadatos o datos adicionales para las imágenes mostradas por televisión. Es decir, el propósito es tener información adicional sobre la transmisión de imágenes por televisión, desde cualquier plataforma de visualización (tableta o teléfono inteligente, televisor inteligente, reproductor de videos en línea, etc.) en tiempo real y sincronizada con la transmisión de la película o el documental.
La presente invención se caracteriza por el uso de diferentes algoritmos, algunos de ellos adaptativos o inteligentes, además de algunas técnicas digitales, de un modo conjunto y sinérgico, a fin de obtener una sincronización de alta seguridad.
Por lo tanto, la presente invención se encuadra en el campo de las técnicas digitales, en particular, aquellas relacionadas con la transmisión de programas.
ANTECEDENTES DE LA INVENCIÓN
A fin de entender el método de sincronización propuesto, es necesario saber que las películas que vemos son una sucesión de una serie de imágenes por segundo, lo cual crea el efecto óptico de continuidad.
El número de imágenes por segundo, también conocido como frecuencia de actualización o fps (cuadros por segundo) es la frecuencia en la que un dispositivo muestra imágenes llamadas cuadros o fotogramas. El término se aplica de igual manera a películas y cámaras de video, gráficos de computadora y sistemas de captura de movimiento. La frecuencia de actualización se expresa en cuadros por segundo, o su acrónimo FPS.
Las primeras películas mudas se filmaban con cámaras que grababan solo a 15 imágenes por segundo; como resultado, cuando se exhibían, generalmente a una alta velocidad, las acciones de los personajes parecían mucho más aceleradas. La frecuencia de cuadros se incrementó progresivamente con el tiempo, hasta llegar a 22 cuadros por segundo, aunque, de hecho, la velocidad final de la película podía variar, incluso por acción de la persona a cargo de la proyección en la cabina correspondiente.
La adición del sonido a las películas implicó el requerimiento de filmar imágenes a una frecuencia fija de 24 cuadros por segundo, para poder lograr la uniformidad del sonido. El oído humano es más sensible que el ojo y el aumento o reducción de la velocidad del sonido no hubiese sido algo que pase desapercibido frente a los espectadores. La frecuencia de 24 cuadros por segundo sobrevivió con el tiempo, de modo tal que incluso hoy se utiliza como un estándar en las filmaciones y exhibiciones cinematográficas, lo que les da a las películas su particular apariencia visual cinematográfica.
A veces, al ver una película o una transmisión grabada, nos gustaría tener información adicional sobre lo que estamos viendo; por ejemplo, datos relacionados con los objetos o lugares mostrados (horarios, precios de venta de diferentes productos, ubicaciones, datos históricos, datos geográficos, cómo llegar ahí, etc.); sin embargo, no es algo que se necesite de inmediato. También resulta interesante obtener datos (opiniones, deseos, mensajes etc.) relacionados con un aspecto específico del contenido.
En el estado de la técnica se conoce el documento US2015110340 que describe sistemas y métodos para identificar un contenido de video desconocido. Un método ejemplar puede incluir recibir una primera huella digital y una segunda huella digital. La primera huella digital puede ser a base de color, derivada de colores en una porción del contenido de video desconocido, mientras que la segunda huella digital puede basarse al menos parcialmente en una característica diferente a los colores del contenido de video desconocido. Una base de datos de referencia de las huellas digitales de referencia se puede consultar, a continuación, usando la primera o la segunda huella digital, a fin de obtener un grupo candidato de huellas digitales. El grupo candidato de huellas digitales se puede consultar, a continuación, usando la otra huella digital, ya sea la primera o la segunda, para identificar al menos una huella digital de consulta. El contenido de video desconocido, a continuación, se puede identificar usando la al menos una huella digital de consulta. Por ejemplo, la segunda huella digital puede ser una huella digital basada en luminancia que deriva de la luminancia en el contenido de video desconocido.
Por tanto, con el método propuesto en esta invención, nuestra intención es proporcionar información adicional relacionada con el contenido de una transmisión; a tal fin, resulta necesario diseñar un método para sincronizar un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión, donde se ha adicionado un número de campos de información, mediante el desarrollo de un método y un sistema o arquitectura tal como el que se describe a continuación, cuya esencialidad se especifica en la primera reivindicación.
DESCRIPCIÓN DE LA INVENCIÓN
El objeto de la presente invención es un método para sincronizar un contenido audiovisual de referencia y una versión alterada del mismo transmitido por televisión.
El contenido audiovisual de referencia se entiende que significa el contenido básico grabado y almacenado a sincronizar, mientras que, en general, el contenido audiovisual transmitido es una versión alterada del contenido de referencia, debido a las transformaciones que podría haber sufrido la imagen de referencia (remasterizaciones que alteran el color o los bordes, incluyendo cortes de una parte de la imagen de referencia (recorte), la existencia de diferentes versiones del mismo contenido de referencia que han tenido segmentos adicionados o eliminados y la posible diferencia en la velocidad de transmisión entre el contenido de referencia y el contenido transmitido por televisión.
En general, las etapas necesarias para
obtener dicha sincronización son:
- La creación, antes de la transmisión, de un rastro del contenido de referencia, donde se realizan las transformaciones necesarias del contenido de referencia.
- La creación, en tiempo real, de un rastro del contenido transmitido, donde se realizan las transformaciones necesarias del contenido transmitido.
- La comparación entre el rastro creado a partir del contenido transmitido y el rastro creado a partir del contenido de referencia hasta alcanzar cierto grado de coincidencia o certeza, dentro de un umbral que puede ser fijo o adaptativo. El algoritmo de sincronización toma diferentes aspectos en cuenta; por un lado, se encarga de extraer las características de la imagen que corresponden a una serie de cuadros; a tal fin, durante el método de crear los rastros tanto del contenido de referencia como del contenido transmitido, se realizan las siguientes acciones:
- Particionar la imagen, es decir, la pantalla que corresponde a un cuadro de la transmisión, mediante la división de la imagen en piezas o particiones más pequeñas.
- Extraer el histograma de color que corresponde a cada una de las piezas particionadas, para obtener cuatro histogramas de color particionados, uno para el color rojo, otro para el azul, otro para el verde y, por último, uno para el gris.
- Buscar puntos significativos mediante la búsqueda de formas o los puntos límites de la imagen del cuadro, cuyas características se deben obtener, es decir que ya no estamos buscando un análisis o histograma de color, sino las formas o puntos de borde, o aquellos que hacen a la mayor diferencia.
La comparación entre las características de la imagen en cada uno de los cuadros analizados y un cuadro del contenido de referencia, a fin de determinar si la imagen emitida en un tiempo dado corresponde o no a la imagen emitida almacenada; e este caso, si hubiese metadatos asociados con la imagen correspondiente, se mostrarían en la pantalla del usuario.
El método debería ser capaz de determinar si la comparación entre los dos cuadros, el de la imagen emitida y el de la de referencia, coinciden o no. Dicha coincidencia no necesariamente debe ser total, ya que depende de varios factores, como la calidad de la transmisión, la calidad de la transmisión almacenada o la calidad de la película en sí misma, el ruido adicionado a la imagen por la emisora, en la forma de logos o mensajes, las transformaciones que haya sufrido la imagen de referencia (remasterizaciones que alteran el color de los bordes, incluyendo los cortes de una parte de la imagen de referencia (recorte), la existencia de diferentes versiones del mismo contenido de referencia a las que se han adicionado o de las que se han eliminado segmentos, y la posible diferencia en la velocidad de transmisión entre el contenido de referencia y la transmisión del contenido por televisión; por lo tanto, se considera que existe una coincidencia cuando hay un grado de certeza dado o las diferencias están dentro de un umbral que, además, puede ser adaptativo o inteligente, es decir, uno que aprende de los niveles de certeza que se pueden alcanzar durante la comparación o que puede ser considerado como una buena o una mala sincronización de un cuadro transmitido con un cuadro de referencia dado, donde un grado de certeza requerido a lo largo de la transmisión se puede modificar cambiando el umbral requerido.
Durante el método de comparar los cuadros, se usa una ventana de navegador que está ubicada alrededor del tiempo de la transmisión, preferentemente hacia adelante, es decir, hacia un tiempo posterior. El propósito es extraer las características de la imagen de los cuadros correspondientes a una dimensión de ventana dada, a fin de no tener que recuperar las características de la imagen de todos los cuadros en la transmisión, sino solo de aquellos más cercanos al tiempo de la transmisión.
La ventana del navegador puede ser adaptativa, es decir que no necesita tener una longitud fija, de modo tal que, a medida que el grado de correspondencia alcanzado en la comparación entre los cuadros aumenta, la ventana del navegador se puede reducir, mientras que, si el grado de correspondencia entre los cuadros disminuye, la longitud de la ventana del navegador aumenta. Por consiguiente, en el caso de que el grado de correspondencia disminuya progresivamente, el número de segundos buscados en la ventana del navegador se duplica cada vez que el grado de una correspondencia disminuye, hasta un máximo prestablecido, y una vez que este último se alcanza, la ventana avanza hasta encontrar nuevamente una correspondencia entre el contenido transmitido y el contenido de referencia. Otro aspecto a considerar en el método de sincronización, es la extracción de las barras negras horizontales, las cuales, en algunas transmisiones, aparecen arriba y abajo de la imagen de la transmisión, a fin de adaptarse a diferentes formatos. El método de tiempo real debe ser capaz de detectarlas y cortarlas, para determinar qué pieza de la imagen se debe cortar, y extraer las características de la imagen solo de aquellas partes que tienen contenido comparable.
A fin de cumplir con dicho propósito, el método saca provecho de tres características específicas para estas barras negras: son bandas continuamente estáticas, motivo por el cual no sufren cambios ni se mueven; son bandas simétricas o casi simétricas ubicadas en los extremos superior e inferior del contenido; y son totalmente negras; de este modo, se puede detectar el ancho de las barras negras horizontales.
Otro aspecto clave es la detección automática de los cortes publicitarios (o pausas para otros fines) durante la transmisión del contenido por televisión. Para alcanzar dicha detección, el método se basa en tres elementos:
• La identificación del logo del canal que transmite, que se ubica habitualmente en alguna de las esquinas de la transmisión, generalmente es estático. El algoritmo detecta su posición y forma. La identificación del logo es muy útil para detectar el período de transmisión de publicidad, ya que, durante la transmisión de publicidades, el logo desaparece y reaparece cuando se reanuda la transmisión.
• La identificación de los cuadros negros, que son habitualmente tres o cuatro cuadros completamente negros consecutivos, que permite que los canales comerciales separen la transmisión de una película o un programa de las publicidades.
• El análisis del grado de correspondencia durante la comparación entre los cuadros, de modo tal que, cuando dicho grado de correspondencia se dispara bruscamente, es un claro indicador del inicio de las publicidades.
Detectar el momento en que la transmisión se reanuda es más sencillo, ya que, en la comparación, los cuadros de la transmisión empiezan a verse como los cuadros almacenados.
El sistema es muy sólido y confiable, y logra la sincronización incluso en aquellas situaciones donde el contenido transmitido y el contenido de referencia son ampliamente diferentes. De manera específica, en el caso de:
• Las diferentes velocidades de transmisión, en cuadros por segundo, del contenido de referencia y el contenido transmitido, ajustadas a diferentes estándares internacionales (PAL, NTSC, etc.).
• El ruido superpuesto que es introducido por la emisora (logos, mensajes, etc.).
• Las versiones modificadas con respecto al contenido de referencia (espectro de color modificado, suavización de los contornos, cortes parciales de la imagen, textos superpuestos en diferentes idiomas, etc.).
• Las versiones extendidas o cortas del contenido de referencia, debido al hecho de que algunas escenas han sido adicionadas o eliminadas, de que pueden contener finales alternativos, etc.
Salvo que se indique lo contrario, todos los elementos técnicos y científicos usados en la presente memoria descriptiva tienen el significado que habitualmente entiende un experto normal en la materia a la que pertenece esta invención. En la implementación de la presente invención, se pueden usar métodos y materiales similares o equivalentes a aquellos descritos en la memoria descriptiva.
A lo largo de la descripción y de las reivindicaciones, la palabra “comprende” y sus variantes no pretenden excluir otras características técnicas, aditivos, componentes o etapas. Para los expertos en la materia, otros objetos, ventajas y características de la invención se desprenderán en parte de la descripción y en parte de la implementación de la invención.
EXPLICACION DE LAS FIGURAS
A fin de complementar la descripción que se presenta y para contribuir con una mejor comprensión de las características de la invención, según una realización preferida de la misma, un conjunto de dibujos se une a dicha descripción como una parte integral de la misma, donde lo siguiente está representado por cuestiones ilustrativas y no limitantes: En la Figura 1, podemos observar una representación de la arquitectura del sistema diseñado para implementar el método y la distribución de datos adicionales en las transmisiones sincronizadas.
REALIZACIÓN PREFERIDA DE LA INVENCIÓN
En vista de las figuras, a continuación se describe una realización preferida de la invención propuesta.
En la Figura 1, podemos observar que la arquitectura del sistema que permite la sincronización y la distribución de información, datos o metadatos adicionales en relación con una transmisión en vivo de una película, serie o documental hacia un número de terminales comprende:
- Una serie de receptores de televisión (1), diseñados para sincronizar el contenido de referencia con la transmisión por televisión, mediante la notificación del indicador actual y el estado de los canales sincronizados por medio de solicitudes de HTTP, y distribuirlos a todos los servidores de sincronización.
- Una serie de servidores de sincronización (2) conectados a los grupos de los sintonizadores de televisión (1), que concentran las diferentes señales de sincronización recibidas desde los mismos y redistribuyen las actualizaciones relevantes hacia los dispositivos (3) conectados a ellos. En la misma máquina se pueden ejecutar varios servidores de sincronización, mediante la recepción de conexiones desde diferentes dispositivos o puertos. El número de dispositivos (3) soportados es escalable, mediante la apertura de nuevas instancias.
- Una serie de monitores de sincronización (4) que controlan la ejecución de los servidores de sincronización (2), almacenando periódicamente el estado del mismo en una tabla (5) y actualizándolo en la nube (6).
Habiendo descrito de manera suficiente la naturaleza de la presente invención, así como también el modo de implementarla, declaramos que, dentro de su esencialidad, puede implementarse en otras realizaciones que pueden diferir en algunos detalles de la que se describe como un ejemplo, y que recibirán igualmente la protección solicitada, siempre y cuando no alteren, cambien o modifiquen el principio fundamental de la misma, como se define en las reivindicaciones adjuntas.

Claims (6)

REIVINDICACIONES
1. Método para sincronizar un contenido audiovisual de referencia con una versión alterada del mismo emitida por televisión, que comprende las siguientes etapas:
• la creación, antes de la transmisión, de un rastro del contenido de referencia, donde se realizan las transformaciones necesarias del contenido de referencia,
• la creación, en tiempo real, de un rastro del contenido transmitido mediante la extracción de las características de la imagen que corresponde a una serie de cuadros;
donde, en el método de crear los rastros tanto del contenido de referencia como del contenido transmitido, se realizan las siguientes acciones:
• particionar la imagen que corresponde a un cuadro de la transmisión, mediante la división de la imagen en piezas o particiones más pequeñas,
• extraer el histograma de color correspondiente a cada una de las piezas particionadas,
• buscar puntos significativos mediante la búsqueda de los puntos límites de la imagen en cada uno de los cuadros analizados;
El método continúa con las siguientes etapas:
• la detección de un período de transmisión de publicidad durante la transmisión del contenido,
• la comparación entre rastros creados a partir del contenido transmitido y el contenido de referencia hasta alcanzar un determinado grado de correspondencia dentro de un umbral dado,
• donde un número de cuadros de los cuales se crea un rastro del contenido transmitido coincide con una ventana de navegador ubicada alrededor del tiempo de la transmisión,
• la ventana del navegador es adaptativa, de modo tal que cuanto mayor sea el grado de correspondencia alcanzado al comparar los cuadros, la ventana del navegador se podrá reducir, mientras que, si el grado de correspondencia entre los cuadros disminuye, la longitud de la ventana del navegador aumenta,
en el caso de que el grado de correspondencia disminuya progresivamente, el número de segundos buscados en la ventana del navegador se duplica cada vez que el grado de correspondencia disminuye, hasta un máximo configurable y, una vez que se alcanza ese máximo, la ventana comienza a buscar en una dirección hacia adelante hasta alcanzar la sincronización.
2. Método para sincronizar un contenido audiovisual de referencia con una versión alterada del mismo emitida por televisión, según la reivindicación 1, donde el número de cuadros analizados para la creación del rastro de referencia es uno para cada segundo del contenido de referencia.
3. Método para sincronizar un contenido audiovisual de referencia con una versión alterada del mismo emitida por televisión, según cualquiera de las reivindicaciones anteriores, donde los histogramas de color obtenidos para cada pieza particionada de cada cuadro de la transmisión son histogramas, uno para el color rojo, otro para el azul, otro para el verde y, por último, uno para el gris.
4. Método para sincronizar un contenido audiovisual de referencia con una versión alterada del mismo emitida por televisión, según cualquiera de las reivindicaciones anteriores, donde la detección de los períodos de transmisión de publicidad se basa en uno o una combinación de algunos de los métodos descritos:
• la identificación del logo del canal transmitido, mediante la determinación, durante la transmisión de las publicidades, de que el logo desaparece y reaparece cuando la transmisión se reanuda,
• la identificación de cuadros negros, mediante la determinación de tres o cuatro cuadros completamente negros consecutivos, que permite que los canales comerciales separen la transmisión de una película o un programa de las publicidades,
• el análisis del grado de correspondencia durante la comparación entre los cuadros, mediante la determinación de que, cuando dicho grado de correspondencia se dispara bruscamente, es el inicio de las publicidades.
5. Los métodos para sincronizar un contenido audiovisual de referencia con una versión alterada del mismo emitida por televisión, según cualquiera de las reivindicaciones anteriores, donde el umbral dentro del cual una correspondencia entre el cuadro transmitido y el cuadro de referencia que se considera que existe es adaptativo o inteligente, el cual aprende de los niveles de certeza que se pueden alcanzar durante la comparación o lo que se puede considerar que es una buena o una mala sincronización de un cuadro de transmisión con un cuadro de referencia dado, donde el grado de certeza requerido a lo largo de la transmisión se puede modificar cambiando el umbral requerido.
6. Un sistema configurado para llevar a cabo la sincronización, de acuerdo con el método según cualquiera de las reivindicaciones 1 a 5, y configurado además para llevar a cabo la distribución de información adicional o datos, etadatos, relacionados con una transmisión en vivo hacia una serie de dispositivos (3), donde comprende:
• una serie de sintonizadores de televisión (1), diseñados para sincronizar el contenido transmitido por televisión de canales de transmisión con el contenido de referencia grabado o almacenado, mediante la notificación del indicador actual y el estado de los canales sincronizados por medio de solicitudes de HTTP, y distribuirlos a todos los servidores de sincronización,
• una serie de servidores de sincronización (2) conectados a los grupos de los sintonizadores de televisión (1), que concentran las diferentes señales de sincronización recibidas desde los mismos y redistribuyen las actualizaciones relevantes hacia los dispositivos (3) conectados a cada canal, manteniendo a estos últimos sincronizados en tiempo real,
• una serie de monitores de sincronización (4) que controlan la ejecución de los servidores de sincronización (2), almacenando periódicamente el estado del mismo en una tabla (5) y actualizándolo en la nube (6).
ES16760113T 2016-06-14 2016-06-14 Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión Active ES2884084T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2016/070448 WO2017216394A1 (es) 2016-06-14 2016-06-14 Metodo y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión

Publications (1)

Publication Number Publication Date
ES2884084T3 true ES2884084T3 (es) 2021-12-10

Family

ID=56853659

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16760113T Active ES2884084T3 (es) 2016-06-14 2016-06-14 Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión

Country Status (4)

Country Link
US (1) US20190349624A1 (es)
EP (1) EP3471100B1 (es)
ES (1) ES2884084T3 (es)
WO (1) WO2017216394A1 (es)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7809154B2 (en) * 2003-03-07 2010-10-05 Technology, Patents & Licensing, Inc. Video entity recognition in compressed digital video streams
US9055271B2 (en) * 2008-03-20 2015-06-09 Verna Ip Holdings, Llc System and methods providing sports event related media to internet-enabled devices synchronized with a live broadcast of the sports event
US8959108B2 (en) * 2008-06-18 2015-02-17 Zeitera, Llc Distributed and tiered architecture for content search and content monitoring
US8516533B2 (en) * 2008-11-07 2013-08-20 Digimarc Corporation Second screen methods and arrangements
US8661075B2 (en) * 2009-06-04 2014-02-25 Qualcomm Incorporated Method and apparatus for serving episodic secondary content
US9047516B2 (en) * 2010-06-18 2015-06-02 Verizon Patent And Licensing Inc. Content fingerprinting
US8424037B2 (en) * 2010-06-29 2013-04-16 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content in response to selection of a presented object
US9788041B2 (en) * 2010-12-30 2017-10-10 Yahoo Holdings, Inc. Entertainment content rendering application
US20120324495A1 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Detecting and distributing video content identities
US8891868B1 (en) * 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US10142121B2 (en) * 2011-12-07 2018-11-27 Comcast Cable Communications, Llc Providing synchronous content and supplemental experiences
US9292894B2 (en) * 2012-03-14 2016-03-22 Digimarc Corporation Content recognition and synchronization using local caching
US20140176802A1 (en) * 2012-12-21 2014-06-26 Nvidia Corporation Detection and measurement of video scene transitions
US20140254688A1 (en) * 2013-03-08 2014-09-11 Cisco Technology, Inc. Perceptual Quality Of Content In Video Collaboration
US20150318020A1 (en) * 2014-05-02 2015-11-05 FreshTake Media, Inc. Interactive real-time video editor and recorder
KR101456926B1 (ko) * 2013-06-14 2014-10-31 (주)엔써즈 핑거프린트에 기반한 광고 검출 시스템 및 방법
US9465995B2 (en) * 2013-10-23 2016-10-11 Gracenote, Inc. Identifying video content via color-based fingerprint matching
WO2018029708A1 (en) * 2016-08-10 2018-02-15 Naffa Innovations Private Limited System and method for providing targeted secondary content delivery

Also Published As

Publication number Publication date
WO2017216394A1 (es) 2017-12-21
EP3471100B1 (en) 2021-05-19
EP3471100A1 (en) 2019-04-17
US20190349624A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
EP3110165B1 (en) Broadcast receiving apparatus and method for summarized content service
US20240064186A1 (en) Mobile device displaying real time sports statistics
US8736667B2 (en) Method and apparatus for processing video images
CN108289220B (zh) 虚拟图像处理方法、图像处理系统及存储介质
US8766973B2 (en) Method and system for processing video images
US20150138395A1 (en) Display System Using Metadata to Adjust Area of Interest and Method
US8973029B2 (en) Backpropagating a virtual camera to prevent delayed virtual insertion
CN103152518A (zh) 图像处理系统和方法
US20200120369A1 (en) Method and system for fusing user specific content into a video production
CN103179339A (zh) 图像处理系统和方法
WO2010067350A1 (en) Method and device for processing video frames
KR20130100994A (ko) 3d 통신 시스템에서 보조 콘텐츠를 제공하기 위한 방법 및 장치
US20160261894A1 (en) Detecting of graphical objects to identify video demarcations
ES2884084T3 (es) Método y sistema de sincronización entre un contenido audiovisual de referencia y una versión alterada del mismo emitida por televisión
KR20060091563A (ko) 동영상의 요약 제공이 가능한 이동통신 단말기 및 이를 이용한 요약 제공 방법
US9852595B2 (en) Photo comparison and security process called the flicker process
JP4244584B2 (ja) 重要画像検出装置、重要画像検出方法、プログラム及び記録媒体並びに重要画像検出システム
TWI579025B (zh) 判定方法及裝置
US20130227609A1 (en) Method and apparatus for adding auxiliary visual objects to an image or an image sequence
CN105306961B (zh) 一种抽帧的方法及装置
EP2635021A2 (en) Method and apparatus for adding auxiliary visual objects to an image or an image sequence
CN109804431A (zh) 用于生成增强图像的电视转播系统
CN107911686B (zh) 控制方法以及摄像终端
KR20190125680A (ko) 드론 동영상에 증강현실 정보를 삽입하는 방법
EP3414732A1 (fr) Procédé d'identification d'un spectacle dans une vidéo filmée par une caméra d'un spectateur