MX2012010002A - Transporte y señalamiento de datos de disparidad. - Google Patents

Transporte y señalamiento de datos de disparidad.

Info

Publication number
MX2012010002A
MX2012010002A MX2012010002A MX2012010002A MX2012010002A MX 2012010002 A MX2012010002 A MX 2012010002A MX 2012010002 A MX2012010002 A MX 2012010002A MX 2012010002 A MX2012010002 A MX 2012010002A MX 2012010002 A MX2012010002 A MX 2012010002A
Authority
MX
Mexico
Prior art keywords
disparity
data
subtitle
inclination
sequence
Prior art date
Application number
MX2012010002A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
Mark Kenneth Eyer
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2012010002A publication Critical patent/MX2012010002A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un método para decodificar datos de disparidad de subtítulos, implica un receptor de TV que recibe datos de disparidad de subtítulos para una pantalla 3D codificada como una secuencia de pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de tramas sobre los cuales cada función lineal que representa disparidad será aplicado en pares con un valor que indica un cambio en inclinación de la inclinación de un segmento precedente. Un primer segmento en la secuencia presume una inclinación predeterminada como una referencia. Una secuencia de paquetes de datos de subtítulos especifica una ventana de pantalla de subtítulos que contiene texto de subtítulos. El valor de disparidad se usa en cada trama para determinar una desviación horizontal de vistas izquierda y derecha de la pantalla CC que establece la posición del eje z percibida de la ventana de pantalla de subtítulos. Este extracto no deberá considerarse limitante, dado que otras modalidades pueden desviarse de los aspectos descritos en este extracto.

Description

TRANSPORTE Y SEÑALAMIENTO DE DATOS DE DISPARIDAD REFERENCIA CRUZADA A DOCUMENTOS RELACIONADOS Esta solicitud reclama el beneficio de prioridad de Solicitud de Patente Provisional de E.U.A. No. 61/415,924 presentada 22 de noviembre 2010 titulada "Vinculo de Servicio para Transporte de Datos de Disparidad de Subtítulos" de Mark Eyer, et al., y esta solicitud reclama el beneficio de prioridad de la solicitud de patente provisional de E.U.A. Número: 61/415,457 presentada 19 de noviembre 2010 titulada "Señalamiento y Transporte de Datos de Disparidad para Subtítulos en 3D" a Mark Eyer, et al.; 61/346,652 presentada el 20 de mayo 2010, titulado "Transporte de datos de Disparidad" a Mark Eyer, et al.; y 61/313,612 presentada 12 de marzo 2010 a Mark Eyer y otros, y esta solicitud reivindica el beneficio de prioridad de solicitud de patente de E.U.A. No. 61/316,733 presentada 23 de marzo 2010 titulada "Trama de Comandos Extendida para Subtítulos CEA-708" de Mark Eyer et al., y esta solicitud reivindica la prioridad de la solicitud de patente provisional de E.U.A. número 61/378,792 presentada 31 de agosto 2010 titulada "Transporte Eficiente de Cambio Trama por Trama en Datos de Disparidad de } subtítulos" a Mark Eyer, cada uno de las cuales se incorpora en la presente por referencia en su totalidad.
NOTIFICACIÓN DE DERECHOS DE AUTOR Una porción de la descripción de este documento de patente contiene material que está sujeto a protección de derechos de autor. El propietario del derecho de autor no tiene ninguna objeción a la reproducción por facsímil del documento de patente o la descripción de la patente, tal y como aparece en el archivo de patentes o registros de la Oficina de Patentes y Marcas, pero por lo demás se reserva todos los derechos de autor.
ANTECEDENTES Los subtítulos se utilizan en los programas de televisión para proporcionar un texto visible (generalmente una transcripción de diálogos y sonidos) para el televidente. Los subtítulos cerrados (CC) son especialmente útiles para personas con problemas auditivos. Los datos de CC se proporcionan en la programación de televisión utilizando técnicas definidas por diversas normas técnicas, incluyendo varias versiones e implementaciones definidas en las normas técnicas de CEA-608 y CEA-708.
Desafortunadamente, con el surgimiento de televisión estereoscópica en tres dimensiones (3D) (3DTV), las técnicas convencionales no proporcionan el mecanismo óptimo para uno ver los subtítulos, en el entorno de 3DTV desde los subtítulos generalmente pueden aparecer en una ubicación inconveniente del eje z (profundidad) en relación con otros objetos de video que pueden aparecer delante o detrás de las subtítulos.
BREVE DESCRIPCIÓN DE LOS DIBUJOS Ciertas formas de modalidades ilustrativas que muestran la organización y método de funcionamiento, junto con objetos y ventajas pueden entenderse mejor haciendo referencia a la siguiente descripción detallada tomada junto con los dibujos anexos en los que: La Figura 1 es un diagrama que ilustra el transporte de datos de disparidad de subtítulos compatibles con ciertas modalidades de la presente invención.
La Figura 2 es un ejemplo del codificador coherente con ciertas modalidades de la presente invención.
La Figura 3 es un decodificador del ejemplo coherente con ciertas modalidades de la presente invención.
La Figura 4 es un ejemplo de un dispositivo receptor de televisión compatible con ciertas modalidades de la presente invención.
La Figura 5 es un diagrama de bloques ilustrativo que representa las diversas operaciones de un procesador de acuerdo con ciertas modalidades de la presente invención.
La Figura 6 es una gráfica que representa un ejemplo de curva que representa datos de disparidad publicados consistentes con ciertas modalidades de la presente invención.
La Figura 7 es una gráfica que representa un ejemplo de una aproximación lineal por tramos de la curva de disparidad coherente con ciertas modalidades de la presente invención .
La Figura 8 es un ejemplo aproximación lineal en piezas de datos de disparidad publicados consistentes con ciertas modalidades de la presente invención.
La Figura 9 es un diagrama de flujo de una implementación de ejemplo de un método coherente con ciertas modalidades de la presente invención.
La Figura 10 es un diagrama de flujo de una implementación de ejemplo más detallado de un método coherente con ciertas modalidades de la presente invención.
DESCRIPCIÓN DETALLADA Aunque esta invención es susceptible de modalidad en muchas formas diferentes, en los dibujos se muestra y se describirán en detalle modalidades especificas, con el entendimiento de que la presente descripción de tales modalidades será considerada como un ejemplo de los principios y no tienen intención de limitar la invención a las modalidades especificas mostradas y descritas. En la siguiente descripción, los mismos números de referencia se utilizan para describir las mismas partes, similares o correspondientes en las diversas vistas de los dibujos.
Los términos "un" o "una", como se usa en la presente, se definen como uno o más de uno. El término "pluralidad", como se usa en la presente, se define como dos o más de dos. El término "otro", como se usa en la presente, se define como al menos un segundo o más. Los términos "incluyendo" y/o "que tiene", como se usa en la presente memoria, se definen como comprendiendo (es decir, lenguaje abierto) . El término "acoplado", como se usa en la presente, se define como conectado, aunque no necesariamente directamente, y no necesariamente mecánicamente. El término "programa" o "programa de computadora" o términos similares, tal como se utiliza en la presente, se definen como una secuencia de instrucciones diseñadas para ejecución en un sistema informático. Un "programa" o "programa de computadora", puede incluir una subrutina, una función, un módulo del programa, un guión, un procedimiento, un método de objeto, una implementación de objeto, en una aplicación ejecutable, un applet, servlet, un código de fuente, un código de objeto, una biblioteca compartida/biblioteca de carga dinámica y/u otra secuencia de instrucciones diseñadas para la ejecución de un sistema informático.
El término "programa", como se usa en este documento, también se pueden usar en un segundo contexto (la definición anterior es para el primer contexto) . En el segundo contexto, el término se utiliza en el sentido de un "programa de televisión". En este contexto, el término se utiliza para referirse a cualquier secuencia coherente de contenido de audio y video, tales como los que se interpretarían e informarían en una guía electrónica de programas (EPG) como un programa de televisión único, sin tener en cuenta si el contenido es una película, un evento deportivo, un segmento de una serie de varios capítulos, emisión de noticias, etc. El término también puede ser interpretado para incluir anuncios publicitarios y otros programas como el contenido que podría ser reportado como un programa en una guía de programación electrónica.
La referencia en este documento a "una modalidad", "ciertas formas de modalidad", " modalidad", "una aplicación", "un ejemplo" o términos similares significa que un aspecto particular, estructura o característica descrita en relación con la modalidad se incluye en al menos una modalidad de la presente invención. Por lo tanto, las apariciones de tales frases o en varios lugares de la especificación no son necesariamente todas ellas referidas a la misma modalidad. Además, las características particulares, estructuras, o características se pueden combinar de cualquier manera adecuada en una o más modalidades, sin limitación.
El término "o" como se utiliza en la presente debe interpretarse como un integrador o el sentido de una o cualquier combinación. Por lo tanto, "A, B o C" significa "cualquiera de los siguientes: A; B; C; A y B; A y C; B y C; A, B y C" . Una excepción a esta definición sólo se producirá cuando una combinación de elementos, funciones, etapas o actos son de alguna manera inherentemente mutuamente excluyentes .
Las implementaciones consistentes con las modalidades de la presente invención generalmente se relacionan con el transporte y el formato de los datos utilizados para la provisión de los subtítulos en el video 3D.
Cuando se muestran subtítulos en la pantalla de un programa de vídeo en 3D, como se ha descrito anteriormente, la ventana de CC y el texto asociado es probable que se represente en el plano de la pantalla, a menos que se tomen medidas para hacer que la ventana y el texto aparecen a una profundidad percibida de manera diferente, más apropiada. Un objeto en una escena dentro del contenido en 3D puede ser presentado de tal manera que al espectador le parece que está a cierta distancia delante del plano de la pantalla de visualización . Si una ventana de subtítulos colocada a una profundidad en el plano de la pantalla fuera a ser colocado en frente de dicho objeto, una ocurriría "violación de profundidad". En tal caso, al espectador se le presentan señales de profundidad en conflicto, una situación que causa fatiga ocular y malestar. Dado que los subtítulos pueden cruzarse en el eje z con contenido en la escena si se colocan simplemente en el plano de la pantalla, la presentación de subtítulos es preferiblemente de manera individual autor a la materia objeto de la presentación de vídeo. Con el fin de lograr esto, la información adicional puede ser enviada junto con los subtítulos para definir la colocación percibida en el eje z (una distancia designada enfrente o detrás del plano de la pantalla) de una ventana que contiene el texto del subtítulo de presentación efectiva y para evitar interferencias con objetos en la escena. Un número de técnicas pueden ser concebidas para proporcionar esta información, pero muchos de ellos tienen desventajas.
La televisión 3D estereoscópica implica el suministro a la pantalla de visualización de vistas separadas para los ojos izquierdo y derecho, junto con un método para permitir que cada uno de los ojos del observador vea la imagen que se pretende para dicho ojo. La ilusión de la profundidad se logra cuando, para un objeto dado, las vistas izquierda y derecha del ojo difieren en la posición horizontal de la colocación del objeto. Una visión general de la tecnología básica en relación con tres sistemas de visualización tridimensionales se describe en "Sistemas de visuali zación en 3D" por el Dr. Nick Holliman, Departamento de Ciencias de Computación de la Universidad de Durham, Science Laboratories, South Road, Durham DHl 3LE, Reino Unido (ver especialmente págs. 10-11 y Fig. 5), que se incorpora en la presente por referencia en su totalidad.
El término "disparidad" como se utiliza en la presente puede ser más formalmente conocido como "disparidad de pantalla" (es decir, medido en la pantalla) que se distingue de "disparidad retinal" y se define como la diferencia de las coordenadas x físicas de los puntos correspondientes en las imágenes derecha e izquierda en un par de imágenes estéreo alineadas en una pantalla. El término menos formal "disparidad" se utiliza en la presente por simplificación. Por convención, cuando la disparidad es negativa (por ejemplo, cuando la imagen del ojo izquierdo se representa en la pantalla a la derecha de la imagen del ojo derecho) , el objeto se percibe estando enfrente del plano de la pantalla. Cuando la disparidad es positiva (por ejemplo, cuando la imagen del ojo izquierdo se representa en la pantalla a la izquierda de la imagen del ojo derecho) , el objeto se percibe estando detrás del plano de la pantalla.
El término "datos de disparidad" puede referirse a los datos que indican el valor de disparidad para ser utilizados en la representación gráfica de un objeto dado, tal como una ventana de subtítulos y su texto asociado. El término también puede ser utilizado más generalmente para referirse a los datos que reflejan las posiciones del eje z de los objetos en la escena actual. La zona de la escena puede ser mapeada en regiones, con la posición del eje z del objeto en cada región estando más cerca del espectador registrado como una coordenada en el mapa. Tal mapa puede ser llamado un "mapa de disparidad" o un "mapa de profundidad" . Los mapas de disparidad pueden cambiar sobre una base de cuadro por cuadro y se puede representar en cualquier número de formas. Se observa que la disparidad es una medida de la desviación horizontal de las imágenes del ojo izquierdo y del ojo derecho, pero el desplazamiento no tiene que ser en un número entero de pixeles dado que las compensaciones de pixeles fraccionarios son perfectamente aceptables.
Dentro del contexto del suministro de contenido de video en 3D y CC para la visualización, la disparidad es generalmente representada como un porcentaje de la anchura de la video adjunta. Como tal, es un número sin dimensiones. Por ejemplo, el esquema de señalización puede especificar que una unidad de disparidad es igual a 1/1920 de la anchura del contenido de video (que generalmente se muestra para que coincida con la anchura de la pantalla de visualización) . Sin embargo, la disparidad de 1/1920 no es el mínimo incremento en la disparidad real, incluso con una anchura de pantalla de 1920. Con esta definición, una disparidad de 7 se refiere a una distancia igual a 7/1920 de la anchura del contenido de vídeo. Una vez más con esta definición, en el caso especial de una pantalla con 1920 píxeles de resolución horizontal, esto funciona de tal manera que una unidad completa de disparidad es la misma anchura que un pixel de pantalla, pero esto debe considerarse como un caso especial. Si una pantalla de visualización tiene menos de 1920 píxeles horizontales, por ejemplo, 1600 píxeles horizontales, entonces la disparidad se aumenta en consecuencia y una disparidad de 7 equivale a (7/1920) (1600) = 5.83 píxeles. Por lo tanto, la disparidad debe más bien ser vista como la diferencia en la ubicación física de la pantalla a lo largo del eje x (horizontal) de los puntos correspondientes en las imágenes del ojo izquierdo y del ojo derecho en un par de imágenes estereoscópicos alineados. También se deberá mencionar que la ventana de CC será generalmente una ventana de dos dimensiones que se coloca a lo largo del eje z y que se percibe como en un plano paralelo al plano de la pantalla de visualización.
Se ha formulado una propuesta a un comité de normas para una aproximación a la adición de datos de disparidad para establecer la percepción del eje z, o profundidad, para ventanas de subtítulos CEA-708 específicas usando sintaxis compatible con CEA-708. Un enfoque proporciona datos de disparidad para cualquier ventanas de subtítulo CEA-708 dada mediante el uso de un método de extensión de comandos en CEA-708 llamado método ETX1. Esta propuesta tiene inconvenientes, pero se pueden idear otras varias posibilidades para el transporte de los datos de disparidad. En un ejemplo, los datos de disparidad de subtítulos pueden ser colocados en un paquete de datos_usuario () de imagen separada, por lo tanto, se deslinda de las preocupaciones de regulación y control de tiempo que se tienen que enfrentar si se lleva dentro del flujo de subtítulo. Esto se representa en el diagrama que se muestra en la FIGURA 1.
La Figura 1 representa un flujo de bits de DTV 100 como un "canal de datos" que transporta datos utilizados para el transporte de los diversos elementos utilizados para transmitir información a un receptor de DTV para un dispositivo digital de receptor de televisión (es decir, un televisor, un decodificador , etc.) en un canal físico. En una implementación de modalidades de acuerdo con la presente invención, los datos de disparidad de subtítulo pueden ser definidos como otro tipo de datos_usuario () y se muestran en esta ilustración como datos de disparidad de subtítulos 110. Esto permite que los datos de disparidad sean transportados fuera del canal de transporte 120 DTVCC por sí mismo y permite que no se asigne el uso de ancho de banda adicional a servicios de subtítulos DTVCC por sí mismos.
Haciendo referencia ahora a la Figura 2, se representa un diagrama básico de un proveedor de servicios tal como un organismo de radiodifusión. Generalmente, un único proveedor de servicios puede proporcionar múltiples programas en uno o más flujos de transporte. Los datos de audio, video y subtítulos se proporcionan a un codificador que codifica los datos en paquetes adecuados para su distribución, incluyendo datos del título de paquetes como se describió anteriormente. Como se muestra, el programa A y el programa B se codifican por los codificadores 202 y 204 que se proporcionan a continuación a un flujo de transporte multiplexor 210 que proporciona entonces una salida que puede ser distribuida mediante un medio de canal físico, tales como la radiodifusión terrestre, por cable o por satélite. En esta discusión, el uso del término "Programa" concuerda con el de la norma de sistemas MPEG-2 (ISO/IEC 13818-1) . Un Programa MPEG-2 tiene los componentes asociados de flujo elemental, como por ejemplo una secuencia de vídeo primaria y uno o varios flujos elementales de audio. De acuerdo con la implementación descrita anteriormente, los datos de disparidad de subtítulos 110 se ofrecen como datos_usuario () en el flujo elemental vídeo, pero esto no debe ser considerado limitante dado que hay otras implementaciones que tienen los datos de disparidad de subtítulos en otros mecanismos de transporte que se describe o se hace referencia en lo sucesivo. Sin embargo, es de observarse que los datos de disparidad de subtítulos pueden ser codificados de cualquier manera adecuada utilizando el mecanismo de transporte presente sin limitación. De manera similar, los datos de disparidad codificados como se describirá más adelante se pueden transportar mediante cualquier mecanismo de transporte adecuado, sin limitación.
Los datos codificados desde el canal físico se reciben en un dispositivo receptor de televisión (por ejemplo, un televisor o un decodificador ) como se representa en la Figura 3. El flujo de transporte es desmultiplexado en flujo de transporte desmultiplexor 304 para producir una o más corrientes elementales, incluyendo audio, vídeo (con datos de subtítulos incrustados), así como otros datos que no se muestran. Un analizador de vídeo 308 extrae los datos de vídeo comprimidos a partir de la secuencia de vídeo elemental y lo envía al decodificador de vídeo 314 para la decodificación. El analizador de video 308 extrae los bloques de datos_usuario () de la secuencia de vídeo elemental y los envía al usuario analizador de datos 310. El desmultiplexor de transporte de corriente 304 selecciona los paquetes de audio y los suministra al decodificador de audio 312 para producir datos de audio como una salida. Cuando se utiliza el mecanismo de transporte anteriormente, un usuario analizador de datos 310 analiza la porción de datos_usuario () de la secuencia de video y separa el canal de transporte DTVCC y los datos de disparidad de subtítulos. Cuando se utilizan otros medios de transporte para el DTVCC y datos de disparidad, los datos de CC y la disparidad de la que se analizan a cabo utilizando un mecanismo de análisis adecuado adaptado al transporte.
Los datos relacionados con subtítulos cerrados se procesan en un procesador de subtítulos 316. El procesador de subtítulos representa el texto de subtítulos usando los datos de disparidad que definen la separación del eje x de imágenes del ojo izquierdo y del ojo derecho para producir la posición del eje z percibida del texto del título y su ventana asociada. Las imágenes resultantes de subtítulos son compuestos en el compositor 320 con los datos de vídeo para producir el vídeo en 3D con subtítulos colocados de acuerdo a los datos en los paquetes de datos de subtítulos en el plano x, y y z. Estos datos pueden situar el texto de una manera estática (en el que la posición del eje z se mantiene constante durante la visualización de la subtítulos en un segmento dado) o dinámicamente (en donde el eje z se mueve posición en el tiempo durante la visualización) , de conformidad con la creación de la datos de subtítulos. Los datos de subtítulos a continuación, se pueden representar junto con el programa de video en una pantalla de vídeo (no mostrados ) .
Un dispositivo receptor se representa con mayor detalle en el contenido de la FIGURA 4 en el que se recibe a través de cualquier fuente adecuada tal como difusión terrestre, por cable, por satélite o en un sintonizador 400 /desmodulador 402 receptor. El flujo de transporte incluyendo los datos del titulo del sintonizador/demodulador 402 se desmultiplexa en el desmultiplexor 406 en los flujos de audio y video. El audio se decodifica en un decodificador de audio 410, mientras que el video se decodifica en un decodificador de video 414. Los datos A/V sin comprimir también pueden ser recibidos a través de una interfaz A/V comprimida 418 que puede ser selectivamente utilizada.
El contenido de A/V también puede ser recibida a través de Internet 422 mediante una interfaz de red 426 para descodificar contenidos de televisión IP. Además, el almacenamiento 430 puede ser proporcionado por tiempo no real (NRT) el contenido almacenado. El contenido de NRT se reproduce por demultiplexión en 406 de una manera similar a la de otras fuentes de contenido. El receptor funciona generalmente bajo el control de un procesador tal como CPU 438 que está interconectado a la memoria de trabajo 440 y la memoria de programas 442, asi como un subsistema de gráficos 444 a través de uno o más colectores tales como 450.
El CPU 438 recibe datos de subtítulos cerrados desde el demultiplexor 406, así como los datos de disparidad por cualquier mecanismo de transporte (por ejemplo, por medio de los paquetes de datos de subtítulos como los descritos anteriormente u otro mecanismo como se indica a continuación) y se determina mediante el análisis de los datos lo que la separación horizontal del ojo izquierdo y el ojo derecho serán usadas para crear la percepción de la posición del eje z, asi como la posición x e y para localizar los datos de subtítulos. Esta información se pasa al subsistema de gráficos 444 y las imágenes son compuestas en el compositor 460 para producir una salida adecuada para su visualización en una pantalla de vídeo.
Por lo tanto, un método de comunicación de datos de los subtítulos a un dispositivo receptor de televisión incluye empacar texto de subtítulos en un flujo de canal de subtítulos de televisión digital de paquetes; transportar y suministrar datos de disparidad que define una posición del eje z para el texto de subtítulos para cada trama de vídeo que se muestra con subtítulos opcionales dentro de un flujo de paquetes de datos de usuario de televisión digital; transmitir el flujo de canales de subtítulos de televisión digital de paquetes de dispositivo receptor de televisión como parte de flujo de transporte que porta datos de audio/video asociados con el texto de subtítulos; y transmitir el flujo de paquetes de datos de usuario de televisión digital conteniendo los datos de disparidad al dispositivo receptor de televisión fuera del flujo de transporte que tiene los datos de audio/video asociados con el texto de subtítulos cerrado.
Y, un método para procesar datos de subtítulos en un dispositivo receptor de televisión implica recibir un flujo de canal de subtítulos de televisión digital de paquetes al dispositivo receptor de televisión como una parte de flujo de transporte que tiene datos de audio/video asociados con el texto de subtítulos; recibiendo un flujo de paquetes de datos de usuario de televisión digital que contiene los datos de disparidad al dispositivo receptor de televisión fuera del flujo de transporte que porta los datos de audio/video asociados con el texto de subtítulos; y colocar el texto de subtítulos cerrado en una ventana de subtítulos para exhibirlo en una pantalla de video tridimensional con la ventana de subtítulos posicionado a lo largo del eje z en una posición definida por los datos de disparidad .
La Figura 5 muestra una implementación del programa de módulos utilizados para procesar los datos de subtítulos suministrados en la forma descrita en la presente. En este ejemplo de implementación, CPU 438 que opera bajo control de programa de la memoria de programa 442 y utiliza la memoria de trabajo 440 recibe el flujo de transporte desmultiplexada de desmultiplexor 406 (a través de cualquier mecanismo de transporte adecuado) y un módulo analizador 504 produce los datos de subtítulo (es decir, la texto del subtítulo y los comandos asociados para crear y posicionar ventanas de subtítulos) en 508 y envía los datos de disparidad a datos de disparidad de tratamiento módulo 512 en donde se extraen los datos de disparidad para su uso por el licitador de subtítulos 514 para su procesamiento. Otros datos pueden ser analizados por el analizador 504 a otros módulos de procesamiento de datos como se indica en 506. Los datos de subtítulos procesados son compuestos en el compositor 460 con los datos de vídeo del demultiplexor 406 para producir los datos para la visualización con la posición de los datos de CC posicionados como se especifica en los datos de disparidad .
En ciertas implementaciones coherentes con las modalidades de la invención, la cantidad de datos utilizados para definir la posición z se puede minimizar y, o bien transportar junto con el texto de la etiqueta y la parte de vídeo de la corriente de transporte DTV o en paquetes de usuario_dato () separados como se describió anteriormente.
Cuando los datos de disparidad se suministran fuera del canal de DTV de transporte, los datos de disparidad de subtítulos no tienen impacto en el modelo regulador de DTVCC o tasas de datos y pueden ser multiplexados en el vídeo por separado de los datos de subtítulos. Nota: existen otros tipos de datos definidos por el usuario en las normas, tales como la descripción de formato activo (AFD) y la barra de datos. De acuerdo con ciertas formas de modalidad de conformidad con la presente invención, los datos de disparidad de subtítulos pueden ser transportados como un tipo de datos de imagen de usuario. Sin embargo, esto no debe considerarse como limitante ya que el mecanismo de transporte descrito anteriormente es sólo uno de varios mecanismos para el transporte de los datos de disparidad codificados de la manera descrita más adelante. Por ejemplo, los datos de disparidad se puede transportar mediante las técnicas descritas en la solicitud de patente de E.U.A. número de serie 13/022,828, presentada simultáneamente con la presente titulada "Servicio de Vinculación al Transporte de Disparidad de Subtítulos" de Eyer, o la Solicitud de Patente de E.U.A. número de serie 13/022,810, presentada simultáneamente la presente titulada "Flujo de Comandos Extendido para Disparidad de Subtítulos" de Eyer, ambas de las cuales se incorporan en la presente por referencia, también se podrían utilizar sin limitación.
De acuerdo con ciertas modalidades preferidas, la cantidad de datos utilizados para transportar los datos de disparidad pueden ser dramáticamente reducidos para minimizar el impacto sobre el ancho de banda disponible para el servicio de subtítulos, independientemente del mecanismo de transporte, como se describirá más adelante.
Con el fin de definir la estructura de datos como sería de retratar la definición de una especificación estándar técnica, como se representa a continuación, una estructura de datos ilustrativos que se inscribe en la trama de ATSC A/72 Parte 1, AVC Vídeo (para ATSC) y se proporciona A/53. El texto se copia en la presente de A/72 Parte 1 y Parte 4 A/53. Las porciones de la especificación que se han modificado para adaptar la presentación de datos de disparidad para este ejemplo de implementación de la presente invención se representan en las siguientes partes: • Tabla 1 tiene correspondencia con la Tabla 6.4 en la Parte 1 A/72 (2008) ; · Tabla 2 tiene correspondencia con la Tabla 6.5 en la Parte 1 A/72 (2008) ; • Tabla 3 tiene correspondencia con la tabla 6.8 en la Parte 4 A/52 (2009) ; • Tabla 4 tiene correspondencia con la Tabla 6.9 en la Parte 4 A/52 (2009) , con un punto nuevo código añadido en la presente ( usuario_dato_tipo_código_valor 0x07); • Las Tablas 5 a 7 son originales; • Todas las definiciones siguientes, relativas a la Tabla 5 ( servicio_número, extendido_servicio_número, etc.) son originales; • Todas las definiciones siguientes y en relación con la Tabla 6 (disparidad (i), desviación_precisión, etc.) son originales.
Con estos cambios en mente, se puede desarrollar una especificación para el suministro de datos de subtítulos que es similar al que se presenta a continuación como un estándar de la muestra y se utiliza como la base para la normalización de la entrega de los subtítulos de acuerdo con la discusión anterior: Ejemplo 1 - Texto de muestra estándar Tabla 1 Sintaxis SEI itu_t_t35_país_código - Un campo de 8-bits fijo, el valor del cual será 0xB5 asignadas por los requisitos de la ITU-T T.35. itu_t_35_proveedor_código - Un campo de 16-bit fijo, el valor de los cuales será 0x0031 asignado por los requisitos de la ITU-T T.35. usuario_identificador - Este es un código de 32 bits que indica la sintaxis y la semántica de la usuario_estructura () tal como se indica en la Tabla 6.7 de ATSC A/53 Parte 4. usuario_estructura ( ) - Esta es una estructura de datos de longitud variable definida por el valor de identificador de usuario y en la Tabla 2.
Tabla 2 de identificador de usuario Sintaxis usuario estructura () 0x47413934 ("GA94") ATSC_usuario_datos () 0x44544731 ( " DTG1 " ) afd datos ( ) Los demás valores No definido en la Norma ATSC_usuario_dato () sintaxis y la semántica serán las indicadas en la Tabla 3 para el "ATSC_usuario_dato ()" estructura. Mientras que la sintaxis y la semántica son nominalmente especificas para MPEG-2, son plenamente aplicables a los AVC.
Tabla 3 Sintaxis de ATSC usuario dato usuario_dato_tipo_código - Este es un valor de 8 bits que identifica el tipo de datos de usuario ATSC a seguir en el usuario_dato_tipo_estructura () y se fijará de acuerdo con la Tabla 4.
Tabla 4 Asignación de valores usuario dato tipo código La Sintaxis de Datos de Disparidad de Subtítulos Ilustrativa se muestra en la Tabla 5.
Tabla Sintaxis de Datos de Disparidad Subtítulos Sintaxis No. bits Formato Subtitulos_disparidad_datos ( ) > servicio_número 4 uimsbf subtítulos_ventana_conteo 3 uimsbf marcador_bit 1 ' 1 ' Si ( servicio_número=OxF) { Reservado 2 ' 11 ' Extendido servicio número 6 bslbf 1 , ? , Para (i=0; <subtitulos ventana conteo; i++) { subtítulos_ventana__id [ i ] 3 uimsbf temporal_extensión_etiqueta 1 bslbf datos_válido 1 bslbf selecciona_vista_cambio 2 bslbf Disparidad [ i ] 9 simsbf Si ( ( temporal_extensión_etiqueta ) { Desviación_precisión 1 bslbf Marcador_bit 1 ' 1 ' Para (k=0; k<ll; k++) { Desviación_secuencia [i, k] bslbf } servicio_número - Este valor de 4-bit entero sin signo en el rango de cero a 15, cuando está en el rango de 1 a 14, se indican el número de servicio de subtítulos CEA-708 asociado a este conjunto de datos de disparidad. El valor de cero indicará los datos de disparidad incluidos aplicados por igual a todos los servicios de subtítulos. El valor 15 indica el número de servicio que se encuentra en el rango de 15-63, y se especificará en el campo extendido servicio número. extendido_servicio_número - Este 6-bit valor entero sin signo en el intervalo de 15 a 63 se indican el número de servicio de CEA-708 subtítulos asociada con este conjunto de datos de disparidad. subtítulos_ventana_conteo - Este valor entero de 6-bit sin signo en el intervalo de uno a 53 indica el número de conjuntos de datos de disparidad presentes en esta instancia de subtítulos_disparidad_datos (). subtítulos__ventana_id [i] - Este valor entero de 3-bit sin signo en el rango de cero a 7 se indica la ID de ventana CEA-708 de subtítulos para el cual se aplican los datos de disparidad en esta instancia del bucle "para". temporal_extensión_etiqueta - Esta etiqueta de un bit indicará, cuando se establece en '1', que los datos de la extensión temporal están incluidos en esta instancia del bucle "para" de subtítulos_ventana_conteo . Un valor de '0' en temporal_extensión_etiqueta deberá indicar que no hay ningún dato extensión temporal incluido en esta instancia del bucle "para" de subtítulos_ventana_conteo . datos_válidos - Esta etiqueta de un bit indicará, cuando se establece en '0', que los datos de disparidad [i], selecionar_vista_cambio y los datos de extensión temporal a seguir (si los hay) no tienen significado. Cuando datos_válido se establece en '1', la disparidad [i] de datos (y los datos temporales de extensión a seguir, si los hubiera) deberán tener significado. Nota: datos_válido = '0' se pueden utilizar para crear marcador de posición de datos de usuario en el multiplex, corriente arriba de la inserción de datos de disparidad válidos. seleccionar_vista_cambio - Esta cantidad de 2-bits deberá especificar el método utilizado para aplicar la disparidad de las vistas izquierda y derecha, de acuerdo con la siguiente tabla.
Tabla 6 Codificación de seleccionar vista cambio signo indicará el número de unidades de la disparidad entre las vistas izquierda y derecha en relación con una red de 1920-unidad horizontal. Los valores positivos se indicará la vista derecha se desplaza a la derecha de la vista izquierda. Los valores negativos se indicará la vista derecha se desplaza a la izquierda de la vista izquierda. desviación_precisión - Esta etiqueta 1-bit deberá especificar la precisión de los valores especificados en desviación secuencia [i, k] en esta iteración del bucle "para" subtítulos_ventana_conteo . Cuando se ajusta a "0", desviación_precisión indicará un pixel de precisión. Cuando se establece en '?', desviación_precisión indicará dos pixeles precisión. desviación_secuencia [i, k] - Este conjunto de once valores de 2-bit deberá especificar cambios de trama a trama en la disparidad durante un periodo de once tramas. desviación_secuencia [i, 0] deberá indicar la delta en el valor de disparidad entre la trama actual y la siguiente desviación_secuencia , [i, 1] deberá indicar la delta en el valor de disparidad entre la trama y que la siguiente, y asi sucesivamente. La cantidad de cambio en cada trama se indica mediante la codificación de desviación_secuencia [i, k] , como se muestra en la siguiente tabla.
Tabla 7 Codificación de desviación secuencia [i, k] En el Ejemplo 1 anterior, los datos de disparidad se definen y se codifican como una desviación con precisión de una o dos unidades. Sin embargo, este nivel de precisión en la disparidad no es tan preciso como se podría desear en una base de trama a trama. Mientras que una colocación inicial en un valor de disparidad con precisión de 1/1920 de la anchura de la pantalla es probablemente suficiente, el movimiento suave en el plano de fondo requiere una resolución superior .
En el método de este primer ejemplo, los datos de disparidad de subtítulos son transportados dentro de un paquete de datos usuario () con un valor único de usuario_dato_identificador_código (Tabla 4) . El presente ejemplo es útil como una ilustración de un tipo de datos de disparidad que pueden ser transportados fuera del canal de transporte DTVCC como datos_usuario ( ) para transportar los datos de disparidad de subtítulos 110 como se representa en la Figura 1.
El ejemplo anterior proporciona codificación y transporte de datos de disparidad de subtítulos pero, desafortunadamente, para las ventanas de subtítulos que se mueven en la dirección del eje z con el tiempo, los datos de disparidad de subtítulos no se codifican de la manera más eficiente y pueden requerir cantidades sustanciales de ancho de banda a transmitir. Además, una resolución disparidad de 1/1920 de la anchura de la pantalla se ha encontrado que es demasiado gruesa para las muestras de trama por trama de disparidad. Se necesita granularidad más fina cuando se especifica la disparidad para los objetos que se mueven suavemente en profundidad con el tiempo.
En general, se puede considerar que se autorice los datos de disparidad y de subtítulos de manera simultánea para permitir la colocación de los subtítulos en una posición apropiada en el eje z en la trama de vídeo de modo que otros objetos que no se intersecten con la pantalla de los subtítulos. En otras palabras, para la representación adecuada de la escena, una ventana de subtítulos aparecerá más cerca del espectador que cualquier objeto que se superpone. La intersección en el eje z de la ventana de subtítulos con un objeto sobre el que se superpone causa fatiga al espectador, dado que las señales de profundidad propuestas por el objeto y la ventana de subtítulos están en conflicto entre sí.
Los subtítulos pueden proveerse generalmente sobre la base de los sonidos de diálogo u otros que se representan en el vídeo. De esta manera, por ejemplo, cada segmento de diálogo (por ejemplo, de un actor) puede aparecer en una ventana de título de texto independiente. Esta ventana puede ser mostrada en una ubicación estática si el receptor es incapaz de ajusfar la posición del eje z de forma dinámica (debido a, por ejemplo, CPU insuficiente o potencia de procesamiento de gráficos).
Preferiblemente, los datos de subtítulos están escritos de manera que se representan con una posición del eje z para cada trama individual asociado con cada segmento de diálogo. De esta manera, durante el tiempo de su exhibición, una ventana determinada de subtítulos y su texto asociado pueden moverse más cerca o más lejos del espectador de una manera deseada por el autor del subtítulo. La posición x e y de una ventana de subtítulos cerrada puede ser definida de acuerdo con la norma CEA-708-D, pero la posición z puede ser cambiada dinámicamente por la adopción de un mecanismo que define el movimiento percibido a lo largo del eje z como se describirá.
Si la posición percibida del eje z en el tiempo (más de un número de tramas secuenciales de video) se grafican como se representa en la Figura 6, la disparidad puede representarse como una curva que representa el movimiento de la ventana en el eje z (hacia el lado del espectador de la pantalla si se representa como un valor negativo [un valor de disparidad negativo representa las posiciones percibidas en frente de la pantalla]) y lejos del usuario moviéndose hacia la pantalla y, finalmente, que parece estar detrás de la pantalla si se representa como un valor positivo (un número positivo representa posiciones detrás de la pantalla, la pantalla de visualización en si misma está en posición del eje z cero) . Por lo tanto, la curva 600, puede representar una pantalla de inicio de objeto a una profundidad de partida en el extremo izquierdo y moviéndose primero hacia el espectador hasta en donde se alcanza la parte inferior de la curva 600 en cuyo punto los datos de disparidad adquieren una inclinación positiva (movimiento en profundidad lejos del espectador) . En tal posición el autor de disparidad en el eje z puede permitir que la ventana que contiene el texto del titulo se mueva suavemente en la pantalla de video para el seguimiento de un objeto en la escena y evitar las interferencias con otros objetos. Con el fin de llevar dicha información diferente a cada trama de video, tal como por ejemplo una muestra del valor de la curva en cada trama, puede ser requerida una cantidad sustancial de datos.
Como será evidente a partir de la siguiente descripción, ciertos receptores de capacidad inferior pueden no estar adaptados con la capacidad de ajustar dinámicamente la disparidad de una manera que hace un seguimiento de la curva de disparidad de autor 600. En estos casos, un valor de disparidad fijo tal como 604 se puede proporcionar como una "disparidad alternativa", que está estáticamente situada en el eje z para una ventana de subtítulos particular, de una manera como se describe más adelante. La disparidad alternativa se puede ajustar a una distancia percibida de la ventana de subtítulos representada por 604 para estar aproximadamente al nivel más cercano percibido de curva de disparidad 600 para asegurar que no haya interferencia entre la ventana de subtítulos y otros objetos de imagen en la profundidad percibida. Este valor disparidad alternativa fijo se puede proporcionar como se describirá más adelante. De acuerdo con ciertas implementaciones de conformidad con la presente invención, tanto un conjunto de cambio dinámico de datos que representa disparidad del autor como un valor alternativo de disparidad estática se puede transmitir tanto a, y recibir por, el receptor de TV. De esta manera, el dispositivo receptor de TV puede utilizar la disparidad alternativa estática si, por ejemplo, no tiene suficiente poder de procesamiento para hacer frente a un cambio de disparidad trama por trama. También se observa que los subtítulos, ya sea que la posición de la pantalla cambie de forma dinámica o estática, se muestran de una manera que coincide con el diálogo y otros sonidos o comentarios en el video anexo. Por lo tanto, las posiciones x-y y z para la ventana CC pueden cambiar sobre una bese frase por frase o con otra frecuencia de manera que acompaña el contenido A/V y cada ventana CC solo será exhibida generalmente durante pocos segundos o así sucesivamente. Por lo tanto, cada ventana de los datos de CC tendrá su propia secuencia de datos que describen la disparidad dinámicamente autorizada y una disparidad alterna estática.
Los datos de la curva 600 se pueden aproximar como se muestra en la Figura 7 como una aproximación lineal por tramos 700. (Cabe señalar que la aproximación presentada en la Figura 7 es una aproximación a groso modo utilizada para mayor claridad en la ilustración y es posible una aproximación mucho mejor de la curva 600. Además, la representación se puede mejorar mediante el filtrado de paso lento a la aproximación lineal a tramos si el receptor tiene tal capacidad) . En este ejemplo, curva 700 que tiene múltiples segmentos 700A, 700B, 700C, 700D y 700E en esta ilustración se aproxima a la curva de disparidad 600 con cambios en la inclinación los cuales se producen en los puntos de corte que definen un cambio de segmento de una linea a la siguiente (por ejemplo, el cambio desde 700B a 700C) . Esta aproximación lineal en tramos puede ser codificada suponiendo un valor definido de disparidad de partida y la inclinación (o proporcionando un valor inicial y inclinación) y después se codifica el número de tramas sobre las que se ha de considerar válida un segmento particular de la aproximación, con una inclinación particular y una cantidad para cambiar la inclinación en algún punto en el tiempo. Por lo tanto, en una implementación, la única información que se necesita transmitir para establecer cada punto de interrupción es un número de tramas y un cambio en la inclinación de la inclinación anterior. Se puede suponer el valor inicial de la inclinación como cero. Una unidad de inclinación puede ser definida como un número de unidades de disparidad de cambio durante un intervalo de tiempo predeterminado especificado en tramas. Los cálculos requeridos en el receptor se simplifican si el intervalo de tiempo predeterminado se especifica como una potencia de dos. Por ejemplo, si el intervalo de tiempo predeterminado es 25 ó 32, el valor de disparidad calculado en cualquier trama dada siempre se puede representar con la aritmética binaria en la que se mantienen cinco bits a la derecha del punto decimal.
También se pueden utilizar otras potencias de 2 sin limitación para obtener el mismo beneficio.
Es conveniente representar el cambio de inclinación con un pequeño número para minimizar la cantidad de datos transmitidos. Por ejemplo, si un número 2 entero firmado de complemento de 5 bits en el rango de -15 a 15 que indica la cantidad de cambio en la inclinación puede ser utilizado para aplicar sobre el número designado de tramas.
De nuevo, para facilidad de aplicación, puede ser conveniente representar una unidad de disparidad como 1/1920 de la anchura de la pantalla. Con esta disposición, cuando la resolución de la pantalla es de 1920 pixeles horizontalmente, una unidad de disparidad es igual a la anchura de un pixel, pero esto no quiere decir que los valores de disparidad prestados siempre tengan un pixel de resolución.
Como se señaló anteriormente, la representación de la Figura 7 representa una aproximación exagerada del modelo lineal en tramos de modo que se pueden ver claramente las dos curvas en una linea de dibujo en blanco y negro, pero la aproximación puede estar más cerca de lo que muestran una mejor selección de la inclinación y puntos de inflexión de los segmentos de linea. También se observa que, una vez recibida por un receptor, la aproximación lineal en tramos se puede mejorar si se desea mediante un filtrado de paso lento que en esencia convierte los cambios abruptos en la inclinación que se producen en los puntos de interrupción en curvas suaves que se aproximan más a la disparidad autor curva. También se observa que el uso de la aproximación real también ofrece unidad fraccionaria de granularidad para cambios dinámicos de la posición del eje z de la ventana de subtítulos y el texto de subtítulos.
El siguiente ejemplo proporciona los datos de disparidad que se enviarán mediante un servicio extendido que está asignado al número de servicio principal para el texto del título. Esta asignación se discute en mayor detalle en la solicitud de patente de E.U.A. No. 61/415,924, presentada en la fecha de la presente para Eyer, et al., titulada "Vínculo de servicio para transporte de disparidad de subtítulos " que se incorpora en la presente por referencia.
Ejemplo 2 - Suplementacion estándar para codificar disparidad Servicios de aumento Los datos de disparidad de subtítulos para un servicio de subtítulos determinado se deberán suministrar a un "Servicio de aumento". Un servicio de aumento se considera que un servicio de subtítulos que proporciona los comandos y datos adicionales para el servicio con el que se asocian los subtítulos. Las asociaciones de servicio de aumento serán como se muestra en la Tabla I. Como se muestra, los comandos y los datos transportados en servicio extendido de # 49 se considera que son parte integrante del servicio # 1, los comandos y los datos transportados en servicio extendido de # 50 se considera que son parte de Servicio estándar # 2, etc.
Tabla I - Servicio de aumento de asociaciones de número Los servicios de aumento sólo se definen para servicios de subtítulos estándar # 1 a # 6.
JUEGO DE DISPARIDADES - (DISP) Nombre: SetDisparidad - Especifique disparidad para subtítulos 3D Formato: Longitud variable Codificación de Comando: EXT1, 90h, subtítulos_disparidad_datos () 7 b§ bs b4 3 b2 i bo 0 0 0 1 0 0 0 0 EXT1 desD 1 0 0 1 0 0 0 0 90h s (Longitud suht .itulos lisparidad daros 0 5 variable) encripción: los datos de disparidad de subtítulos se transportarán en un comando SetDisparidad dentro de un servicio mediante el aumento de la sintaxis y la semántica se definen a continuación. SetDisparidad especifica la cantidad de desplazamiento horizontal entre los puntos de vista de izquierda y derecha del ojo (disparidad) de una o más ventanas de subtítulos optativos cuando se utilizan con la programación en 3D estereoscópica.
Datos de Disparidad de Subtítulos La sintaxis de Subtítulos_disparidad_datos () será como se muestra en la Tabla II.
Tabla II Nota: En esta aplicación, con referencia a la tabla anterior, win_info se define mediante: subtítulos_ventana_conteo - un número entero sin signo de 3-bit en el rango de 1 a 7 que debe indicar el número de ventanas de subtítulos incluido en esta instancia de la subtítulos_disparidad_datos (). subtítulos_ventana_id - un número entero sin signo de 3 bits que debe identificar el ID de ventana en el servicio correspondiente para que los datos de disparidad se está dando en esta iteración del bucle "para". temporal_extension_etiqueta - una etiqueta de 1-bit que, cuando se establece en "1", se indican los datos se incluye que identifica un camino de disparidad variable en el tiempo. Cuando se ajusta a "0" la etiqueta indicará que el último campo presente en el comando es disparidad [ i ] . disparidad [i] - a un complemento 2 de 9-bit con signo que debe indicar el valor disparidad de la ventana de subtítulos asociada, i, dada en subtítulos_ventana_id, en relación con 1920 píxeles horizontales. El valor de cero deberá hacer referencia al plano de la pantalla. Los valores negativos se corresponden con profundidades percibidas en la parte frontal de la pantalla. Los valores positivos corresponden a profundidades percibidas detrás de la pantalla . alternativo_disparidad [i] - al complemento 2 de 9-bit con signo de número entero que deberá ser codificado igual que para disparidad [ i ] ; especificará un valor de disparidad que se puede utilizar en lugar de los valores dados en la trayectoria lineal por tramos por los descodificadores que no pueden producir ventanas de subtítulos con tiempo variable. segmento_conteo - un número entero sin signo de 5-bit en el rango de 1 a 31, que indicará el siguiente número de segmentos. trama_conteo - un número entero sin signo de 5-bit en el rango de 0 a 31 que se indicará el número de tramas de vídeo que deberá transcurrir antes de la aplicación del campo segmento_inclinación_cambio inmediatamente después. segmento_inclinación_cambio - un complemento 2 de 5-bit de número entero con signo en la gama de -16 a +15 que debe indicar la cantidad de cambio en la inclinación para aplicar en la trama indicada en trama_conteo . Las inclinaciones se especifican en el número de unidades de disparidad más de 32 tramas. Un valor de inclinación de cero se asume en el punto inicial de la trayectoria de variables en el tiempo.
La Figura 8 representa un ejemplo específico de datos de disparidad de subtítulos en tiempo variable. La Figura 8 muestra una aproximación lineal por piezas de una curva de disparidad, utilizando la estructura de datos del Ejemplo 2 a continuación. En el Ejemplo 2, una unidad de la inclinación se define como igual a un cambio en una unidad de disparidad durante un intervalo de tiempo de 32 tramas. La Figura 8 muestra la línea de tiempo que resulta de la siguiente secuencia de recuento de tramas ( trama_conteo ) y los cambios de inclinación de disparidad (segmento_inclinación_cambio) parámetros: (2, -7), (10, -9), (8, +9) y (10, +7). En el primer segmento de la izquierda, s = 0 tiene una inclinación que está predefinida a ser cero. Los dos primeros son los cambios de inclinación negativa que indica que la ventana de subtítulos se mueve hacia el usuario con un valor de disparidad a partir de 0, progresando a través de -2.1875 a -6.1875 en la unión de los tercero y cuarto segmentos. Los cambios de inclinación positiva a los dos siguientes segmentos dando como resultado una inclinación que representa una desaceleración del movimiento en el eje z hacia el espectador y en última instancia en el segmento final de la ventana entra en una depresión en una disparidad constante de -8.4375 frente la pantalla.
En este ejemplo, la inclinación de la curva de disparidad se define a partir de un valor de cero. En el ejemplo, después de dos tramas, los cambios de inclinaciones a -7 unidades de disparidad por 32 tramas. Después de 10 tramas, la disparidad cambia de nuevo a -16 unidades disparidad por 32 tramas. Ocho tramas posteriores cambian de nuevo a -7 y 10 tramas después que cambia de nuevo a cero.
La disparidad en cada trama se puede calcular con precisión utilizando la aritmética binaria con cinco dígitos binarios a la derecha del punto decimal (precisión de la unidad disparidad 1/32) . Los receptores que no son compatibles con precisión unitaria de disparidad 1/32 de representación se espera que redondee los resultados en cada trama para cualquier precisión de representación que soporta, tal como 1/16, 1/8, 1/4 de pixel, para evitar un error acumulado, el cálculo de la disparidad en cada trama se espera que se realice preferiblemente a la precisión total (1/32 de la unidad), con redondeo (si existe) realizado posteriormente .
También se observa que pueden ser provistos algunos receptores que no soportan la dinámica variable en el tiempo del cambio en disparidad. Por esta razón, es deseable especificar también una disparidad fija como se muestra en la Figura 6 que se puede utilizar como una alternativa para los receptores menos sofisticados. Esto se especifica como una "disparidad alternativa" de valor.
Para lograr una implementación de este concepto, se adopta una estructura de datos la cual representa datos de disparidad. La Tabla II siguiente muestra una implementación de esta estructura de datos. Dentro de los 30 bytes, esta estructura de datos tiene capacidad para dos ventanas con hasta diez segmentos: 2 bytes (win_info) + 2 bytes (seg_info) + segmento_conteo * 1.25 bytes (frm_info) = 16.5 bytes por ventana .
Los datos de disparidad como se describen anteriormente se pueden enviar en cualquier manera adecuada sin apartarse de las enseñanzas de conformidad con las implementaciones de determinadas formas de modalidad de conformidad con la presente invención. En tal aplicación, es conveniente asignar números de servicio a los números de servicios extendidos o números de aumento de servicios, mientras que en otras implementaciones, los datos de disparidad pueden ser transmitidos en cualquier forma, incluyendo simultáneamente el texto de los subtítulos y el vídeo asociado o por adelantado como uno o más bloques de datos, ya sea dentro de banda o fuera de banda.
Un proceso general consistente con las implementaciones de ejemplo de la codificación de disparidad se representa en el diagrama de flujo 802 de la Figura 9 a partir de 804. En 808, los datos publicados de subtítulos se reciben, incluyendo la definición de título de la ventana y el texto (por ejemplo, en representación de cada parte de un cuadro de diálogo) y los datos de disparidad. Estos datos pueden representarse como una curva de disparidad con el tiempo (más de cierto número de tramas) y es aproximada por una aproximación modelo lineal en tramos en 812. Cualquier mecanismo que va desde una aproximación manual a cualquier algoritmo matemático que crea una aproximación lineal en piezas de una curva se puede utilizar sin limitación. A continuación, en 816, para cada segmento en la aproximación, la disparidad se codifica como un número de tramas para cada segmento de línea y un cambio en la inclinación sobre un segmento de linea antes que el número de tramas. El segmento de linea inicial se supone que tiene una inclinación de cero.
El proceso llevado a cabo en el receptor puede ser representado con mayor detalle mediante un proceso de ejemplo tal como el mostrado como proceso 900 de la Figura 10. Este proceso 900 comienza en 902 con la recepción de un comando que se define una ventana de subtítulos (en CEA-708, este es el comando Definir Ventana). En 904 la disparidad de datos se recibe como una secuencia de número de tramas/cambio de inclinación, como se describió anteriormente. A continuación, la disparidad para el primer segmento de línea se inicia a cero en 906. En 910 la secuencia de datos se expande para calcular el valor de disparidad para cada trama dentro del intervalo de tiempo cubierto en el comando. Una operación de filtro de paso lento se puede realizar opcionalmente , 915, en el camino para suavizar los puntos de interrupción. No se produce la representación del título hasta que se recibe el texto de los subtítulos y hasta que el estado de la ventana de título está situado en "visible". En 920 el texto del título se recibe, y en 930, la ventana de título se establece visible (si no se ha inicializado con el atributo de visibilidad ya está establecido en real) .
Una vez que se disponga del texto y que la ventana es visible, la ventana de título y el texto puede representarse mediante el valor de disparidad calculado en cada cuadro, 950. En cada cuadro sucesivo, 960, el siguiente valor de disparidad calculado se representa hasta que se alcanza el último trama (prueba 970) . Cuando se alcanza la última trama, o la ventana de subtítulos se elimina o se establece en invisible (no mostrado) , el proceso termina en 980.
Se entenderá que estos eventos pueden representar un flujo continuo con los datos de texto y el subtítulo que se reciben de forma continua, de modo que la representación actual no ha de interpretarse como que representa con precisión el tiempo. El orden de las diversas operaciones en la Figura 10 puede diferir en la opción del implementador . Por ejemplo, el filtro de la inicialización de la inclinación a cero, el cálculo de la ruta y de paso lento (906, 910, y 915) puede ser ejecutado después de que la ventana se hace visible (930), o después de que el recuento de tramas se inicializa (940). En otras implementaciones , con señalización adecuada, los datos de disparidad de subtítulos puede ser recibida antes de la definición de la ventana de subtítulos, así que el momento se muestra en este diagrama de flujo 900 se representa de esta forma simplemente para facilitar la comprensión .
Muchas variaciones de este proceso serán evidentes para los expertos en la técnica tras la consideración de las enseñanzas presentes.
Por lo tanto, un método de transformación de segmentos de autor de datos de disparidad de subtítulos cerrados que define una posición del eje z para una ventana de texto que contiene los subtítulos (a paralelo dos ventana dimensional a la pantalla) para la visualización en una pantalla en una aproximación codificada de los datos de disparidad implica la aproximación de los segmentos de autor tridimensionales cerradas de datos de disparidad de subtítulos como una aproximación lineal en piezas compone de una secuencia ordenada de segmentos lineales correspondientes a una secuencia de tramas con cada segmento conectado a un segmento posterior a los puntos de interrupción, en un codificador, la codificación de la aproximación lineal en secciones como un número designado de tramas a la que cada segmento lineal se va a aplicar y un cambio en la inclinación de la inclinación de un segmento precedente en la secuencia para producir la aproximación codificada de los datos de disparidad y en donde un primer segmento en la secuencia supone una inclinación predeterminada, como una referencia para el cambio en la inclinación.
La inclinación inicial predeterminada es preferiblemente cero, pero podría ser cualquier otro punto de partida, ya sea por convención, o por información transmitida. La inclinación se puede dar como una representación del numerador de una fracción, en donde el denominador de la fracción es de un valor predeterminado de 2 N, donde N es un número entero, de modo que sólo el numerador se requiere para transmitir el valor del de la fracción. En una aplicación preferida, N = 5, y el numerador puede ser representado por un valor de -16 a +15 y una unidad de inclinación se define como un cambio de una unidad de disparidad durante un intervalo de tiempo 32 tramas. En ese caso 2 es 32 y un complemento de número entero 2 5-bits con signo en el rango de -16 a 15 puede ser utilizado para indicar la cantidad de cambio en la inclinación para aplicarlo sobre el número designado de tramas.
El método puede incluir el paquete del texto de los subtítulos en un flujo del canal de televisión digital del título de paquetes; empacar los datos codificados cerrados de disparidad subtítulos dentro de un flujo de paquetes de datos de usuario de televisión digital que transporta datos de vídeo relacionados con el texto de los subtítulos. Los expertos en la técnica, tras la consideración de las presentes enseñanzas, apreciarán que la codificación utilizando el número de tramas sobre las cuales una inclinación se va a aplicar se pueden transportar al receptor de cualquier manera adecuada sin apartarse de las implementaciones consistentes con la presente invención.
El método puede implicar el establecimiento de un valor alternativo disparidad fija que establece una posición fija del eje z para el texto de los subtítulos y el embalaje valor alternativo disparidad fija junto con los datos codificados de subtítulos de disparidad para uso como una alternativa posición del eje z.
El método también puede incluir la recepción de los datos de disparidad codificados y filtrados de paso lento de los datos de disparidad codificados tridimensionales para suavizar las transiciones en los puntos de interrupción.
El método puede implicar empacar el texto de los subtítulos en un flujo de canal de televisión digital título de paquetes, y el paquete de los datos codificados cerrados disparidad de subtítulos como una extensión de comando dentro de un flujo de paquetes de televisión digital de flujo de transporte que transporta audio/vídeo de datos asociados con el texto de los subtítulos o como datos del usuario. El método también puede incluir la transmisión de la televisión digital de subtítulos el flujo de canal de paquetes y los datos codificados cerrados disparidad de subtítulo y el texto de los subtítulos a un dispositivo receptor de televisión como parte de un flujo de transporte que transporta datos de audio/vídeo asociados con el texto de los subtítulos de cualquier manera adecuada.
El método puede implicar empacar el texto de los subtítulos en un flujo de subtítulos de canal de televisión digital de paquetes y empacar los datos de disparidad de subtítulos codificados como una extensión de comando dentro de un flujo de paquetes de televisión digital de flujo de transporte que transporta datos de audio/vídeo asociados con la texto de los subtítulos cerrados o como datos del usuario. El método también puede incluir la transmisión del flujo de canal de subtítulos de televisión digital de paquetes y los datos de disparidad de subtítulos codificados y el texto de subtítulos a un dispositivo de receptor de televisión como parte de un flujo de transporte que tiene datos de audio/video asociados con el texto de subtítulos en cualquier manera adecuada.
Por lo tanto, en ciertas implementaciones , un método de decodificación de datos de disparidad de subtítulos ocultos involucra a un dispositivo receptor de televisión, recibe datos de disparidad de subtítulos cerrados que se codifican como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de tramas sobre las que cada función lineal que representa disparidad se debe aplicar en coincidencia con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior. Un segmento de la primera secuencia de valores de disparidad supone una inclinación de cero como una referencia para los cambios posteriores en la inclinación y la recepción de una secuencia de subtítulos paquetes de datos cuando la secuencia del titulo de paquetes de datos especifica una ventana de visualización de subtítulos que contiene texto de los subtítulos, en donde los datos de subtítulos ocultos se empaquetan en un flujo de canal de televisión digital de subtítulos de paquetes. El valor de disparidad se utiliza en cada trama en una representación 3D de vistas izquierda y derecha de la pantalla de subtítulos para establecer un desplazamiento horizontal que establece que la ventana es percibida en la posición del eje z. El método también recibe un valor alternativo de disparidad fija que establece una disparidad fija para la visualización de los subtítulos empacados junto con los datos de disparidad tridimensionales de subtítulos codificados para uso como una alternativa percibida en la posición del eje z. El filtrado de paso lento se usa para filtrar los datos de disparidad codificados tridimensionales para suavizar las transiciones en los valores de disparidad. El texto del subtítulo y datos de disparidad se procesan para producir una salida adecuada para definir la representación de una imagen tridimensional en una pantalla del texto de subtítulo en una posición percibida en el z-eje definido por los datos de disparidad.
Otro método de decodificación de datos de disparidad de subtítulos ocultos involucra a un dispositivo receptor de televisión, recibir datos de disparidad de subtítulos cerrados codifican como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de las tramas sobre las que cada función lineal representando disparidad se debe aplicar en coincidencia con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior. Un primer segmento de la secuencia de valores de disparidad supone una inclinación predeterminada, como una referencia para los cambios posteriores en la inclinación. Una secuencia de paquetes de datos subtitulo se recibe, en donde la secuencia de paquetes de datos de subtítulos especifica una ventana de visualización de subtítulo cerrado que contiene el texto de los subtítulos. El valor de disparidad se utiliza en cada trama para determinar un desplazamiento horizontal de vistas izquierdo y derecho de la pantalla de subtítulos ocultos que establece la ventana de visualización de subtítulos percibidos en la posición del eje z.
En ciertas implementaciones , la inclinación predeterminada es cero. En ciertas implementaciones, el cambio de inclinación se da como un valor que representa un cambio en la disparidad sobre tramas 2N en donde N es un número entero. En ciertas implementaciones, N = 5. En ciertas implementaciones, el cambio de inclinación se indica como un valor en el rango de -16 a 15 que indica la cantidad de cambio en la inclinación a aplicar durante el intervalo de trama designado. En ciertas modalidades, el método consiste en recibir un valor alternativo de disparidad fija que establece una posición fija percibida del eje z para la visualización de los subtítulos cerrados empacados junto con los datos tridimensionales codificados de subtítulos de disparidad para uso como una alternativa posición del eje z. En ciertas modalidades, el método implica filtrado de paso lento de los datos de disparidad codificados tres dimensiones para suavizar las transiciones en los valores de disparidad. En ciertas modalidades, el método implica el procesamiento del texto del título y datos de disparidad para producir una salida adecuada para definir una representación de una imagen tridimensional en una pantalla del texto de título a una posición del eje z percibida que se define por los datos de disparidad.
Un dispositivo de almacenamiento legible por computadora electrónica tal como un medio de almacenamiento no transitorio se puede usar para almacenar instrucciones que, al ejecutarse en uno o más procesadores programados para llevar a cabo cualquiera de los procedimientos descritos en este documento.
Un dispositivo receptor de televisión que procesa datos de disparidad de los subtítulos opcionales en una manera consistente con ciertas implementaciones dispone de un decodificador que recibe datos de disparidad de subtítulos cerrados que se codifican como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de tramas sobre las que cada función lineal que representa disparidad se debe aplicar en coincidencia con un valor que indica un cambio en la inclinación de la inclinación de un segmento anterior. Un segmento de una primera en la secuencia de valores de disparidad supone una inclinación predeterminada, como una referencia para los cambios posteriores en la inclinación. Un analizador analiza los datos de disparidad y el texto de los subtítulos de una o más señales. Un compositor recibe los datos de disparidad y el texto de los subtítulos y genera una secuencia de señales de video, incluyendo una trama de ventana de visualización de subtítulos cerrada que contiene texto de los subtítulos con la ventana de visualización de subtítulos cerrada tiene una percepción de la posición del eje z en cada trama definido por los valores de disparidad.
En ciertas implementaciones , la inclinación predeterminado es cero. En ciertas modalidades, el intervalo de trama se da como un valor predeterminado de tramas 2n, donde n es un número entero. En ciertas implementaciones, el cambio de inclinación se da como un valor que representa un cambio en la disparidad de más de 32 tramas. En ciertas implementaciones, el cambio de inclinación se indica como un valor en el rango de -16 a 15 que indica la cantidad de cambio en la inclinación de aplicar durante el intervalo de trama designado. En ciertas implementaciones , el cambio de inclinación se indica como un valor en el rango de -16 a 15 que indica la cantidad de cambio en la inclinación de aplicar durante el intervalo de trama designado. En ciertas implementaciones, el descodificador recibe además un valor alternativo disparidad fija que establece un fijo posición del eje z para una porción de la visualización de los subtítulos cerrados empacados junto con los datos codificados de subtítulos de disparidad para uso como una alternativa percibido posición del eje z. En ciertas implementaciones, un filtro de paso lento procesa los datos de disparidad codificados tres dimensiones para suavizar las transiciones en los valores de disparidad. En ciertas implementaciones, el compositor además procesa el texto del título y datos de disparidad para producir una salida adecuada para definir una representación de una imagen tridimensional en una pantalla del texto de título a una posición del eje z percibida se define por los datos de disparidad.
Los expertos en la técnica reconocerán, tras la consideración de las enseñanzas anteriores, que algunas de las modalidades ejemplares anteriores se basan en el uso de un procesador programado. Sin embargo, la invención no está limitada a tales ejemplos de modalidad, ya que otras modalidades podrían ser implementadas utilizando equivalentes de los componentes de hardware tales como hardware de propósito especial y/o procesadores dedicados. Del mismo modo, las computadoras de propósito general, microprocesadores, computadoras basadas en microcontroladores , computadoras ópticas, computadoras analógicas, procesadores dedicados, circuitos específicos de la aplicación y/o lógica cableada dedicada dura pueden ser usadas para construir formas de modalidad alternativas equivalentes.
Los expertos en la técnica apreciarán, tras la consideración de las enseñanzas anteriores, que las operaciones de los programas y los procesos y datos asociados utilizados para implementar algunas de las modalidades descritas anteriormente pueden ser implementados utilizando almacenamiento de disco, así como otras formas de almacenamiento tales como dispositivos de almacenamiento no transitorios incluyendo transitorios como por ejemplo memoria de sólo lectura (ROM) , dispositivos de memoria de acceso aleatorio (RAM) , dispositivos de red de memoria, elementos ópticos de almacenamiento, elementos de almacenamiento magnético, magneto-ópticos elementos de almacenamiento, memoria flash, memoria de núcleo y/u otras equivalentes volátiles y no volátiles de las tecnologías de almacenamiento sin apartarse de ciertas modalidades de la presente invención. El término no transitoria no sugiere que la información no se pierde en virtud de la eliminación del poder o de otras acciones. Estos dispositivos de almacenamiento alternativos deben ser considerados equivalentes.
Ciertas formas de modalidad descritas en la presente memoria, son o pueden ser implementadas usando un procesador programado para ejecutar instrucciones de programación que están ampliamente descritos anteriormente en forma de diagrama de flujo que pueden ser almacenados en cualquier medio de almacenamiento adecuado electrónica o legible por computadora. Sin embargo, los expertos en la técnica apreciarán, tras la consideración de la presente enseñanza, que los procesos descritos anteriormente puede ser implementado en cualquier número de variaciones y en muchos lenguajes de programación adecuados sin apartarse de las modalidades de la presente invención. Por ejemplo, el orden de algunas operaciones efectuadas a menudo puede ser variado, las operaciones adicionales se pueden añadir o las operaciones se pueden eliminar sin apartarse de ciertas modalidades de la invención. Captura de errores se puede añadir y/o mejorar y se pueden hacer variaciones en el flujo operativo, interfaz de usuario y la presentación de información sin apartarse de ciertas modalidades de la presente invención. Dichas variaciones se contemplan y consideran equivalentes.
Mientras que ciertas formas de modalidad ilustrativas han sido descritas, es evidente que muchas alternativas, modificaciones, permutaciones y variaciones serán evidentes para los expertos en la técnica a la luz de la descripción anterior.

Claims (25)

REIVINDICACIONES
1.- Un método de decodificación de datos de disparidad de subtítulos, que comprende: un dispositivo receptor de televisión, recibir datos de disparidad de subtítulos cerrados que se codifican como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de las tramas sobre las que cada función lineal que representa disparidad se va a aplicar junto con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior; en donde un primer segmento de la secuencia de valores de disparidad supone una inclinación de cero como referencia para los cambios posteriores en la inclinación; recibir una secuencia de subtítulos paquetes de datos cuando la secuencia del título de paquetes de datos especifica una ventana de visualización de subtítulos que contiene texto de los subtítulos, los subtítulos ocultos en donde los datos se empaqueta en un flujo de canal de televisión digital de subtítulos de paquetes; en donde el valor de disparidad se utiliza en cada trama en una representación 3D de vistas izquierda y derecha de la pantalla de subtítulos para establecer un desplazamiento horizontal que establece la posición del eje z percibida en la ventana; recibir un valor alternativo de disparidad fija que establece una disparidad fija para la visualización de los subtítulos cerrados empacados junto con los datos tridimensionales de subtítulos de disparidad codificados para uso como una posición alternativa percibida del eje z; filtración de paso lento de los datos codificados de disparidad tridimensionales para transiciones suaves en los valores de disparidad; y procesar el texto del subtítulo y datos de disparidad para producir una salida adecuada para definir la representación de una imagen tridimensional en una pantalla del texto del subtítulo en una posición del eje z percibida definida por los datos de disparidad.
2.- Un método de decodificación de datos de disparidad de subtítulos, que comprende: en un dispositivo receptor de televisión, recibir datos de disparidad de subtítulos codificados como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de las tramas sobre las que cada función lineal que representa disparidad se va a aplicar junto con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior; en donde un primer segmento de la secuencia de valores de disparidad supone una inclinación predeterminada, como una referencia para los cambios posteriores en la inclinación ; recibir una secuencia de paquetes de datos de subtítulos, en donde la secuencia de paquetes de datos de subtítulos especifica una ventana de visualización de subtítulo que contiene texto de los subtítulos; y en donde el valor de disparidad se utiliza en cada trama para determinar un desplazamiento horizontal de vistas izquierda y derecha de la pantalla de subtítulos ocultos que se establece la ventana de visualización de subtítulo cerrado es percibido posición del eje z.
3. - El método de acuerdo con la reivindicación 2, en donde la inclinación predeterminada es cero.
4. - El método de acuerdo con la reivindicación 2, en donde el cambio de inclinación se da como un valor que representa un cambio en la disparidad sobre tramas 2N en donde N es un número entero.
5.- El método de acuerdo con la reivindicación 4, en donde N = 5.
6.- El método de acuerdo con la reivindicación 2, en donde el cambio de inclinación se indica como un valor en el rango de -16 a 15 que indica la cantidad de cambio en la inclinación a aplicar durante el intervalo de trama designado .
7.- El método de acuerdo con la reivindicación 2, que comprende además recibir un valor alternativo de disparidad fija que establece una posición fija percibida del eje z para la visualización de los subtítulos cerrados empacados junto con los datos tridimensionales codificados de subtítulos de disparidad para uso como una posición alternativa del eje z .
8. - El método de acuerdo con la reivindicación 2, que comprende además filtrado de paso lento de los datos de disparidad codificados tridimensionales para suavizar las transiciones en los valores de disparidad.
9.- El método de acuerdo con la reivindicación 2, que comprende además procesar el texto de subtítulos y datos de disparidad para producir una salida adecuada para definir una representación de una imagen tridimensional en una pantalla del texto de subtítulo a una posición del eje z percibida se define por los datos de disparidad.
10.- Un dispositivo de almacenamiento electrónico legible por computadora que almacena instrucciones que cuando se ejecutan en uno o más procesadores programados lleva a cabo un proceso de acuerdo con la reivindicación 2.
11.- Un dispositivo receptor de televisión que procesa los datos de disparidad para los subtítulos, que comprende : un decodificador que recibe datos de disparidad de subtítulos codificado como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de tramas sobre la que cada función lineal que representa disparidad se debe aplicar en coincidencia con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior; en donde un primer segmento de la secuencia de valores de disparidad supone una inclinación predeterminada, como una referencia para los cambios posteriores en la inclinación; un analizador que analiza los datos de disparidad y el texto de los subtítulos de una o más señales; y un compositor que recibe los datos de disparidad y el texto de los subtítulos y genera una secuencia de señales de trama de vídeo que incluye una ventana de visualización de subtítulos que contiene texto de los subtítulos con la ventana de visualización de subtítulos tiene una posición de eje z percibida en cada trama definida por los valores de disparidad .
12. - El dispositivo de acuerdo con la reivindicación 11, en donde la inclinación predeterminada es de cero.
13. - El dispositivo de acuerdo con la reivindicación 11, en donde el intervalo de trama se da como un valor predeterminado de tramas 2N, en donde N es un número entero .
14. - El dispositivo de acuerdo con la reivindicación 11, en donde el cambio de inclinación se da como un valor que representa un cambio en la disparidad de más de 32 tramas.
15. - El dispositivo de acuerdo con la reivindicación 14, en donde se señala el cambio de inclinación como un valor en el intervalo -16 a +15 que indica la cantidad de cambio en la inclinación a aplicar durante el intervalo de trama designado.
16. - El dispositivo de acuerdo con la reivindicación 11, en donde el cambio de inclinación se indica como un valor en el rango de -16 a +15 que indica la cantidad de cambio en la inclinación a aplicar durante el intervalo de trama designado.
17. - El dispositivo de acuerdo con la reivindicación 11, el decodificador recibe además un valor alternativo de disparidad fija que establece una posición fija del eje z para una porción de la visualización de los subtítulos empacados junto con los datos codificados de subtítulos de disparidad para uso como una posición del eje z alternativa percibida.
18. - El dispositivo de acuerdo con la reivindicación 11, que comprende además un filtro de paso lento que procesa los datos de disparidad codificados tridimensionales para suavizar las transiciones en los valores de disparidad.
19. - El dispositivo de acuerdo con la reivindicación 11, el compositor además procesa el texto del subtítulo y datos de disparidad para producir una salida adecuada para definir una representación de una imagen tridimensional en una pantalla del texto de subtítulo en una posición percibida del eje Z definida por la disparidad datos .
20. - Un método de decodificación de datos de disparidad de subtítulos, que comprende: en un dispositivo receptor de televisión, recibir datos codificados dinámicos de disparidad de subtítulos que determina una posición del eje z percibida para una ventana de visuali zación de subtítulos que cambia de cuadro por cuadro para una secuencia de tramas de vídeo; y en el dispositivo receptor de televisión, recibir un valor codificado alternativo de disparidad subtítulos que establece la posición del eje z percibida de la ventana de visualización de subtítulos que es estático para la secuencia de tramas de vídeo; recibir una secuencia de paquetes de datos de subtítulos, en donde la secuencia de paquetes de datos de subtítulos especifica una ventana de visualización de subtítulos que contiene texto de los subtítulos; y en donde uno de los datos de disparidad de subtítulos dinámicos codificados y el valor de disparidad alternativo se usa en cada trama para la secuencia de tramas de video para determinar un desplazamiento horizontal de vistas izquierda y derecha de la pantalla de subtítulos ocultos que establece la posición del eje z percibida de la ventana de pantalla de subtítulos.
21.- El método de acuerdo con la reivindicación 20, en donde los datos de disparidad de subtítulos cerrados dinámicos codificados se codifican como una secuencia de uno o más pares de cambio de intervalo de trama/inclinación, con el intervalo de trama que representa un número designado de tramas sobre la que cada función lineal que representa disparidad ha de aplicarse junto con un valor que indica un cambio en la inclinación a partir de la inclinación de un segmento anterior; y en donde un primer segmento de la secuencia de valores de disparidad supone una inclinación predeterminada, como una referencia para los cambios posteriores en la inclinación.
22. - El método de acuerdo con la reivindicación 21, en donde la inclinación predeterminada es cero.
23. - El método de acuerdo con la reivindicación 20, que comprende además filtrado de paso lento de los datos de disparidad codificados tridimensionales para suavizar las transiciones en los valores de disparidad.
24. - El método de acuerdo con la reivindicación 20, que comprende además procesar el texto de titulo y datos de disparidad para producir una salida adecuada para definir una representación de una imagen tridimensional en una pantalla del texto de titulo a una posición del eje z percibida se define por los datos de disparidad.
25. - Un dispositivo de almacenamiento electrónico legible por computadora que almacena instrucciones que cuando se ejecutan en uno o más procesadores programados lleva a cabo un proceso de acuerdo con la reivindicación 20.
MX2012010002A 2010-03-12 2011-02-25 Transporte y señalamiento de datos de disparidad. MX2012010002A (es)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US31361210P 2010-03-12 2010-03-12
US31673310P 2010-03-23 2010-03-23
US34665210P 2010-05-20 2010-05-20
US37879210P 2010-08-31 2010-08-31
US41545710P 2010-11-19 2010-11-19
US41592410P 2010-11-22 2010-11-22
US13/022,817 US8817072B2 (en) 2010-03-12 2011-02-08 Disparity data transport and signaling
PCT/US2011/026291 WO2011112370A1 (en) 2010-03-12 2011-02-25 Disparity data transport and signaling

Publications (1)

Publication Number Publication Date
MX2012010002A true MX2012010002A (es) 2012-10-01

Family

ID=44559593

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2012010002A MX2012010002A (es) 2010-03-12 2011-02-25 Transporte y señalamiento de datos de disparidad.

Country Status (8)

Country Link
US (5) US8817072B2 (es)
EP (2) EP2545705A4 (es)
JP (1) JP5545605B2 (es)
KR (3) KR101295451B1 (es)
CN (1) CN102783159B (es)
CA (1) CA2791916A1 (es)
MX (1) MX2012010002A (es)
WO (3) WO2011112370A1 (es)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760498B2 (en) * 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8817072B2 (en) 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
US8941779B2 (en) * 2012-03-21 2015-01-27 Sony Corporation Non-closed caption data transport in standard caption service
US8839338B2 (en) * 2012-03-28 2014-09-16 Sony Corporation Service usage reporting data transport
CA2799704C (en) * 2010-05-30 2016-12-06 Jongyeul Suh Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8872888B2 (en) 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
US8908103B2 (en) 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
US9078031B2 (en) 2010-10-01 2015-07-07 Sony Corporation Reception apparatus, reception method, and program
US9179198B2 (en) 2010-10-01 2015-11-03 Sony Corporation Receiving apparatus, receiving method, and program
TWI545955B (zh) 2011-04-28 2016-08-11 Sony Corp Signal receiving apparatus and method, a signal transmission apparatus and method, and program
US20130002812A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Encoding and/or decoding 3d information
US9554175B2 (en) 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
CA2843382C (en) 2011-08-05 2020-10-27 Sony Corporation Receiving device, receiving method, program, and information processing system
TWI528749B (zh) * 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US9015785B2 (en) 2011-11-29 2015-04-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and linking application supply system
US8930988B2 (en) 2011-12-21 2015-01-06 Sony Corporation Reception apparatus, reception method, program, and information processing system
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
TWI658724B (zh) * 2011-12-28 2019-05-01 日商Jvc建伍股份有限公司 動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
EP2803197A1 (en) * 2012-04-10 2014-11-19 Huawei Technologies Co., Ltd Method and apparatus for providing a display position of a display object and for displaying a display object in a three-dimensional scene
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
KR102267861B1 (ko) 2012-06-19 2021-06-23 소니그룹주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
WO2014011355A1 (en) 2012-07-12 2014-01-16 Sony Corporation Parameterized services descriptor for advanced television services
US9154840B2 (en) 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
MX368285B (es) * 2012-09-12 2019-09-27 Lg Electronics Inc Aparato y metodo para procesar un servicio interactivo.
US9253518B2 (en) 2012-11-09 2016-02-02 Sony Corporation On-demand access to scheduled content
US9148676B2 (en) 2012-12-04 2015-09-29 Sony Corporation Broadcast transition channel
US10244203B1 (en) * 2013-03-15 2019-03-26 Amazon Technologies, Inc. Adaptable captioning in a video broadcast
MX355960B (es) * 2013-04-05 2018-05-07 Koninklijke Philips Nv Reorientación de una señal de imagen tridimensional.
US9137566B2 (en) 2013-06-28 2015-09-15 Sony Corporation Distribution system, reception apparatus, and methods for transitioning to new services
US9038095B2 (en) 2013-07-03 2015-05-19 Sony Corporation Methods, information providing system, and reception apparatus for distribution of at least one content version
US8884800B1 (en) 2013-07-31 2014-11-11 Sony Corporation Method and apparatus for performing analog-to-digital conversion on multiple input signals
US10306278B2 (en) 2014-04-27 2019-05-28 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US9326295B1 (en) 2014-12-10 2016-04-26 Sony Corporation Method and apparatus for transmitting a-priori information in a communication system
US20160204804A1 (en) 2015-01-13 2016-07-14 Sony Corporation Data processing apparatus and method
US9762354B2 (en) 2015-01-27 2017-09-12 Sony Corporation Signaling methods and apparatus
CN107211192B (zh) 2015-01-30 2020-11-06 夏普株式会社 上报信息的方法
US9912986B2 (en) 2015-03-19 2018-03-06 Sony Corporation System for distributing metadata embedded in video
US9756401B2 (en) 2015-04-07 2017-09-05 Sony Corporation Processing and providing an image in which a plurality of symbols are encoded
US9590782B2 (en) 2015-06-22 2017-03-07 Sony Corporation Signaling methods and apparatus
US10205991B2 (en) 2015-07-27 2019-02-12 Sony Corporation Hidden replaceable media slots
US10299008B1 (en) 2017-11-21 2019-05-21 International Business Machines Corporation Smart closed caption positioning system for video content
KR20240033290A (ko) * 2018-04-11 2024-03-12 돌비 인터네셔널 에이비 오디오 렌더링을 위한 사전 렌더링된 신호를 위한 방법, 장치 및 시스템
KR102109514B1 (ko) * 2018-12-12 2020-06-12 유니마이크로텍(주) 동기화 패킷 송신 방법 및 수신 방법
US11625928B1 (en) * 2020-09-01 2023-04-11 Amazon Technologies, Inc. Language agnostic drift correction
CN114286154A (zh) * 2021-09-23 2022-04-05 腾讯科技(深圳)有限公司 多媒体文件的字幕处理方法、装置、电子设备及存储介质

Family Cites Families (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0230704B1 (en) * 1986-01-23 1990-12-27 Donald J. Imsand Three dimensional television system
US5200823A (en) * 1991-03-29 1993-04-06 Scientific-Atlanta, Inc. Virtual channels for a multiplexed analog component (mac) television system
US5294982A (en) * 1991-12-24 1994-03-15 National Captioning Institute, Inc. Method and apparatus for providing dual language captioning of a television program
US5418782A (en) * 1992-10-30 1995-05-23 Scientific-Atlanta, Inc. Methods and apparatus for providing virtual service selection in a multi-service communications system
US6269363B1 (en) * 1994-01-24 2001-07-31 Yossi Matias Method of accessing data using approximate data structures by relaxing the operations that define same
US5534941A (en) * 1994-05-20 1996-07-09 Encore Media Corporation System for dynamic real-time television channel expansion
US5841433A (en) * 1994-12-23 1998-11-24 Thomson Consumer Electronics, Inc. Digital television system channel guide having a limited lifetime
JP3472659B2 (ja) * 1995-02-20 2003-12-02 株式会社日立製作所 映像供給方法および映像供給システム
CN1192602C (zh) * 1996-05-03 2005-03-09 三星电子株式会社 适于音节文字的观众选择型字幕播放和接收方法及其装置
JP3854691B2 (ja) * 1997-01-14 2006-12-06 キヤノン株式会社 無線通信システムおよび無線通信装置
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US6252596B1 (en) * 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US6433835B1 (en) * 1998-04-17 2002-08-13 Encamera Sciences Corporation Expanded information capacity for existing communication transmission systems
JP4034886B2 (ja) 1998-10-13 2008-01-16 富士通株式会社 半導体装置
US7446774B1 (en) * 1998-11-09 2008-11-04 Broadcom Corporation Video and graphics system with an integrated system bridge controller
US6480819B1 (en) * 1999-02-25 2002-11-12 Matsushita Electric Industrial Co., Ltd. Automatic search of audio channels by matching viewer-spoken words against closed-caption/audio content for interactive television
US6266094B1 (en) * 1999-06-14 2001-07-24 Medialink Worldwide Incorporated Method and apparatus for the aggregation and selective retrieval of television closed caption word content originating from multiple geographic locations
EP1128676B1 (en) * 2000-02-28 2009-04-15 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
US7035292B1 (en) * 2000-03-17 2006-04-25 Applied Micro Circuits Corporation Transposable frame synchronization structure
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
JP4194289B2 (ja) 2001-04-06 2008-12-10 キヤノン株式会社 画像処理方法
US8051212B2 (en) * 2001-04-11 2011-11-01 Mellanox Technologies Ltd. Network interface adapter with shared data send resources
US7110664B2 (en) * 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US20030066081A1 (en) * 2001-07-27 2003-04-03 Barone Samuel T. Command protocol for interactive TV production tools
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
US6952236B2 (en) 2001-08-20 2005-10-04 Ati Technologies, Inc. System and method for conversion of text embedded in a video stream
US8880709B2 (en) * 2001-09-12 2014-11-04 Ericsson Television Inc. Method and system for scheduled streaming of best effort data
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7614066B2 (en) 2002-05-03 2009-11-03 Time Warner Interactive Video Group Inc. Use of multiple embedded messages in program signal streams
KR100468163B1 (ko) * 2002-06-22 2005-01-26 삼성전자주식회사 디지털 비디오 수신기 및 그 스트림 생성방법
US20050259147A1 (en) * 2002-07-16 2005-11-24 Nam Jeho Apparatus and method for adapting 2d and 3d stereoscopic video signal
US7463257B2 (en) * 2002-11-27 2008-12-09 Vision Iii Imaging, Inc. Parallax scanning through scene object position manipulation
KR100751422B1 (ko) * 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
US7606391B2 (en) * 2003-07-25 2009-10-20 Sony Corporation Video content scene change determination
WO2005020034A2 (en) * 2003-08-26 2005-03-03 Clearplay, Inc. Method and apparatus for controlling play of an audio signal
KR20060079200A (ko) * 2003-09-05 2006-07-05 톰슨 라이센싱 보조 정보 처리 시스템
KR100565614B1 (ko) 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
CN1890967B (zh) * 2003-12-08 2010-11-17 汤姆逊许可公司 电视接收器中的数字/模拟隐藏式字幕显示系统
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US20060067592A1 (en) * 2004-05-27 2006-03-30 Walmsley Simon R Configurable image processor
JP2006033677A (ja) * 2004-07-21 2006-02-02 Matsushita Electric Ind Co Ltd 映像再生出力装置及び映像再生出力方法
KR100995042B1 (ko) * 2004-07-23 2010-11-22 엘지전자 주식회사 디지털 방송 수신기 및 그의 긴급 경고 메시지 처리 방법
JP3753726B1 (ja) * 2004-10-13 2006-03-08 シャープ株式会社 動画像再符号化装置、動画像編集装置、プログラム、及び記録媒体
KR101041814B1 (ko) * 2005-02-15 2011-06-17 엘지전자 주식회사 무선 이동통신 시스템에서 점대다 멀티미디어 서비스 제공방법
US8745687B2 (en) 2005-02-15 2014-06-03 Sony Corporation Digital closed caption transport in standalone stream
WO2006092993A1 (ja) * 2005-02-28 2006-09-08 Matsushita Electric Industrial Co., Ltd. 字幕表示装置
RU2407224C2 (ru) * 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
US7492752B2 (en) * 2005-05-25 2009-02-17 Motorola, Inc. Method and apparatus for improved channel maintenance signaling
JP2007097090A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
US20070124768A1 (en) * 2005-11-30 2007-05-31 Microsoft Corporation Media content menu navigation and customization
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
US20100225808A1 (en) * 2006-01-27 2010-09-09 Thomson Licensing Closed-Captioning System and Method
KR20070079258A (ko) * 2006-02-01 2007-08-06 엘지전자 주식회사 데이터 방송을 수신할 수 있는 방송 수신기의 사용자 선호옵션 제어 방법, 클래스와 인터페이스 구조 및 이를 위한방송 수신기
US8576882B2 (en) * 2006-05-11 2013-11-05 Blackberry Limited Media access control protocol for multi-hop network systems and method therefore
EP2025171A1 (en) * 2006-06-08 2009-02-18 Thomson Licensing Scene change detection for video
KR100771244B1 (ko) * 2006-06-12 2007-10-29 삼성전자주식회사 동영상 데이터 처리 방법 및 장치
EP1870813B1 (en) * 2006-06-19 2013-01-30 Texas Instruments France Page processing circuits, devices, methods and systems for secure demand paging and other operations
US7664108B2 (en) * 2006-10-10 2010-02-16 Abdullah Ali Bahattab Route once and cross-connect many
KR20080036329A (ko) * 2006-10-23 2008-04-28 엘지전자 주식회사 캡션 디스플레이 장치 및 방법
US7999820B1 (en) * 2006-10-23 2011-08-16 Nvidia Corporation Methods and systems for reusing memory addresses in a graphics system
US20080098433A1 (en) * 2006-10-23 2008-04-24 Hardacker Robert L User managed internet links from TV
EP2129108A4 (en) * 2006-12-18 2011-10-26 Sony Corp IMAGING DEVICE AND METHOD, RECORDING DEVICE AND METHOD, AND REPRODUCING DEVICE AND METHOD
US8369579B2 (en) * 2006-12-21 2013-02-05 Massachusetts Institute Of Technology Methods and apparatus for 3D surface imaging using active wave-front sampling
US20080180572A1 (en) * 2007-01-29 2008-07-31 Microsoft Corporation Enabling access to closed captioning data present in a broadcast stream
JP4331217B2 (ja) * 2007-02-19 2009-09-16 株式会社東芝 映像再生装置および方法
CN105263012A (zh) * 2007-03-16 2016-01-20 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
KR20070050419A (ko) * 2007-04-23 2007-05-15 삼성전자주식회사 캡션 표시 장치 및 그 방법
KR100962696B1 (ko) * 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
US20080316303A1 (en) * 2007-06-08 2008-12-25 Joseph Chiu Display Device
US9209937B2 (en) * 2007-06-28 2015-12-08 Telefonaktiebolaget L M Ericsson (Publ) Reliable decoding of a high-speed shared control channel
KR20090004661A (ko) * 2007-07-04 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
JP4793339B2 (ja) * 2007-07-09 2011-10-12 ソニー株式会社 動画像変換装置、動画像復元装置、および方法、並びにコンピュータ・プログラム
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US20090060055A1 (en) 2007-08-29 2009-03-05 Sony Corporation Method and apparatus for encoding metadata into a digital program stream
KR101456633B1 (ko) * 2008-01-21 2014-11-06 삼성전자주식회사 방송 신호의 부가 데이터를 처리하는 방법 및 장치, 방송신호를 녹화하는 방법 및 장치, 녹화된 방송 신호를재생하는 방법 및 장치
CN101534377A (zh) * 2008-03-13 2009-09-16 扬智科技股份有限公司 根据节目内容自动改变字幕设定的方法与系统
US8621505B2 (en) * 2008-03-31 2013-12-31 At&T Intellectual Property I, L.P. Method and system for closed caption processing
EP2259601B1 (en) * 2008-04-03 2016-09-07 NLT Technologies, Ltd. Image processing method, image processing device, and recording medium
JP5429896B2 (ja) 2008-05-12 2014-02-26 トムソン ライセンシング 立体動画による潜在的眼精疲労を測定するシステムおよび方法
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
KR20100002032A (ko) 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US20100002134A1 (en) * 2008-07-03 2010-01-07 Sony Corporation Communication system with display status
AU2009275052B2 (en) 2008-07-24 2014-05-29 Panasonic Corporation Playback device capable of stereoscopic playback, playback method, and program
WO2010010499A1 (en) 2008-07-25 2010-01-28 Koninklijke Philips Electronics N.V. 3d display handling of subtitles
US20100039558A1 (en) * 2008-08-12 2010-02-18 Richard Detore Real time high definition caption correction
US8442831B2 (en) * 2008-10-31 2013-05-14 International Business Machines Corporation Sound envelope deconstruction to identify words in continuous speech
WO2010064853A2 (en) 2008-12-02 2010-06-10 Lg Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method
CN102273209B (zh) * 2009-01-08 2014-08-20 Lg电子株式会社 3d字幕信号发送方法和3d字幕显示方法
US8265450B2 (en) * 2009-01-16 2012-09-11 Apple Inc. Capturing and inserting closed captioning data in digital video
WO2010085074A2 (en) 2009-01-20 2010-07-29 Lg Electronics Inc. Three-dimensional subtitle display method and three-dimensional display device for implementing the same
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
JP4588120B2 (ja) * 2009-02-19 2010-11-24 パナソニック株式会社 再生装置、記録方法、記録媒体再生システム
FI20095273A0 (fi) * 2009-03-17 2009-03-17 On2 Technologies Finland Oy Digitaalinen videokoodaus
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
JP5414357B2 (ja) * 2009-05-20 2014-02-12 キヤノン株式会社 撮像装置および再生装置
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
EP2453661B1 (en) * 2009-07-10 2017-08-30 Panasonic Intellectual Property Management Co., Ltd. Playback device, recording method, and system comprising a recording medium and a playback device
US8428122B2 (en) * 2009-09-16 2013-04-23 Broadcom Corporation Method and system for frame buffer compression and memory resource reduction for 3D video
US8705933B2 (en) 2009-09-25 2014-04-22 Sony Corporation Video bookmarking
US20110081133A1 (en) * 2009-10-05 2011-04-07 Xuemin Chen Method and system for a fast channel change in 3d video
US9277183B2 (en) 2009-10-13 2016-03-01 Sony Corporation System and method for distributing auxiliary data embedded in video data
US8941779B2 (en) 2012-03-21 2015-01-27 Sony Corporation Non-closed caption data transport in standard caption service
US8839338B2 (en) 2012-03-28 2014-09-16 Sony Corporation Service usage reporting data transport
US8817072B2 (en) * 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
WO2011123178A1 (en) * 2010-04-01 2011-10-06 Thomson Licensing Subtitles in three-dimensional (3d) presentation
US20110247028A1 (en) 2010-04-01 2011-10-06 Mark Eyer Receiver and System Using an Electronic Questionnaire for Advanced Broadcast Services
US9723360B2 (en) 2010-04-01 2017-08-01 Saturn Licensing Llc Interests and demographics profile for advanced broadcast services
US9706158B2 (en) 2010-04-01 2017-07-11 Saturn Licensing Llc Receiver and method for reporting the usage of advanced television services
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110302599A1 (en) 2010-06-07 2011-12-08 Mark Kenneth Eyer TV-Centric Actions in Triggered Declarative Objects
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
KR101797495B1 (ko) * 2010-06-27 2017-11-15 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
JP5765558B2 (ja) 2010-08-27 2015-08-19 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
US20120050619A1 (en) 2010-08-30 2012-03-01 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
KR101878511B1 (ko) 2010-08-30 2018-07-13 소니 주식회사 수신 장치, 수신 방법 및 프로그램
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US8892636B2 (en) 2010-08-30 2014-11-18 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US10511887B2 (en) 2010-08-30 2019-12-17 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US8823773B2 (en) * 2010-09-01 2014-09-02 Lg Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
JP5757075B2 (ja) 2010-09-15 2015-07-29 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US9986270B2 (en) 2010-09-21 2018-05-29 Saturn Licensing Llc Reception and transmission of trigger information for application program control
JP5703664B2 (ja) 2010-09-30 2015-04-22 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
US9078031B2 (en) 2010-10-01 2015-07-07 Sony Corporation Reception apparatus, reception method, and program
US8872888B2 (en) 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
US9179198B2 (en) 2010-10-01 2015-11-03 Sony Corporation Receiving apparatus, receiving method, and program
US8842974B2 (en) 2010-10-01 2014-09-23 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program, and content delivery system
US8908103B2 (en) 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
WO2012043355A1 (ja) 2010-10-01 2012-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20120185888A1 (en) 2011-01-19 2012-07-19 Sony Corporation Schema for interests and demographics profile for advanced broadcast services
JP5793871B2 (ja) 2011-01-25 2015-10-14 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
JP5783402B2 (ja) 2011-01-25 2015-09-24 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
JP5668512B2 (ja) 2011-02-15 2015-02-12 ソニー株式会社 情報処理装置、及び、情報処理方法
TWI574565B (zh) 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a transmitting method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
US8886009B2 (en) 2011-04-26 2014-11-11 Sony Corporation Creation of video bookmarks via scripted interactivity in advanced digital television
TWI545955B (zh) 2011-04-28 2016-08-11 Sony Corp Signal receiving apparatus and method, a signal transmission apparatus and method, and program
US9554175B2 (en) 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
US10491966B2 (en) 2011-08-04 2019-11-26 Saturn Licensing Llc Reception apparatus, method, computer program, and information providing apparatus for providing an alert service
CA2843382C (en) 2011-08-05 2020-10-27 Sony Corporation Receiving device, receiving method, program, and information processing system
BR112014003674A2 (pt) 2011-08-24 2017-03-01 Sony Corp aparelho de recepção, método para recepção para um aparelho de recepção, programa, e, sistema de processamento de informação
US20130055313A1 (en) 2011-08-31 2013-02-28 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for accessing content from a plurality of content sources
TWI528749B (zh) 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US9374620B2 (en) 2011-10-21 2016-06-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and interlocked application feed system
US9015785B2 (en) 2011-11-29 2015-04-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and linking application supply system
US8930988B2 (en) 2011-12-21 2015-01-06 Sony Corporation Reception apparatus, reception method, program, and information processing system
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP3468177B1 (en) 2012-01-24 2020-04-29 Saturn Licensing LLC Receiver, reception method, program and information processing system
CN104081759B (zh) 2012-02-07 2018-01-16 索尼公司 接收设备和接收方法
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
US20130282870A1 (en) 2012-04-18 2013-10-24 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, and program
KR102267861B1 (ko) 2012-06-19 2021-06-23 소니그룹주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
US9456245B2 (en) 2012-07-05 2016-09-27 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method for controlling applications
WO2014011355A1 (en) 2012-07-12 2014-01-16 Sony Corporation Parameterized services descriptor for advanced television services
US9432744B2 (en) 2012-07-31 2016-08-30 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US9154840B2 (en) 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
US9883247B2 (en) 2012-08-13 2018-01-30 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, and transmission method
WO2014028255A1 (en) 2012-08-15 2014-02-20 Sony Corporation Broadband delivery of personalization information for advanced tv services
US9264648B2 (en) 2012-10-09 2016-02-16 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US10002206B2 (en) 2012-10-26 2018-06-19 Saturn Licensing Llc Information processing device and information processing method

Also Published As

Publication number Publication date
US8730301B2 (en) 2014-05-20
US9521394B2 (en) 2016-12-13
KR101295451B1 (ko) 2013-08-09
KR20120039506A (ko) 2012-04-25
KR101323424B1 (ko) 2013-10-29
WO2011112392A1 (en) 2011-09-15
CA2791916A1 (en) 2011-09-15
US20140253683A1 (en) 2014-09-11
WO2011112370A8 (en) 2011-12-08
WO2011112381A1 (en) 2011-09-15
US20110221873A1 (en) 2011-09-15
JP2013521708A (ja) 2013-06-10
EP2545705A1 (en) 2013-01-16
US20110221862A1 (en) 2011-09-15
EP2524512A4 (en) 2014-06-25
US8878913B2 (en) 2014-11-04
CN102783159B (zh) 2015-06-17
KR101320175B1 (ko) 2013-10-23
CN102783159A (zh) 2012-11-14
WO2011112370A1 (en) 2011-09-15
US8817072B2 (en) 2014-08-26
KR20120042711A (ko) 2012-05-03
EP2545705A4 (en) 2014-06-25
KR20120039505A (ko) 2012-04-25
US20140218475A1 (en) 2014-08-07
JP5545605B2 (ja) 2014-07-09
EP2524512A1 (en) 2012-11-21
US20110221863A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
MX2012010002A (es) Transporte y señalamiento de datos de disparidad.
KR101865983B1 (ko) 표준 캡션 서비스에서의 시차 데이터 전송
KR101672283B1 (ko) 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기
EP2594079B1 (en) Auxiliary data in 3d video broadcast
US20110119709A1 (en) Method and apparatus for generating multimedia stream for 3-dimensional reproduction of additional video reproduction information, and method and apparatus for receiving multimedia stream for 3-dimensional reproduction of additional video reproduction information
KR101657123B1 (ko) 방송 수신기 및 3d 자막 데이터 처리 방법
KR20110106306A (ko) 3차원 영상신호 처리 방법과 이를 구현하기 위한 영상표시 장치
EP2647209B1 (en) Transferring of 3d image data
EP2408211A1 (en) Auxiliary data in 3D video broadcast
KR101846857B1 (ko) 3차원 비디오 전송을 위한 자막들에 있어서의 개선

Legal Events

Date Code Title Description
FG Grant or registration