ES2700227T3 - Puntos de entrada para modo de reproducción en 3D - Google Patents

Puntos de entrada para modo de reproducción en 3D Download PDF

Info

Publication number
ES2700227T3
ES2700227T3 ES10726256T ES10726256T ES2700227T3 ES 2700227 T3 ES2700227 T3 ES 2700227T3 ES 10726256 T ES10726256 T ES 10726256T ES 10726256 T ES10726256 T ES 10726256T ES 2700227 T3 ES2700227 T3 ES 2700227T3
Authority
ES
Spain
Prior art keywords
video data
auxiliary
subflow
entry points
entry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10726256T
Other languages
English (en)
Inventor
Philip Newton
Francesco Scalori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2700227T3 publication Critical patent/ES2700227T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

Método para proporcionar puntos de entrada para un flujo de datos de vídeo, - comprendiendo el flujo de datos de vídeo una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2D codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras que el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha; comprendiendo el método, - definir puntos de entrada en el flujo de datos de vídeo, en el que se definen los puntos de entrada a una distancia en el tiempo entre sí para posibilitar que el modo de reproducción en 3D sea un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar los puntos de entrada; - almacenar los puntos de entrada definidos almacenando direcciones de punto de entrada que proporcionan la localización de los puntos de entrada definidos, caracterizado por que el método comprende - almacenar el subflujo en 2D y el subflujo auxiliar de manera separada en un soporte de registro, - generar una tabla de punto de entrada que comprende asociar la tabla de punto de entrada con los datos de vídeo en 3D definiendo puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar, y - almacenar la tabla de punto de entrada en el soporte de registro para posibilitar dicho modo de reproducción en 3D basándose en recuperar los puntos de entrada principales y los puntos de entrada auxiliares desde la tabla de punto de entrada almacenada.

Description

DESCRIPCIÓN
Puntos de entrada para modo de reproducción en 3D
Campo de la invención
La invención se refiere a un método para proporcionar puntos de entrada para un flujo de datos de vídeo, comprendiendo el método,
- generar una tabla de punto de entrada para posibilitar modo de reproducción;
- definir puntos de entrada en el flujo de datos de vídeo, en el que se definen los puntos de entrada a una distancia en el tiempo entre sí;
- almacenar los puntos de entrada definidos en la tabla de punto de entrada almacenando direcciones de punto de entrada que proporcionan la localización de los puntos de entrada definidos.
La invención se refiere adicionalmente a un dispositivo para proporcionar puntos de entrada, un dispositivo para reproducir datos de vídeo, una señal, un método de representación y un producto de programa informático.
La invención se refiere al campo de representación de datos de vídeo en 3D en modo de reproducción, es decir reproducir el vídeo en 3D con velocidad aumentada en dirección hacia adelante o hacia detrás en un dispositivo de visualización en 3D.
Antecedentes de la invención
Los dispositivos para representar datos de vídeo en 2D son conocidos, por ejemplo, reproductores de vídeo como reproductores de DVD o decodificadores de salón que proporcionan señales de vídeo digitales. El dispositivo de origen se ha de acoplar a un dispositivo de visualización como un conjunto de TV o monitor. Los datos de imagen se transfieren desde el dispositivo de origen mediante una interfaz adecuada, preferentemente una interfaz digital de alta velocidad como h Dm I. Actualmente se están proponiendo los dispositivos mejorados para 3D para originar datos de imagen tridimensionales (3D).
Para contenido en 3D, tal como películas en 3D o programas de TV, pueden proporcionarse los datos de control adicionales para posibilitar modo de reproducción en combinación con los datos de imagen, por ejemplo, una lista de punteros a localizaciones posteriores de fotogramas que pueden representarse a velocidad aumentada. El modo de reproducción es cualquiera de modo de representación del contenido de vídeo en 3D a una velocidad diferente de la velocidad original, tal como avance rápido o retroceso rápido, o movimiento lento en diversas velocidades.
El documento US 2006/0117357 describe un sistema para representar datos de vídeo en 2D en modos de reproducción. Una señal de vídeo digital se reproduce a diversas velocidades de reproducción de modo de reproducción. Se monitorizan los índices de fotograma asociados con fotogramas de vídeo de un flujo de vídeo digital y se determina un tamaño de Grupo de Instantáneas (GOP) a partir de los índices de fotograma. Se calcula uno o más parámetros de velocidad de reproducción de modo de reproducción basándose en el tamaño de GOP determinado. La presentación de los fotogramas de vídeo se controla basándose en los parámetros de velocidad de reproducción de modo de reproducción calculado. En una realización, los parámetros de velocidad de reproducción de modo de reproducción incluyen un recuento de salto de fotograma y un recuento de repetición de fotograma. También ha de desarrollarse para modo de reproducción de contenido en 3D. Un ejemplo de contenido en 3D es una imagen bidimensional y un mapa de entrada asociado. Otro ejemplo de contenido en 3D es una pluralidad de imágenes bidimensionales, por ejemplo, el contenido estereoscópico bien conocido que tiene una imagen de ojo derecho y una imagen de ojo izquierdo. Otro ejemplo más de contenido en 3D es contenido estereoscópico que tiene una pluralidad de imágenes de ojo derecho e imágenes de ojo izquierdo, a visualizarse en una pantalla de múltiples vistas.
El documento "MULLER K; MERKLE P; WIEGAND T: "Compressing Time-Varying Visual Content", IEEE SIGNAL PROCESSING MAGAZINE, IEEE SERVICE CENTER, PISCATAWAY, NJ, Estados Unidos, vol. 24, n.° 6, 01-11­ 2007, páginas 58-65, XP011197662, ISSN: 1053-5888" describe comprimir contenido visual variable en el tiempo mediante diferentes modelos de representación de una escena en 3D, incluyendo codificación de vídeo de múltiples vistas. Se consigue la codificación de manera eficaz (por ejemplo, para datos en 3D de múltiples vistas por codificación de MPEG) mediante predicción de movimiento compensado basándose en instantáneas de referencia temporales, así como de inter-vista, que da como resultado al menos un flujo codificado de manera dependiente. El documento "YING CHEN ET AL: "The Emerging MVC Standard for 3D Video Services", EURASIP JOURNAL ON ADVANCES IN SIGNAL PROCESSING, vol. 2009, páginas 786015-1, XP002634721, ISSN: 1687-6172, DOI: 10.1155/2009/786015" describe la transferencia de vídeo en 3D de acuerdo con un sistema de codificación de múltiples vistas (MVC) propuesto. En datos de MVC de las múltiples vistas se almacenan en un único flujo de bits, que incluye una vista de base (2D compatible con H.264/AVC), véase la sección "2. Estructura de flujos de bits de MVC". Otras vistas se almacenan también en el único flujo de bits, vistas que pueden codificarse de manera dependiente. Tales vistas dependientes nunca dependen de vistas futuras, véase la sección "3. Extracción y adaptación de flujos de bits de MVC" segundo párrafo. El modo de reproducción se analiza en la sección "4. Acceso aleatorio y conmutación de vista"
Sumario de la invención
Un problema del modo de reproducción con vídeo en 3D es que la carga en el decodificador de vídeo aumenta a medida que el decodificador ha de decodificar más fotogramas en tiempo más corto (para modo de reproducción suave). Con vídeo estereoscópico el decodificador tiene que decodificar dos o más flujos y esto aumenta carga en comparación con 2D. Además, si el vídeo de múltiples vistas se codifica usando codificación de múltiples vistas de subflujo dependiente entonces la decodificación de flujos adicionales se vuelve dependiente del flujo de vista de base.
Para proporcionar modo de reproducción en 2D la norma del disco Blu-ray especifica una tabla de punto de entrada (EP-map) para cada flujo de vídeo elemental. El vídeo se codifica en fotogramas de diversos tipos como se define en las normas de MPEG bien conocidas. La tabla enumera la localización en el flujo de puntos donde la decodificación puede iniciar. Normalmente los puntos de entrada se encuentran en límites de fotograma de MPEG I. La tabla únicamente enumera los puntos de entrada para un flujo, no se ha tenido en cuenta el hecho de que diversos flujos de vídeo pueden decodificarse de manera simultánea que también son dependientes entre sí.
Es un objeto de la invención proporcionar un sistema para modo de reproducción en 3D de una manera más conveniente.
Para este fin, de acuerdo con un primer aspecto de la invención, se proporciona un método para proporcionar puntos de entrada para un flujo de datos de vídeo como se define en la reivindicación 1.
Para este fin, de acuerdo con un segundo aspecto de la invención, se proporciona un dispositivo para proporcionar puntos de entrada para un flujo de datos de vídeo como se define en la reivindicación 8.
Para este fin, de acuerdo con un aspecto adicional de la invención, se proporciona un dispositivo para reproducir datos de vídeo como se define en la reivindicación 10.
Para este fin, de acuerdo con un aspecto adicional de la invención, se proporciona un medio de almacenamiento como se define en la reivindicación 15.
Para este fin, de acuerdo con un aspecto adicional de la invención, se proporciona un método de representación datos de vídeo como se define en la reivindicación 20.
Las medidas tienen el efecto de modo de reproducción de múltiples subflujos de datos de vídeo en 3D codificados, por ejemplo, vídeo codificado de múltiples vistas para disco Blu-ray, ahora se proporciona con una tabla extendida de punto de entrada. La tabla de punto de entrada tradicional proporciona un único punto de entrada para un instante particular en un flujo de vídeo. La tabla de punto de entrada de acuerdo con la invención proporciona al menos un punto de entrada adicional para un instante particular que tiene un punto de entrada principal para también acceder directamente al flujo de vídeo auxiliar correspondiente. Por ejemplo, esto se consigue cambiando la definición de la tabla de punto de entrada de manera que el mapa de EP relacionado con el flujo de vídeo de vista de base también contiene los puntos de entrada para los flujos auxiliares asociados, que por sí mismos no pueden decodificarse. Cuando se decodifica un fragmento particular de vídeo en 3D a reproducirse en modo de reproducción puede accederse directamente a los datos necesarios del flujo principal y del flujo auxiliar. Ventajosamente un observador no tendrá que experimentar efectos perturbadores en la percepción de profundidad cuando no todos los subflujos se decodifican apropiadamente o están disponibles debido a referencias faltantes.
La invención también está basada en el siguiente reconocimiento. El sistema de modo de reproducción en 2D de la técnica anterior no conoce los problemas para modo de reproducción en 3D. En particular, para un único flujo de vídeo se proporciona un único conjunto de puntos de entrada. Sin embargo, además de un subflujo principal que puede decodificarse de manera independiente, están presentes uno o más subflujos auxiliares en una señal de vídeo en 3D. Los inventores han observado que tales subflujos, que están a velocidad de reproducción normal, pueden decodificarse únicamente en dependencia del flujo principal. Por lo tanto, de manera tradicional, tales flujos auxiliares o tendrían puntos de entrada, puesto que los puntos de entrada en cualquier flujo no decodificable parecen no tener ningún mérito. Sin embargo, los inventores han añadido el punto de entrada al flujo auxiliar no decodificable. Únicamente proporcionando tanto las direcciones de punto de entrada principal como auxiliar ambos flujos pueden decodificarse de manera conveniente en fragmentos no adyacentes para modo de reproducción, puesto que para un fragmento de este tipo el correspondiente fragmento del flujo auxiliar puede recuperarse inmediatamente de acuerdo con la tabla de punto de entrada mejorado.
En una realización del sistema el flujo de datos de vídeo comprende datos de vídeo en 3D de múltiples vistas, múltiples vistas que incluyen al menos una vista izquierda y una vista derecha. El vídeo en 3D de múltiples vistas proporciona múltiples vistas separadas para el ojo izquierdo y derecho. Las múltiples vistas de la escena en 3D tienen gran solapamiento, y se codifican de manera dependiente normalmente, según se explica por ejemplo en referencia [1] o [2]. La tabla de punto de entrada mejorado proporciona de manera conveniente modo de reproducción para tales flujos de vídeo en 3D de múltiples vistas.
En una realización del sistema el flujo de datos de vídeo comprende múltiples subflujos auxiliares y los puntos de entrada comprenden puntos de entrada auxiliares únicamente para un subconjunto seleccionado de dichos múltiples subflujos auxiliares para representar una versión reducida de los datos de vídeo en 3D durante el modo de reproducción. Ventajosamente el tamaño de la tabla de punto de entrada permanece limitado. La realización también está basada en el reconocimiento que, durante el modo de reproducción, es aceptable alguna degradación del vídeo en 3D representado. Por ejemplo, el número de vistas de vídeo en 3D de múltiples vistas puede reducirse no decodificando cada subflujo, o pueden ignorarse datos de transparencia en un formato de vídeo en 3D estructurado. La invención también está basada en el siguiente reconocimiento. El sistema de modo de reproducción en 2D de la técnica anterior no conoce los problemas para modo de reproducción en 3D. En particular, para un único flujo de vídeo se proporciona un único conjunto de puntos de entrada. Sin embargo, además de un subflujo principal que puede decodificarse de manera independiente, están presentes uno o más subflujos auxiliares en una señal de vídeo en 3D. Los inventores han observado que tales subflujos, que a flujo de vídeo normal también contienen los puntos de entrada para los flujos auxiliares asociados, que por ellos mismos no pueden decodificarse.
Cuando se decodifica un fragmento particular de vídeo en 3D a reproducirse en modo de reproducción puede accederse directamente a los datos necesarios del flujo principal y del flujo auxiliar. Ventajosamente un observador no tendrá que experimentar efectos perturbadores en la percepción de profundidad cuando no todos los subflujos se decodifican apropiadamente o están disponibles debido a referencias faltantes.
La invención también está basada en el siguiente reconocimiento. El sistema de modo de reproducción en 2D de la técnica anterior no conoce los problemas para modo de reproducción en 3D. En particular, para un único flujo de vídeo se proporciona un único conjunto de puntos de entrada. Sin embargo, además de un subflujo principal que puede decodificarse de manera independiente, están presentes uno o más subflujos auxiliares en una señal de vídeo en 3D. Los inventores han observado que tales subflujos, que están a velocidad de reproducción normal, pueden decodificarse únicamente en dependencia del flujo principal. Por lo tanto, de manera tradicional, tales flujos auxiliares o tendrían puntos de entrada, puesto que los puntos de entrada en cualquier flujo no decodificable parecen no tener ningún mérito. Sin embargo, los inventores han añadido el punto de entrada al flujo auxiliar no decodificable. Únicamente proporcionando tanto las direcciones de punto de entrada principal como auxiliar ambos flujos pueden decodificarse de manera conveniente en fragmentos no adyacentes para modo de reproducción, puesto que para un fragmento de este tipo el correspondiente fragmento del flujo auxiliar puede recuperarse inmediatamente de acuerdo con la tabla de punto de entrada mejorado.
En una realización del sistema el flujo de datos de vídeo comprende datos de vídeo en 3D de múltiples vistas, múltiples vistas que incluyen al menos una vista izquierda y una vista derecha. El vídeo en 3D de múltiples vistas proporciona múltiples vistas separadas para el ojo izquierdo y derecho. Las múltiples vistas de la escena en 3D tienen gran solapamiento, y se codifican de manera dependiente normalmente, según se explica por ejemplo en referencia [1] o [2]. La tabla de punto de entrada mejorado proporciona de manera conveniente modo de reproducción para tales flujos de vídeo en 3D de múltiples vistas.
En una realización del sistema el flujo de datos de vídeo comprende múltiples subflujos auxiliares y los puntos de entrada comprenden puntos de entrada auxiliares únicamente para un subconjunto seleccionado de dichos múltiples subflujos auxiliares para representar una versión reducida de los datos de vídeo en 3D durante el modo de reproducción. Ventajosamente el tamaño de la tabla de punto de entrada permanece limitado. La realización también está basada en el reconocimiento que, durante el modo de reproducción, es aceptable alguna degradación del vídeo en 3D representado. Por ejemplo, el número de vistas de vídeo en 3D de múltiples vistas puede reducirse no decodificando cada subflujo, o pueden ignorarse datos de transparencia en un formato de vídeo en 3D estructurado. Se proporcionan realizaciones preferidas adicionales del método, los dispositivos en 3D y la señal de acuerdo con la invención en las reivindicaciones adjuntas, la divulgación de los cuales se incorporan en el presente documento por referencia.
Breve descripción de los dibujos
Estos y otros aspectos de la invención serán evidentes y se aclararán adicionalmente con referencia a las realizaciones descritas a modo de ejemplo en la siguiente descripción y con referencia a los dibujos adjuntos, en los que
La Figura 1 muestra un sistema de generación de vídeo en 3-D,
La Figura 2 muestra una pantalla de múltiples vistas,
La Figura 3 muestra la vista de ojo derecho e izquierdo mediante lentes lenticulares,
La Figura 4 muestra una estructura básica de una lista de reproducción,
La Figura 5 muestra un sistema para visualizar datos de vídeo tridimensionales (3D),
La Figura 6 muestra una tabla de indicador de tabla de punto de entrada,
La Figura 7 muestra una tabla de indicador de tabla de punto de entrada mejorado,
La Figura 8 muestra una tabla de tipo de flujo mejorado,
La Figura 9 muestra un flujo de vídeo en 3D que tiene dos subflujos,
La Figura 10 muestra una definición de mapa de punto de entrada, y
La Figura 11 muestra una tabla de punto de entrada para un flujo principal y un subflujo combinados.
En las figuras, los elementos que corresponden a elementos ya descritos tienen los mismos números de referencia. Descripción detallada de las realizaciones
La Figura 1 muestra un sistema de generación de vídeo en 3-D. El sistema de generación de vídeo en 3-D comprende un par de cámaras, una cámara 11 derecha y una cámara 12 izquierda, un procesador 13 de vídeo en 3D que genera una señal 15 de vídeo para almacenarse en un medio 14 de almacenamiento. La cámara derecha y la cámara izquierda puede cada una ser una cámara convencional. Una profundidad escáner puede asociarse con la cámara izquierda, que comprende, por ejemplo, un haz láser que puede dirigirse en diversas direcciones, y un sensor que detecta reflejos del haz láser. La información de profundidad puede generarse también por cálculo de la información de cámara. El par de cámaras se dirige hacia una escena 10 en cuanto a capturar un vídeo en 3-D de la escena. La escena 10 comprende diversos objetos, tales como, por ejemplo, una persona, un árbol, una casa, y el sol en el cielo. Cada objeto tiene una distancia dada con respecto al par de cámaras, que puede considerarse como un observador virtual que ve la escena.
El procesador de vídeo en 3D puede comprender, por ejemplo, un dispositivo de ejecución de instrucciones y una memoria de programa en la que se ha cargado un conjunto de instrucciones que define operaciones del procesador de vídeo en 3D, que se describirán en lo sucesivo. El medio 14 de almacenamiento puede ser en forma de, por ejemplo, un disco duro, un disco óptico escribible, un sistema de realización de máster para fabricar discos ópticos de tipo de solo lectura o una memoria de estado sólido.
El sistema de generación de vídeo en 3-D básicamente opera como sigue. El par de cámaras proporcionan un vídeo en 3-D básico de la escena, que se forma por una secuencia de pares de instantáneas. Un par de instantáneas comprende una instantánea derecha y una instantánea izquierda. La instantánea derecha, que se captura por la cámara derecha, se pretende para el ojo derecho de un observador humano. La instantánea izquierda, que se captura por la cámara izquierda, se pretende para el ojo izquierdo de un observador humano.
La cámara derecha y la cámara izquierda tienen una relación posicional particular con respecto entre sí. Esta relación posicional puede definirse por un contexto de representación típico en términos de, por ejemplo, tamaño de pantalla y una distancia de visualización. Por ejemplo, el vídeo en 3-D básico, que comprende una secuencia de instantáneas derechas y una secuencia de instantáneas izquierdas que están interrelacionadas, puede pretenderse para visualización en un cine con un tamaño de pantalla típico de 12 metros y una distancia de visualización típica de 18 metros. Un flujo de datos de vídeo en 3D de múltiples vistas puede generarse a partir de información de cámara y/o de profundidad. El vídeo en 3D de múltiples vistas proporciona múltiples vistas separadas para el ojo izquierdo y derecho. Las múltiples vistas de la escena en 3D tienen gran solapamiento, y normalmente están codificadas de manera dependiente, como se explica por ejemplo en la referencia [1] de [2].
Un formato en 3D diferente está basado en dos vistas usando una imagen en 2D y una imagen de profundidad adicional, un denominado mapa de entrada, que transporta información acerca de la profundidad de objetos en la imagen en 2D. El formato denominado imagen profundidad es diferente en que es una combinación de una imagen en 2D con una denominada "profundidad", o mapa de disparidad. Esta es una imagen en escala de grises, mediante la cual el valor de escala de grises de un píxel indica la cantidad de disparidad (o profundidad en caso de un mapa de profundidad) para el correspondiente píxel en la imagen en 2D asociada. El dispositivo de visualización usa la disparidad, profundidad o mapa de paralaje para calcular las vistas adicionales tomando la imagen en 2D como entrada. Esto puede hacerse en una diversidad de maneras, en la forma más sencilla es un asunto de desplazar píxeles a la izquierda o a la derecha dependiendo del valor de disparidad asociado a estos píxeles. La referencia [3] proporciona una vista general excelente de la tecnología.
En el sistema mostrado en la Figura 1 el procesador 13 de vídeo en 3D tiene una unidad 18 de punto de entrada para procesar los datos de vídeo en 3D entrantes y generar una tabla de punto de entrada para modo de reproducción en 3D. La unidad de punto de entrada está dispuesta para definir puntos de entrada en el flujo de datos de vídeo. Los puntos de entrada se almacenan en la tabla de punto de entrada. Los puntos de entrada se definen en el flujo de datos de vídeo a una distancia en el tiempo entre sí. Posteriormente los puntos de entrada definidos se almacenan en la tabla de punto de entrada, por ejemplo, almacenando direcciones de punto de entrada que proporcionan la localización de los puntos de entrada definidos. En formatos de flujo de datos de vídeo en 3D el flujo de datos de vídeo normalmente comprende una multitud de subflujos, multitud que codifica un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que codifica de manera independiente una versión en 2D de los datos de vídeo en 3D y al menos un subflujo auxiliar que codifica de manera dependiente parte de los datos de vídeo en 3D. Por ejemplo, la parte puede ser una vista derecha (dependiendo de un flujo de vista izquierda codificado de manera independiente), o un mapa de profundidad. Para un flujo de vídeo en 3D de este tipo los puntos de entrada se generan para comprender puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar para posibilitar modo de reproducción en 3D de los datos de vídeo en 3D. Durante la representación, se recuperan fragmentos seleccionados del subflujo principal (2D) basándose en los puntos de entrada principales y se decodifican como fragmentos no adyacentes del subflujo en 2D. Posteriormente se recuperan partes del subflujo dependiente auxiliar, que corresponden a las partes seleccionadas del subflujo en 2D, basándose en los puntos de entrada auxiliares y se decodifican de manera dependiente como fragmentos del subflujo auxiliar.
La Figura 2 muestra una pantalla 21 de múltiples vistas, que usa lentes 22 lenticulares delante de una pantalla de LCD para generar una vista diferente para el ojo izquierdo y derecho. Intercalando dos imágenes capturadas desde un ángulo ligeramente diferente crea la percepción en 3D. Este efecto está basado en disparidad binocular, el ojo izquierdo y derecho normalmente ven un objeto desde un ángulo ligeramente diferente. Estas se fusionan juntas a través de la adaptación y convergencia y esto actúa como un indicio de profundidad potente para el cerebro.
La Figura 3 muestra la vista del ojo derecho e izquierdo mediante lentes 30 lenticulares. El ojo 32 derecho únicamente observa la parte izquierda del píxel 33 y el ojo 31 izquierdo ve la parte derecha. Las partes de píxel se denominan subpíxeles 34. La fusión de la parte derecha e izquierda de una imagen en el observador humano a través de una adaptación y convergencia crea un indicio de profundidad presentando una única imagen estereoscópica. Pueden crearse múltiples vistas izquierda y derecha subdividiendo cada píxel en múltiples subpíxeles.
Por ejemplo, en contraste a la figura 3 donde únicamente se muestran dos imágenes intercaladas, una pantalla práctica puede usar, por ejemplo, 9 imágenes intercaladas, que proporcionan un rango más amplio de visión y contornean la imagen, como se indica esquemáticamente en la Figura 2. Para controlar un tipo de pantalla de este tipo se requiere vídeo basado en imagen más profundidad que se procesa para generar múltiples vistas, o vídeo codificado de múltiples vistas. Para este fin la norma de disco Blu-ray puede ampliarse para incluir soporte para tales flujos de vídeo en 3D. Un reproductor puede entonces controlar no únicamente pantallas autoestereoscópicas, sino también otros tipos de pantallas en 3D estéreo tales como una pantalla que alterna vistas y que usa gafas de obturación para separar las vistas para ambos ojos individualmente, o en el futuro puede incluso incluir pantallas holográficas.
Una alternativa a la pantalla lenticular es la pantalla de barrera, que usa una barrera de paralaje detrás del LCD y delante de la retroiluminación para separar la luz de píxeles en la LCD. La barrera es de manera que, a partir de una posición establecida delante de la pantalla, el ojo izquierdo observa diferentes píxeles que el ojo derecho. La barrera también puede estar entre la LCD y el observador humano de modo que los píxeles en una fila de la pantalla son visibles de manera alterna por el ojo izquierdo y derecho.
A partir de experimentos con modo de reproducción de vídeo en 3D se ha hallado que la calidad de la impresión de "profundidad en 3D" se deteriora durante el modo de reproducción. Una posible explicación es que el vídeo estereoscópica demanda un esfuerzo más grande y mayor para el sistema óptico humano (adaptación y convergencia) que el vídeo en 2D normal, para que el cerebro fusione las dos imágenes recibidas por los ojos en una imagen mental en "3D". Cuando el número de fotogramas mostrados por segundo aumenta considerablemente durante el modo de reproducción, el sistema óptico humano parece que no puede emparejarse completamente con la velocidad de fotogramas superior.
Otro problema de modo de reproducción con vídeo en 3D estéreo es que la carga en el decodificador de vídeo aumenta a medida que el decodificador tiene que decodificar más fotogramas en tiempo más corto (para modo de reproducción suave). Con vídeo estereoscópico el decodificador tiene que decodificar dos o más flujos y esto aumenta el problema en comparación con 2D. Además, si el vídeo de múltiples vistas se codifica usando codificación de múltiples vistas escalable como se define por MPEG entonces la decodificación de flujos adicionales se hace dependiente del flujo de vista de base, por lo tanto la manera en la que puede hacerse el modo de reproducción en el reproductor debe cambiar. Tales flujos, que no pueden decodificarse de manera independiente se denominan subflujos auxiliares en este documento. Tales flujos se han de decodificar de manera dependiente basándose en el correspondiente flujo principal.
En la siguiente explicación se analiza un ejemplo de una tabla de punto de entrada con referencia al sistema de disco Blu-ray. Se observa que la tabla de punto de entrada puede aplicarse a cualquier sistema de vídeo en 3D que esté basado en flujos de vídeo principal y auxiliar, y los detalles del sistema de disco Blu-ray no se requieren para implementar la invención. La norma de disco Blu-ray especifica una tabla de punto de entrada (que incluye un mapa de punto de entrada: EP-map) para cada flujo de vídeo elemental. La tabla de punto de entrada define la tabla que enumera la localización en el flujo de puntos donde puede iniciarse la decodificación. Normalmente estos son límites de fotograma de MPEG I. Esta tabla únicamente enumera los puntos de entrada para un flujo, no se ha tenido en cuenta el hecho de que los diversos flujos de vídeo pueden decodificarse de manera simultánea que también son dependientes entre sí.
Se ha hallado que la percepción de profundidad durante el modo de reproducción se mejora cuando se omiten fotogramas para crear una clase de efecto de presentación de diapositivas. Por lo tanto, se visualizan fragmentos separados, no adyacentes, del flujo de vídeo en 3D original en una secuencia. De manera sorprendente cuantos más fotogramas se omitan mejor se hará la profundidad percibida. Esto es en cierto modo en contraste con el vídeo en 2D normal donde el modo de reproducción suave - mediante el cual el decodificador decodifica todos los fotogramas más rápido - se percibe como que es mejor. Esto puede explicarse teniendo en cuenta el hecho de que lleva tiempo que el sistema óptico fusione las dos imágenes de los ojos en una imagen estereoscópica (a través de la adaptación y convergencia) y genere una imagen mental en "3D". En la vida normal esto no es un problema ya que la percepción de profundidad se basa en muchos factores y la disparidad binocular (estereopsis) es únicamente eficaz para objetos que están cerca del observador. Para objetos en movimiento rápidos la paralaje desempeña un papel más grande que la ocultación. En una pantalla en 3D esto, sin embargo, es un problema ya que el efecto en 3D se basa principalmente en disparidad binocular por lo que para objetos que se mueven rápido se reduce la percepción de profundidad.
Para resolver el problema anterior para modo de reproducción es necesario definir los puntos de entrada para la secuencia de fragmentos seleccionados que han de reproducirse en el respectivo modo de reproducción, como se ha descrito anteriormente.
En una realización la tabla de punto de entrada del disco Blu-ray se amplía para adaptar los puntos de entrada adicionalmente definidos. Esta tabla ahora enumera puntos de entrada para el vídeo y proporciona el enlace entre el tiempo-posiciones en el vídeo y las posiciones en el fichero en el disco. La ampliación es de manera que además de una entrada para el flujo de vídeo en 2D, la tabla ahora enumera también los puntos de entrada para el segundo flujo de vídeo auxiliar, que se codifica usando codificación de vídeo escalable y depende del flujo de vídeo principal para decodificación. Esta segunda entrada establece una asociación desde cada entrada en el primer flujo al correspondiente punto de entrada en el segundo flujo. Esta último puede contener un fotograma I o P, donde el fotograma P puede a su vez hacer referencia al fotograma I desde el flujo primario. Este enfoque se toma cuando se usan los valores de Indicaciones de Tiempo de Presentación (PTS) directos. Obsérvese que un mapa de EP separado para el segundo flujo puede no funcionar por sí mismo ya que el flujo auxiliar puede decodificarse únicamente de manera dependiente, por ejemplo, puede contener únicamente fotogramas P o B en los mismos tiempos de PTS. Como tal el flujo auxiliar no es un flujo válido cuando se decodifica por sí mismo. Por ejemplo, para vídeo codificado de múltiples vistas en disco Blu-ray la tabla de punto de entrada puede ampliarse y la manera en la que el reproductor de Blu-ray usa el mapa de EP está adaptada para recuperar ambos de los puntos de entrada principales y los puntos de entrada auxiliares. La especificación se potencia de manera que el mapa de EP relacionado con el flujo de vídeo de vista de base también contiene los puntos de entrada para los flujos auxiliares asociados, que por sí mismos no pueden decodificarse.
Las referencias [1] y [2] describen los principios detrás de flujos de vídeo codificados conjuntamente y el formato de transporte asociado. Por ejemplo, antes de codificar, las vistas en 3D se intercalan y a continuación se codifican usando fotogramas B jerárquicos. Antes de transportar el flujo de bits se divide en un flujo primario y un flujo auxiliar. Esto se hace para compatibilidad hacia atrás de manera que un decodificador en 2D pueda decodificar y usar el flujo primario e ignorar el flujo auxiliar. En un decodificador modificado el flujo primario y auxiliar están intercalados de nuevo y decodificados. Esto crea un problema para modo de reproducción en disco Blu-ray mediante el cual el flujo primario y auxiliar se almacenan de manera separada en disco. Para resolver esto se requiere que la tabla de mapa de EP se amplíe de manera que el reproductor conozca qué clips, es decir, parte de los flujos, del flujo primario y auxiliar deben intercalarse y decodificarse para visualización de la sección del vídeo que el reproductor ha omitido. Mediante la tabla de punto de entrada mejorada, como se propone, este problema se resuelve.
La Figura 4 muestra una estructura básica de una lista de reproducción. El ejemplo está basado en BD y el papel que toma EP-map 41 (tabla de punto de entrada en la información de control CPI) en esta estructura. Para un cierto valor de PTS el EP-map proporciona una dirección lógica, por ejemplo, el correspondiente número de paquete de origen en el fichero de flujo de AV del clip que es un flujo elemental codificado de MPEG. La estructura se define adicionalmente con referencia a las Figuras 6 a 11.
La Figura 5 muestra un sistema para visualizar datos de vídeo tridimensionales (3D). Un dispositivo de origen en 3D 50, por ejemplo, un reproductor de disco, está acoplado a un dispositivo de visualización en 3D 53 para transferir una señal de visualización en 3D 56. El dispositivo de origen en 3D tiene una unidad 51 de entrada para recibir información de imagen. Por ejemplo, el dispositivo de unidad de entrada puede incluir una unidad 58 de disco óptico para recuperar diversos tipos de información de imagen desde un soporte 54 de registro óptico como un disco DVD o Blu-ray. Como alternativa, la unidad de entrada puede incluir una unidad 59 de interfaz de red para acoplarse a una red 55, por ejemplo, la Internet o una red de difusión, denominándose normalmente tal dispositivo un decodificador de salón. Los datos de imagen pueden recuperarse desde un servidor 57 de medios remoto. El dispositivo de origen puede también ser un receptor de satélite, o un servidor de medios que proporcione directamente las señales de visualización, es decir cualquier dispositivo adecuado que emita una señal de visualización en 3D para acoplarse directamente a una unidad de visualización.
El dispositivo 53 de visualización en 3D es para visualizar datos de imagen en 3D. El dispositivo tiene una unidad de interfaz de entrada para recibir la señal 56 de visualización en 3D que incluye los datos de imagen en 3D transferidos desde el dispositivo 10 de origen. El dispositivo tiene una pantalla en 3D para visualizar los datos de imagen procesados, por ejemplo, una LCD dual o lenticular. El dispositivo 53 de visualización puede ser cualquier tipo de pantalla estereoscópica, también denominada pantalla en 3D, y tiene intervalo de profundidad de visualización indicado por la flecha 44.
El dispositivo 50 de origen en 3D tiene una 52 unidad de procesamiento de imagen acoplada a la unidad 51 de entrada para procesar la información de imagen para generar una señal 56 de visualización en 3D a transferirse mediante una unidad 12 de interfaz de salida al dispositivo de visualización. La unidad de procesamiento 52 está dispuesta para generar los datos de imagen incluidos en la señal 56 de visualización en 3D para visualización en el dispositivo 13 de visualización. El dispositivo de origen se proporciona con elementos de control de usuario, para controlar los parámetros de visualización de los datos de imagen, tales como parámetro de contraste o color. Los elementos de control de usuario como tal son bien conocidos, y pueden incluir una unidad de control remoto que tiene diversos botones y/o funciones de control de cursor para controlar las diversas funciones del dispositivo de origen en 3D, tales como funciones de reproducción y grabación normal, y para seleccionar modos de reproducción por ejemplo mediante botones directos, o mediante una interfaz de usuario gráfica y/o menús.
El dispositivo 50 de origen tiene una unidad 48 de procesamiento de modo de reproducción para procesar los datos de vídeo en modo de reproducción en 3D. Los datos de vídeo en 3D se reproducen durante el modo de reproducción, de acuerdo con la tabla de punto de entrada, recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar. El subflujo en 2D se decodifica de manera independiente para el respectivo fragmento, y la información en 3D se añade basándose en el correspondiente fragmento del flujo auxiliar según se recupera del flujo de datos de vídeo basándose en el punto de entrada auxiliar.
La Figura 5 muestra adicionalmente el soporte 54 de registro como un soporte de los datos de imagen en 3D. El soporte de registro es con forma de disco y tiene una pista y un orificio central. La pista, constituida por una serie de marcas físicamente detectables, está dispuesta de acuerdo con un patrón espiral o concéntrico de giros que constituyen sustancialmente pistas paralelas en una capa de información. El soporte de registro puede ser legible ópticamente, denominado un disco óptico, por ejemplo, un CD, DVD o BD (disco Blue-ray). La información se representa en la capa de información por las marcas ópticamente detectables a lo largo de la pista, por ejemplo, resaltes y llanuras. La estructura de pista también comprende información de posición, por ejemplo, encabezamientos y direcciones, para indicación de la localización de unidades de información, normalmente denominadas bloques de información. El soporte 54 de registro lleva información que representa datos de vídeo en 3D codificados digitalmente, por ejemplo, codificados de acuerdo con el sistema de codificación de MPEG2 o MPEG4, en un formato de grabación predefinido como el formato DVD o BD.
Se describe a continuación la parte relevante de la sintaxis de una tabla de EP-map basándose en la especificación de disco Blu-ray. Proponemos ampliar esta tabla de manera que pueda contener también las entradas de los flujos asociados que son dependientes para decodificación en el flujo principal enumerado en la parte superior de la tabla de EP-map.
En la práctica esto significará que para cada flujo auxiliar que está conjuntamente codificado con otro flujo hay un EP_map en la misma tabla que el flujo que es dependiente para que se decodifique. La inversa, es decir una tabla adicional para el flujo auxiliar, también es posible y es más eficaz en caso de compatibilidad hacia atrás con decodificación en 2D. En este caso hay un EP-map para los clips que contienen los flujos auxiliares. En este EP-map hay también las localizaciones de punto de entrada para la parte del flujo de vista de base del cual el punto de entrada en el flujo auxiliar es dependiente para decodificación. En caso de reproducción de vídeo codificado de múltiples vistas el reproductor entonces únicamente necesita cargar el EP-map del flujo auxiliar y a continuación tiene los puntos de acceso para el flujo de vista de base que deben decodificarse para poder decodificar el fotograma en el punto de acceso del flujo auxiliar.
En detalle se propone un nuevo EP_map que contenga un mapeo de puntos de entrada para localización de fichero para un flujo de vídeo en 3D codificado de múltiples flujos. La especificación de disco Blu-ray actualmente define únicamente un tipo de EP_map que está indicado en una tabla en la especificación que se muestra a continuación.
La Figura 6 muestra una tabla de indicador de tabla de punto de entrada. La tabla muestra tipos de mapa de EP existentes. Los valores de indicador para indicar el tipo de mapa de EP pueden definirse en una norma que describe un formato de grabación, por ejemplo, disco Blu-ray. Se propone añadir un nuevo tipo para vídeo en 3D codificado de múltiples vistas (MVC) en esta tabla denominado el "EP map MVC o algún nombre similar como EP_map_ST para vídeo en 3D estereoscópico. Este EP_MVC_map_type puede indicarse por el valor 2.
La Figura 7 muestra una tabla de indicador de tabla de punto de entrada mejorado. La tabla muestra tipos de mapa de EP existentes y el nuevo tipo propuesto para vídeo en 3D de MVC en esta tabla denominado el "EP_map_MVC. En una realización el respectivo mapa de tipo de EP está incluido en la estructura de datos de mapa de EP cuando se generan el flujo de datos de vídeo en 3D, y se transfiere a un dispositivo de reproducción. El dispositivo de reproducción puede ahora detectar fácilmente el nuevo tipo de tabla de mapa de EP, y adaptar la operación de modo de reproducción al respectivo mapa de EP.
La Figura 8 muestra una tabla de tipo de flujo mejorado. Como alternativa a las Figuras 6,7 el nuevo EP-map se indica ahora usando el valor EP_stream_type como se muestra en la tabla con un nuevo valor (8 en la tabla) para el tipo de flujo referenciado en el EP_map. En una realización el respectivo tipo de flujo de EP está incluido en la estructura de datos de flujo de vídeo sD cuando se genera el flujo de datos de vídeo en 3D, y se transfieren a un dispositivo de reproducción. El dispositivo de reproducción puede ahora detectar fácilmente el nuevo tipo de flujo de EP y recuperar la tabla de punto de entrada mejorado desde el flujo, y adaptar la operación de modo de reproducción a la tabla de punto de entrada mejorado.
La Figura 9 muestra un flujo de vídeo en 3D que tiene dos subflujos. La figura muestra un ejemplo de codificación de MVC de una sección de dos flujos usando instantáneas B jerárquicas. La secuencia superior marcada L es un subflujo en 2D decodificable de manera independiente, mientras la parte inferior de cada punto de entrada también indica la lista de números de paquete y valores de PTS en los flujos de datos dependientes.
En una realización de un sistema de reproducción para vídeo en 3D codificado de múltiples vistas el modo de reproducción está dispuesto como sigue. El flujo de vídeo en 3D tiene múltiples subflujos auxiliares y los puntos de entrada comprenden puntos de entrada auxiliares únicamente para un subconjunto seleccionado de dichos múltiples subflujos auxiliares. Durante el modo de reproducción se representa una versión reducida de los datos de vídeo en 3D codificando únicamente los subflujos que tienen los puntos de entrada. Ventajosamente el tamaño de la tabla de punto de entrada permanece limitado.
Como alternativa el decodificador reduce automáticamente el número de vistas cuando realiza modo de reproducción para reducir la carga en el decodificador. El número de vistas puede reducirse dinámicamente en las etapas para velocidades crecientes, por ejemplo 9-7-5-3-2. Los respectivos puntos de entrada para el número reducido de vistas pueden recuperarse desde una tabla de punto de entrada. Como alternativa puede generarse un número reducido de vistas durante el modo de reproducción en una unidad de procesamiento que produce dicha multitud completa de vistas durante reproducción de velocidad normal.
Se ha de observar que la invención puede implementarse en hardware y/o software, usando componentes programables. Un método para implementar la invención tiene las etapas de procesamiento que corresponden al procesamiento datos de vídeo en 3d aclarados con referencia a la Figura 1. Aunque la invención se ha explicado principalmente por las realizaciones usando soportes de registro óptico en la Internet, la invención también es adecuada para cualquier entorno de interconexión de imagen, como una interfaz de visualización de ordenador personal en 3D [PC], o PC de centro de medios en 3D acoplado a un dispositivo de visualización en 3D inalámbrico. Se observa, que en este documento la expresión 'que comprende' no excluye la presencia de otros elementos o etapas a los enumerados y la palabra 'un' o 'una' que precede un elemento no excluye la presencia de una pluralidad de tales elementos, que cualquier signo de referencia no limita el alcance de las reivindicaciones, que la invención puede implementarse por medio de tanto hardware como software, y que varios 'medios' o 'unidades' pueden representarse por el mismo elemento de hardware o software, y un procesador puede cumplir la función de una o más unidades, posiblemente en cooperación con elementos de hardware.
Referencia [1]: "A novel Milti-View Video Coding Scheme Based on H.264; por GuopingLi, Yun He; ICICS-PCM 2003, 15-18 de diciembre 2003, Singapur, IEEE 0-7893-8185-8/03/$ 17.00"
que cada punto de entrada también indica la lista de números de paquetes y valores de PTS en los flujos de datos dependientes.
En una realización de un sistema de reproducción para vídeo en 3D codificado de múltiples vistas el modo de reproducción está dispuesto como sigue. El flujo de vídeo en 3D tiene múltiples subflujos auxiliares y los puntos de entrada comprenden puntos de entrada auxiliares únicamente para un subconjunto seleccionado de dichos múltiples subflujos auxiliares. Durante el modo de reproducción se representa una versión reducida de los datos de vídeo en 3D codificando únicamente los subflujos que tienen los puntos de entrada. Ventajosamente el tamaño de la tabla de punto de entrada permanece limitado.
Como alternativa el decodificador reduce automáticamente el número de vistas cuando realiza modo de reproducción para reducir la carga en el decodificador. El número de vistas puede reducirse dinámicamente en las etapas para velocidades crecientes, por ejemplo 9-7-5-3-2. Los respectivos puntos de entrada para el número reducido de vistas pueden recuperarse desde una tabla de punto de entrada. Como alternativa puede generarse un número reducido de vistas durante el modo de reproducción en una unidad de procesamiento que produce dicha multitud completa de vistas durante reproducción de velocidad normal.
Se ha de observar que la invención puede implementarse en hardware y/o software, usando componentes programables. Un método para implementar la invención tiene las etapas de procesamiento que corresponden al procesamiento datos de vídeo en 3D aclarados con referencia a la Figura 1. Aunque la invención se ha explicado principalmente por las realizaciones usando soportes de registro óptico en la Internet, la invención también es adecuada para cualquier entorno de interconexión de imagen, como una interfaz de visualización de ordenador personal en 3D [PC], o PC de centro de medios en 3D acoplado a un dispositivo de visualización en 3D inalámbrico. Se observa, que en este documento la expresión 'que comprende' no excluye la presencia de otros elementos o etapas a los enumerados y la palabra 'un' o 'una' que precede un elemento no excluye la presencia de una pluralidad de tales elementos, que cualquier signo de referencia no limita el alcance de las reivindicaciones, que la invención puede implementarse por medio de tanto hardware como software, y que varios 'medios' o 'unidades' pueden representarse por el mismo elemento de hardware o software, y un procesador puede cumplir la función de una o más unidades, posiblemente en cooperación con elementos de hardware.
Referencia [1]: "A novel Milti-View Video Coding Scheme Based on H.264; por GuopingLi, Yun He; ICICS-PCM 2003, 15-18 de diciembre 2003, Singapur, IEEE 0-7893-8185-8/03/$ 17.00"
Referencia [2]: "Efficient Prediction Structures for Multi-View Video Coding; por Philipp Merkle et al; IEEE 2007" Referencia [3]: "Depth image based rendering, compression and transmission for a new approach on 3D TV" por Christoph Fehn (véase http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf)

Claims (24)

REIVINDICACIONES
1. Método para proporcionar puntos de entrada para un flujo de datos de vídeo,
- comprendiendo el flujo de datos de vídeo una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2d codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras que el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha; comprendiendo el método,
- definir puntos de entrada en el flujo de datos de vídeo, en el que se definen los puntos de entrada a una distancia en el tiempo entre sí para posibilitar que el modo de reproducción en 3D sea un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar los puntos de entrada; - almacenar los puntos de entrada definidos almacenando direcciones de punto de entrada que proporcionan la localización de los puntos de entrada definidos,
caracterizado por que el método comprende
- almacenar el subflujo en 2D y el subflujo auxiliar de manera separada en un soporte de registro,
- generar una tabla de punto de entrada que comprende asociar la tabla de punto de entrada con los datos de vídeo en 3D definiendo puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar, y
- almacenar la tabla de punto de entrada en el soporte de registro para posibilitar dicho modo de reproducción en 3D basándose en recuperar los puntos de entrada principales y los puntos de entrada auxiliares desde la tabla de punto de entrada almacenada.
2. Método de acuerdo con la reivindicación 1, en el que asociar la tabla de punto de entrada comprende establecer una asociación desde respectivos puntos de entrada principales a correspondientes puntos de entrada auxiliares usando los mismos valores de indicación de tiempo de presentación (PTS).
3. Método de acuerdo con la reivindicación 1 o 2, en el que asociar la tabla de punto de entrada comprende proporcionar los puntos de entrada auxiliares en una tabla de punto de entrada separada para el subflujo auxiliar.
4. Método de acuerdo con la reivindicación 1, en el que el flujo de datos de vídeo comprende
- datos de vídeo en 3D de múltiples vistas, múltiples vistas que incluyen al menos una vista izquierda y una vista derecha; o
en el que el al menos un subflujo auxiliar comprende al menos uno de
- un flujo de datos de información de profundidad;
- un flujo de datos de información de transparencia;
- un flujo de datos de información de oclusión; o
en el que el flujo de datos de vídeo comprende múltiples subflujos auxiliares y los puntos de entrada comprenden puntos de entrada auxiliares únicamente para un subconjunto seleccionado de dichos múltiples subflujos auxiliares para representar una versión reducida de los datos de vídeo en 3D durante el modo de reproducción.
5. Método de acuerdo con la reivindicación 1, en el que el método comprende las etapas de:
generar una primera subtabla de punto de entrada, asociada con el subflujo en 2D, y
generar una segunda subtabla de punto de entrada, asociada con el subflujo auxiliar, y
formar la tabla de punto de entrada asociada con los datos de vídeo en 3D mediante la primera subtabla de punto de entrada y la segunda subtabla de punto de entrada.
6. Método de acuerdo con la reivindicación 1, en el que el método comprende la etapa de:
definir, para cada punto de entrada, un conjunto de múltiples direcciones de punto de entrada, que incluyen al menos una primera dirección de punto de entrada a un punto de entrada principal y al menos una segunda dirección de punto de entrada a una dirección de punto de entrada auxiliar correspondiente.
7. Método de acuerdo con la reivindicación 1, en el que el método comprende proporcionar el soporte de registro que tiene el flujo de datos y la tabla de punto de entrada almacenada en los mismos.
8. Dispositivo para proporcionar puntos de entrada para un flujo de datos de vídeo,
- comprendiendo el flujo de datos de vídeo una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2d codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras que el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha; comprendiendo el aparato:
- medios (18) para definir puntos de entrada en el flujo de datos de vídeo, en el que se definen los puntos de entrada a una distancia en el tiempo entre sí para posibilitar que el modo de reproducción en 3D sea un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar los puntos de entrada, y - medios (13) para almacenar los puntos de entrada definidos almacenando direcciones de punto de entrada que proporcionan la localización de los puntos de entrada definidos,
caracterizado por que
- el dispositivo está dispuesto para almacenar el subflujo en 2D y el subflujo auxiliar de manera separada en un soporte (14) de grabación, y
- los medios (18) para definir puntos de entrada están dispuestos para
- generar una tabla de punto de entrada que comprende asociar la tabla de punto de entrada con los datos de vídeo en 3D definiendo puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar, y
- los medios (13) para almacenar están dispuestos para almacenar la tabla de punto de entrada en el soporte de registro para posibilitar dicho modo de reproducción en 3D basándose en recuperar los puntos de entrada principales y los puntos de entrada auxiliares desde la tabla de punto de entrada almacenada.
9. Dispositivo de acuerdo con la reivindicación 8, en el que el dispositivo comprende medios de escritura para almacenar el flujo de datos de vídeo y la tabla de punto de entrada en el soporte de registro.
10. Dispositivo para reproducir datos de vídeo, comprendiendo el aparato
- medios (51,58) para recibir un flujo de datos de vídeo,
- comprendiendo el flujo de datos de vídeo una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2d codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras que el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha; y
- medios (48) para modo de reproducción en 3D que es un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original reproduciendo los datos de vídeo en 3D recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar puntos de entrada, caracterizado por que
- los medios (51,58) para recibir un flujo de datos de vídeo están dispuestos para recuperar el subflujo en 2D y el subflujo auxiliar de manera separada de un soporte de registro, y para recuperar una tabla de punto de entrada según se define en cualquiera de las reivindicaciones 1-7 del soporte de registro, y
- los medios (48) para modo de reproducción en 3D están dispuestos para reproducir los datos de vídeo en 3D basándose en recuperar puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar desde la tabla de punto de entrada recuperada.
11. Dispositivo de acuerdo con la reivindicación 10, en el que los medios (48) para modo de reproducción en 3D están dispuestos para recuperar, para respectivos puntos de entrada principales, correspondientes puntos de entrada auxiliares usando los mismos valores de indicación de tiempo de presentación (PTS).
12. Dispositivo de acuerdo con la reivindicación 10 u 11, en el que los medios (48) para modo de reproducción en 3D están dispuestos para recuperar los puntos de entrada auxiliares desde una tabla de punto de entrada separada para el subflujo auxiliar.
13. Dispositivo de acuerdo con la reivindicación 10, en el que los medios (48) para modo de reproducción en 3D están dispuestos para recuperar
los puntos de entrada principales desde una primera subtabla de punto de entrada asociada con el subflujo en 2D, y los puntos de entrada auxiliares desde una segunda subtabla de punto de entrada asociada con el subflujo auxiliar.
14. Dispositivo de acuerdo con la reivindicación 10, en el que el dispositivo comprende medios (58) de lectura para leer el flujo de datos de vídeo y la tabla de punto de entrada desde el soporte de registro.
15. Medio (14,54) de almacenamiento que comprende una señal (15) que transporta datos de vídeo, comprendiendo la señal:
- un flujo de datos de vídeo que comprende una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2D codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha;
- tener el flujo de datos de vídeo puntos de entrada definidos a una distancia en el tiempo entre sí para posibilitar que el modo de reproducción en 3D sea un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar los puntos de entrada;
caracterizado por que la señal (15) comprende
- una tabla de punto de entrada según se define en cualquiera de las reivindicaciones 1-7 que comprende los puntos de entrada definidos por direcciones de punto de entrada almacenadas que proporcionan la localización de los puntos de entrada definidos, y en el que
- el subflujo en 2D y el subflujo auxiliar se almacenan de manera separada en el medio de almacenamiento, y - la tabla de punto de entrada está asociada con los datos de vídeo en 3D y comprende puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar para posibilitar dicho modo de reproducción en 3D basándose en recuperar los puntos de entrada principales y los puntos de entrada auxiliares desde la tabla de punto de entrada almacenada.
16. Medio de almacenamiento de acuerdo con la reivindicación 15, en el que la tabla de punto de entrada comprende una asociación de cada punto de entrada principal a un correspondiente punto de entrada auxiliar usando los mismos valores de indicación de tiempo de presentación (PTS).
17. Medio de almacenamiento de acuerdo con la reivindicación 15 o 16, en el que la señal comprende los puntos de entrada auxiliares en una tabla de punto de entrada separada para el subflujo auxiliar.
18. Medio de almacenamiento de acuerdo con la reivindicación 15, en el que la señal comprende
los puntos de entrada principales en una primera subtabla de punto de entrada asociada con el subflujo en 2D, y los puntos de entrada auxiliares en una segunda subtabla de punto de entrada asociada con el subflujo auxiliar.
19. Medio de almacenamiento de acuerdo con cualquiera de las reivindicaciones 15 a 18, en el que el medio de almacenamiento es un soporte (54) de grabación de un tipo legible ópticamente que tiene una pista que tiene marcas detectables ópticamente, propiedades detectables ópticamente de las marcas que representan la señal.
20. Método de representación datos de vídeo basándose en una señal desde un medio (14) de almacenamiento de acuerdo con la reivindicación 15, comprendiendo el método:
- recibir una señal (15) que comprende un flujo de datos de vídeo,
- comprendiendo el flujo de datos de vídeo una multitud de subflujos, multitud que representa un flujo de datos de vídeo en 3D y comprende al menos un subflujo en 2D que comprende una versión en 2d codificada independientemente de los datos de vídeo en 3D y al menos un subflujo auxiliar que comprende una parte codificada de manera dependiente de los datos de vídeo en 3D que representa un flujo de datos de información de profundidad o que representa cualquiera de una vista izquierda o una vista derecha mientras que el subflujo en 2D representa la otra de una de una vista izquierda o una vista derecha; y
- representar el modo de reproducción en 3D que es un modo de representación de los datos de vídeo en 3D a una velocidad diferente de la velocidad original reproduciendo los datos de vídeo en 3D recuperando y decodificando fragmentos no adyacentes del subflujo en 2D y recuperando y decodificando de manera dependiente correspondientes fragmentos del subflujo auxiliar basándose en recuperar puntos de entrada, caracterizado por que
- el método comprende recuperar el subflujo en 2D y el subflujo auxiliar de manera separada del medio de almacenamiento y recuperar una tabla de punto de entrada como se define en cualquiera de las reivindicaciones 1-7 desde el medio de almacenamiento; y
- representar el modo de reproducción en 3D de los datos de vídeo en 3D reproduciendo los datos de vídeo en 3D es basándose en recuperar puntos de entrada principales en el subflujo en 2D y puntos de entrada auxiliares en el subflujo auxiliar de la tabla de punto de entrada recuperada.
21. Método de acuerdo con la reivindicación 20, en el que la representación de modo de reproducción en 3D comprende recuperar, para respectivos puntos de entrada principales, correspondientes puntos de entrada auxiliares usando los mismos valores de indicación de tiempo de presentación (PTS).
22. Método de acuerdo con la reivindicación 20 o 21, en el que la representación de modo de reproducción en 3D comprende recuperar los puntos de entrada auxiliares desde una tabla de punto de entrada separada para el subflujo auxiliar.
23. Método de acuerdo con la reivindicación 20, en el que el método comprende recuperar
los puntos de entrada principales desde una primera subtabla de punto de entrada asociada con el subflujo en 2D, y los puntos de entrada auxiliares desde una segunda subtabla de punto de entrada asociada con el subflujo auxiliar.
24. Producto de programa informático que comprende un conjunto de instrucciones, que cuando se cargan en un procesador, provocan que el procesador lleve a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1-7 o de las reivindicaciones 20-23.
ES10726256T 2009-05-18 2010-05-12 Puntos de entrada para modo de reproducción en 3D Active ES2700227T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09160453 2009-05-18
PCT/IB2010/052101 WO2010134003A1 (en) 2009-05-18 2010-05-12 Entry points for 3d trickplay

Publications (1)

Publication Number Publication Date
ES2700227T3 true ES2700227T3 (es) 2019-02-14

Family

ID=41100665

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10726256T Active ES2700227T3 (es) 2009-05-18 2010-05-12 Puntos de entrada para modo de reproducción en 3D

Country Status (16)

Country Link
US (2) US20120063742A1 (es)
EP (1) EP2433429B1 (es)
JP (1) JP5829604B2 (es)
KR (1) KR101714776B1 (es)
CN (1) CN102428706B (es)
AU (1) AU2010250871B2 (es)
BR (1) BRPI1007695B1 (es)
CA (1) CA2762385C (es)
ES (1) ES2700227T3 (es)
HU (1) HUE040291T2 (es)
MX (1) MX2011012221A (es)
PL (1) PL2433429T3 (es)
RU (1) RU2552137C2 (es)
SG (1) SG175863A1 (es)
TW (1) TWI517643B (es)
WO (1) WO2010134003A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110025123A (ko) 2009-09-02 2011-03-09 삼성전자주식회사 비디오 영상 배속 재생 방법 및 장치
US10448083B2 (en) * 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
KR101767045B1 (ko) 2010-12-17 2017-08-10 삼성전자 주식회사 영상처리장치 및 영상처리방법
CN102055984B (zh) * 2011-01-27 2012-10-03 山东大学 2d和3d播放模式平滑切换的立体视频解码结构及工作方法
CN102158733B (zh) * 2011-01-28 2015-08-19 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与系统
US10033968B2 (en) 2011-06-27 2018-07-24 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
US9065983B2 (en) 2011-06-27 2015-06-23 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
US10555012B2 (en) 2011-06-27 2020-02-04 Oncam Global, Inc. Method and systems for providing video data streams to multiple users
JP2014523179A (ja) * 2011-06-27 2014-09-08 オンカム グローバル,インコーポレイテッド 複数の利用者にビデオデータストリームを提供するための方法及びシステム
CN104137558B (zh) * 2011-12-27 2017-08-25 Lg 电子株式会社 用于显示三维图像的数字广播接收方法及其接收设备
KR101369146B1 (ko) * 2012-07-16 2014-03-06 옵티시스 주식회사 영상 시스템
US9432730B2 (en) * 2012-12-26 2016-08-30 Huawei Technologies Co., Ltd. Multimedia file playback method and apparatus
EP3761654A1 (en) * 2019-07-04 2021-01-06 THEO Technologies Media streaming

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075817A (en) * 1991-12-23 2000-06-13 Digital Compression Technology Compressive communication and storage system
US6064794A (en) * 1995-03-30 2000-05-16 Thomson Licensing S.A. Trick-play control for pre-encoded video
GB9506493D0 (en) * 1995-03-30 1995-05-17 Thomson Consumer Electronics The implementation of trick-play modes for pre-encoded video
DE69736062T2 (de) * 1996-02-28 2007-01-11 Matsushita Electric Industrial Co., Ltd., Kadoma Optische Platte mit verschachtelt aufgezeichneten Digitalvideo-Datenströmen, sowie Vorrichtungen und Verfahren zur Aufzeichnung auf und Wiedergabe von der optischen Platte
JP3719758B2 (ja) * 1996-03-19 2005-11-24 パイオニア株式会社 情報記録装置及び方法並びに情報再生装置及び方法
FR2756399B1 (fr) * 1996-11-28 1999-06-25 Thomson Multimedia Sa Procede et dispositif de compression video pour images de synthese
JP2002518898A (ja) * 1998-06-11 2002-06-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ディジタルビデオレコーダのトリックプレイ信号生成
PL371338A1 (en) * 2002-04-25 2005-06-13 Koninklijke Philips Electronics N.V. Method and apparatus for defining entry points in a data stream
US7720350B2 (en) 2004-11-30 2010-05-18 General Instrument Corporation Methods and systems for controlling trick mode play speeds
CN102005228B (zh) * 2005-04-07 2013-04-10 松下电器产业株式会社 记录方法和再现装置
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
EP2144248B1 (en) * 2005-08-09 2019-01-30 Panasonic Intellectual Property Management Co., Ltd. Recording medium and playback apparatus
WO2008038205A2 (en) 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2105032A2 (en) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
US8594180B2 (en) 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
US20080240230A1 (en) * 2007-03-29 2008-10-02 Horizon Semiconductors Ltd. Media processor with an integrated TV receiver
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
JP5351039B2 (ja) 2007-11-01 2013-11-27 パナソニック株式会社 記録媒体、再生装置、記録装置、再生方法、及び記録方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
RU2502214C2 (ru) * 2008-09-30 2013-12-20 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, системная бис, способ воспроизведения, очки и устройство отображения для трехмерных изображений
WO2010050728A2 (ko) * 2008-10-27 2010-05-06 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
EP2360930A4 (en) * 2008-12-18 2015-03-25 Lg Electronics Inc METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION
US8854428B2 (en) * 2009-03-19 2014-10-07 Lg Electronics, Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
US20120050475A1 (en) * 2009-05-01 2012-03-01 Dong Tian Reference picture lists for 3dv
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体

Also Published As

Publication number Publication date
TWI517643B (zh) 2016-01-11
JP5829604B2 (ja) 2015-12-09
CN102428706A (zh) 2012-04-25
BRPI1007695A8 (pt) 2017-07-25
US20100289875A1 (en) 2010-11-18
RU2552137C2 (ru) 2015-06-10
AU2010250871A1 (en) 2012-01-19
US20120063742A1 (en) 2012-03-15
EP2433429B1 (en) 2018-09-12
AU2010250871B2 (en) 2015-07-09
BRPI1007695A2 (pt) 2016-08-02
JP2012527814A (ja) 2012-11-08
US9007434B2 (en) 2015-04-14
RU2011151601A (ru) 2013-06-27
MX2011012221A (es) 2011-12-08
BRPI1007695B1 (pt) 2021-05-11
TW201105109A (en) 2011-02-01
CN102428706B (zh) 2014-11-05
WO2010134003A1 (en) 2010-11-25
KR20120027366A (ko) 2012-03-21
KR101714776B1 (ko) 2017-03-09
CA2762385C (en) 2018-11-20
EP2433429A1 (en) 2012-03-28
PL2433429T3 (pl) 2019-03-29
CA2762385A1 (en) 2010-11-25
HUE040291T2 (hu) 2019-02-28
SG175863A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
ES2700227T3 (es) Puntos de entrada para modo de reproducción en 3D
ES2435669T3 (es) Gestión de subtítulos en visualización en 3D
ES2931199T3 (es) Conmutación entre vídeo 3D y vídeo 2D
ES2659717T3 (es) Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D
JP5480915B2 (ja) 表示装置と方法、記録媒体、送信装置と方法、及び再生装置と方法
ES2624769T3 (es) Medio de grabación, dispositivo de reproducción y circuito integrado
ES2537073T3 (es) Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica
JP5457465B2 (ja) 表示装置と方法、送信装置と方法、及び受信装置と方法
CN104333746B (zh) 广播接收机及其3d字幕数据处理方法
JP5243668B1 (ja) 再生装置、記録媒体、および情報処理方法
JP5544361B2 (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
JP4259884B2 (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP5789518B2 (ja) グラフィック画面処理方法及び装置
BR112012007115A2 (pt) Método de codificação de um sinal de dados de vídeo 3d, método de decodificação de um sinal de vídeo 3d, codificador para codificar um sinal de dados de vídeo 3d, decodificador para decodificar um sinal de dados de vídeo 3d, produto de programa de computador para codificar um sinal de dados de vídeo, produto de programa de computador para decodificar um sinal de vídeo, sinal de dados de vídeo 3d, e portador de dados digitais
TW201127021A (en) Recording medium, reproducing device, encoding device, integrated circuit, and reproduction output device
TW201123847A (en) Recording medium, playback device, and integrated circuit
Vetro 3D in the Home: Mass Market or Niche?