ES2563728T3 - Transferencia de datos de imágenes 3D - Google Patents

Transferencia de datos de imágenes 3D Download PDF

Info

Publication number
ES2563728T3
ES2563728T3 ES10701925.9T ES10701925T ES2563728T3 ES 2563728 T3 ES2563728 T3 ES 2563728T3 ES 10701925 T ES10701925 T ES 10701925T ES 2563728 T3 ES2563728 T3 ES 2563728T3
Authority
ES
Spain
Prior art keywords
video
data
information
frames
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10701925.9T
Other languages
English (en)
Inventor
Johan C. Talstra
Gerardus W. T. Van Der Heijden
Philip S. Newton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2563728T3 publication Critical patent/ES2563728T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

Procedimiento de transferencia de datos de imágenes tridimensionales (3D), comprendiendo el procedimiento, en un dispositivo fuente 3D, - procesar datos de imágenes fuente para generar una señal de visualización 3D, comprendiendo la señal de visualización 3D una secuencia de tramas que constituyen los datos de imágenes 3D según un formato de transferencia de vídeo 3D, comprendiendo el formato de vídeo 3D un periodo de datos de vídeo durante el cual se transmiten píxeles de vídeo activo y un periodo de isla de datos durante el cual se transmiten datos auxiliares y de audio usando una serie de paquetes, incluyendo los paquetes un paquete de trama de información, cuyo periodo de datos de vídeo y periodo de isla de datos siguen la norma HDMI, y - proporcionar la señal de visualización 3D; y, en un dispositivo de visualización 3D, - recibir la señal de visualización 3D, y - procesar la señal de visualización 3D para generar señales de control de visualización para renderizar los datos de imágenes 3D en un dispositivo de visualización 3D, comprendiendo la secuencia de tramas unidades, siendo la unidad un periodo desde una señal de sincronización vertical hasta la siguiente señal de sincronización vertical, correspondiendo cada unidad a un número de tramas dispuesto según un esquema de multiplexación, comprendiendo el número de tramas información de vídeo destinada a componerse y visualizarse como una imagen 3D; - presentando cada trama en la unidad una estructura de datos para representar una secuencia de datos de píxel de imágenes digitales, y representando cada trama una estructura de datos 3D parcial y en la que el procedimiento comprende, en el dispositivo fuente 3D, - incluir información de transferencia 3D en el paquete de trama de información, comprendiendo la información de transferencia 3D al menos información acerca del esquema de multiplexación, incluyendo el número de tramas de vídeo en una unidad que constituirá una única imagen 3D en la señal de visualización 3D, seleccionándose el esquema de multiplexación a partir de un grupo de esquemas de multiplexación que comprende al menos multiplexación de alternancia de tramas, indicando la alternancia de tramas que dicho número de tramas está dispuesto secuencialmente en dicho periodo de datos de vídeo; y el número de tramas se compondrá y visualizará como una imagen 3D para al menos un esquema de multiplexación que comprende al menos una trama de información de gráficos; y - dicha generación de las señales de control de visualización se lleva a cabo en función de la información de transferencia 3D.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
imagen7
5
15
25
35
45
55
65
Trama 6: La transparencia del color BD-J/IG se copia en un plano de salida diferente de DOT de gráficos y se combina con la profundidad y la oclusión de 960x540 y las componentes de oclusión y profundidad (OD), como se ilustra en el dibujo inferior de la Figura 10.
La Figura 6 muestra esquemáticamente la salida de tiempo de tramas a través de la interfaz de vídeo, según la realización preferida de la invención. En el presente documento, las componentes se envían al dispositivo de visualización en componentes de 24 Hz entrelazadas en el tiempo a través de la interfaz HDMI a una frecuencia de interfaz de 144 Hz.
Las ventajas de este formato de vídeo 3D son:
-El formato 3D estéreo + DOT flexible de máxima resolución y la salida HDMI 3D permiten un vídeo 3D mejorado (línea de base variable que depende del tamaño de visualización) y posibilidades de gráficos 3D mejorados (menos restricciones gráficas, OSD TV 3D) para varios dispositivos de visualización 3D (estéreo y autoestereoscópicos).
-No compromete la calidad ni la flexibilidad en la creación de contenidos, y tiene un coste mínimo en lo que respecta al hardware del reproductor. La composición y la renderización se realizan en el dispositivo de visualización 3D.
-La mayor velocidad de interfaz de vídeo requerida se define en HDMI para formatos 4k2k y puede estar ya implementada en HDMI de enlace dual. La HDMI de enlace dual también soporta mayores frecuencias de trama, tales como 30 Hz, etc.
El indicador de información de transferencia 3D puede comprender, para la capa de vídeo adicional, parámetros de señalización de capa. Los parámetros pueden indicar al menos uno de lo siguiente:
-tipo y/o formato de capa adicional;
-la ubicación de la visualización de la capa adicional con respecto a la visualización del vídeo principal;
-tamaño de visualización de la capa adicional;
-tiempo de aparición, desaparición y/o duración de la visualización de la capa adicional;
-ajustes de visualización 3D adicionales o parámetros de visualización 3D.
A continuación se ofrecen otros ejemplos detallados.
La Figura 3 muestra una combinación formada por un dispositivo de reproducción y un dispositivo de visualización. El reproductor 10 lee las capacidades del dispositivo de visualización 13 y ajusta el formato y los parámetros de tiempo del vídeo para enviar el vídeo de mayor resolución, tanto espacial como temporal, que el dispositivo de visualización puede manejar. En la práctica se usa una norma llamada EDID. Los datos ampliados de identificación de dispositivo de visualización (EDID) son una estructura de datos proporcionada por un dispositivo de visualización para describir sus capacidades a una fuente de imágenes, por ejemplo una tarjeta gráfica. Permite a un ordenador personal moderno saber qué tipo de monitor está conectado. Los EDID están definidos por una norma publicada por la Asociación de Normas de Electrónica de Vídeo (VESA). Para más información, se hace referencia a la versión 1 de la norma de puertos de visualización de VESA, revisión 1a del 11 de enero de 2008, disponible en http://www.vesa.org/.
Los EDID incluyen el nombre del fabricante, el tipo de producto, el tipo de fósforo o filtro, los tiempos soportados por el dispositivo de visualización, el tamaño del dispositivo de visualización, los datos de luminancia y (solamente para dispositivos de visualización digitales) datos de correlación de píxeles. El canal para transmitir los EDID desde el dispositivo de visualización a la tarjeta gráfica se denomina habitualmente bus I2C. La combinación de los EDID y del I2C se denomina versión 2 de canal de datos de visualización o DDC2. El número 2 lo distingue del DDC original de VESA, que usa un formato serie diferente. Los EDID están almacenados normalmente en el monitor en un dispositivo de memoria llamado PROM serie (memoria programable de solo lectura) o EEPROM (PROM eléctricamente borrable) que es compatible con el bus I2C.
El dispositivo de reproducción envía una solicitud E-EDID al dispositivo de visualización a través del canal DDC2. El dispositivo de visualización responde enviando la información E-EDID. El reproductor determina el mejor formato y empieza a transmitir a través del canal de vídeo. En tipos más antiguos de dispositivos de visualización, el dispositivo de visualización envía continuamente la información E-EDID a través del canal DDC. No se envían solicitudes. Para definir además el formato de vídeo que se usará en la interfaz, otra organización (la Asociación de Electrónica de Consumo, CEA) ha definido varias restricciones y ampliaciones adicionales con respecto a los E-EDID para hacerlos más adecuados para usarse con televisores. La norma HDMI (mencionada anteriormente), además de los requisitos de E-EDID específicos, soporta códigos de identificación e información de tiempo relacionada para muchos formatos de vídeo diferentes. Por ejemplo, la norma CEA 861-D se utiliza en la norma de interfaz HDMI. HDMI define el enlace físico y soporta la norma CEA 861-D y la norma VESA E-EDID para manejar la
5
10
15
20
25
30
35
40
45
50
señalización de nivel superior. La norma VESA E-EDID permite al dispositivo de visualización indicar si soporta transmisión de vídeo estereoscópico y en qué formato. Debe observarse que esta información acerca de las capacidades del dispositivo de visualización se transmite al dispositivo fuente. Las normas VESA conocidas no definen ninguna información 3D directa que controle el procesamiento 3D en el dispositivo de visualización.
En una realización, la información de transferencia 3D en la señal de visualización 3D se transfiere de manera asíncrona, por ejemplo como un paquete independiente en un flujo de datos cuando se identifica la trama respectiva con la que está relacionado. El paquete puede incluir además datos para la sincronización precisa de tramas con el vídeo, y pueden insertarse en un momento adecuado en los intervalos de supresión entre tramas de vídeo sucesivas. En una realización práctica, la información de transferencia 3D se inserta en paquetes dentro de islas de datos HDMI.
A continuación se ofrece un ejemplo de incluir información de transferencia 3D en información de vídeo auxiliar (AVI) definida en HDMI en un flujo de datos de audio y vídeo (AV). La información AVI se transporta en el flujo AV desde el dispositivo fuente hasta un monitor de televisión digital (DTV) como una trama de información. Si el dispositivo fuente soporta la transmisión de la información de vídeo auxiliar (AVI) y si determina que el monitor DTV puede recibir esa información, enviará la información AVI al monitor DTV una vez en cada periodo VSYNC. Los datos se aplican a la siguiente trama completa de datos de vídeo.
En la siguiente sección se ofrecerá una breve descripción de la señalización HDMI. En HDMI, un dispositivo con una salida HDMI se conoce como dispositivo fuente, mientras que un dispositivo con una entrada HDMI se conoce como colector. Una trama de información es una estructura de datos definida en la norma CEA-861-D que está diseñada para transportar varios elementos de datos auxiliares relacionados con los flujos de audio o de vídeo o con el dispositivo fuente, y se transporta desde el dispositivo fuente hasta el colector a través de HDMI. Un campo de vídeo es el periodo desde un flanco activo de VSYNC hasta el siguiente flanco activo VSYNC. Un formato de vídeo está suficientemente definido de modo que cuando se recibe en el monitor, el monitor tiene suficiente información para mostrar de manera apropiada el vídeo al usuario. La definición de cada formato incluye una temporización de formato de vídeo, la relación de aspecto de la imagen y un espacio colorimétrico. La temporización de formato de vídeo se refiere a la forma de onda asociada a un formato de vídeo. Debe observarse que una temporización de formato de vídeo específica puede estar asociada a más de un formato de vídeo (por ejemplo 720X480p@4:3 y 720X480p@16:9).
HDMI incluye tres canales de comunicación diferentes: TMDS, DDC y el CEC opcional. TMDS se usa para transportar todos los datos de audio y vídeo, así como datos auxiliares, incluyendo tramas de información AVI y de audio que describen los flujos de audio y vídeo activos. El canal DDC es usado por un dispositivo fuente HDMI para determinar las capacidades y las características del colector leyendo la estructura de datos E-EDID.
Se supone que los dispositivos fuente HDMI leen los E-EDID del colector y suministran solamente los formatos de audio y vídeo soportados por el colector. Además, se supone que los colectores HDMI detectan tramas de información y procesan de manera adecuada los datos de audio y vídeo recibidos.
El canal CEC se usa opcionalmente para funciones de usuario de nivel superior tales como tareas de configuración automática o tareas normalmente asociadas al uso del control remoto con infrarrojos.
Un enlace HDMI funciona en uno de los tres modos siguientes: periodo de datos de vídeo, periodo de isla de datos y periodo de control. Los píxeles activos de una línea de vídeo activa se transmiten durante el periodo de datos de vídeo. Los datos auxiliares y de audio se transmiten usando una serie de paquetes durante el periodo de isla de datos. El periodo de control se usa cuando no es necesario transmitir datos de vídeo, de audio o datos auxiliares. Se requiere un periodo de control entre dos periodos cualesquiera que no sean periodos de control.
La Tabla 1 ilustra tipos de paquete en una isla de datos HDMI
Valor de tipo de paquete
Tipo de paquete
0x00
Nulo
0x01
Regeneración de reloj de audio (N/CTS)
0x02
Muestra de audio (formatos comprimidos L-PCM e IEC 61937)
0x03
Central general
0x04
Paquete ACP
0x05
Paquete ISRC1
0x06
Paquete ISRC2
0x07
Paquete de muestra de audio de un bit
0x08
Paquete de audio DST
0x09
Paquete de flujo de audio de alta velocidad binaria (HBR) (IEC 61937)
0x0A
Paquete de metadatos Gamut
Tipo 0x80 + Trama de información
Paquete de trama de información
0x81
Trama de información específica del proveedor
0x82
Trama de información AVI
0x83
Trama de información de descriptor de producto fuente
8x84
Trama de información de audio
0x85
Trama de información de dispositivo fuente MPEG
Los inventores han identificado que el paquete de trama de información, la trama de información AVI, etc., actuales no son adecuados para manejar la transmisión de datos de vídeo 3D.
5 En general, la transmisión de datos de vídeo 3D puede caracterizarse por 3 parámetros:
-VIC (tasa de repetición de píxeles) de la tabla 8.7 de la especificación HDMI, por ejemplo 1920x1080p@60Hz
-número de tramas en una unidad de tramas de una única imagen 3D 10 N=1 para datos monoscópicos
N=2 para estéreo y vídeo + profundidad
15 N=3 para vídeo + profundidad + gráficos
N=4 para MVD @ M=2, etc.
N=6 para la unidad definida con referencia a las Fig. 4 a 6 20 -el formato: modo de multiplexar los canales
-alternancia de tramas
25 -alternancia de campos
-alternancia de líneas
-adyacencia 30
-tablero de ajedrez, etc.
La Figura 8 muestra una supresión horizontal y vertical y una señalización con un formato a • D + DOT @1920
píxeles. La figura muestra un esquema de multiplexación según una multiplexación de alternancia de tramas. En el 35 ejemplo, 5 tramas indicadas como Vactive/5 constituyen la imagen 3D del formato 3D + DOT, tramas que se
disponen secuencialmente en la unidad entre los impulsos de sincronización vertical VSYNC de la señal 3D,
indicada mediante Vfreq. Los impulsos de sincronización vertical indican el periodo de datos de vídeo Vactive
empezando después de la supresión vertical Vblank, periodo en el que las tramas de vídeo se disponen
secuencialmente. Asimismo, los impulsos de supresión horizontal HSYNC indican el periodo de línea Hactive 40 empezando después de la supresión horizontal Hblank. Por tanto, el esquema de multiplexación de alternancia de
tramas indica que dicho número de tramas está dispuesto secuencialmente en dicho periodo de datos de vídeo.
La Figura 9 muestra una supresión horizontal y vertical y una señalización con un formato a • D + DOT 720 píxeles
enviados como 1920 progresivos @30Hz. La figura muestra un esquema de multiplexación según una 45 multiplexación de tramas adyacentes. En el ejemplo, 5 tramas indicadas como Hactive/5 constituyen la imagen 3D
del formato 3D + DOT, tramas que se disponen de manera adyacente en la unidad entre los impulsos de
sincronización vertical VSYNC de la señal 3D, indicada mediante Vfreq. Los impulsos de sincronización vertical
indican el periodo de datos de vídeo Vactive empezando después de la supresión vertical Vblank, periodo en el que
las tramas de vídeo se disponen de manera adyacente. Asimismo, los impulsos de supresión horizontal HSYNC 50 indican el periodo de línea Hactive empezando después de la supresión horizontal Hblank. Por tanto, el esquema de
multiplexación de tramas adyacentes indica que dicho número de tramas está dispuesto secuencialmente en dicho periodo de datos de vídeo.
Para una máxima flexibilidad, según la invención, los parámetros anteriores del esquema de multiplexación deben 5 transmitirse en tres campos diferentes.
En una realización de la invención, se envían a través de tramas de información AVI y/o de tramas de información HDMI específicas del proveedor.
10 En la siguiente realización detallada, en el caso de las interfaces HDMI, se presentará:
La Tabla 2 describe el octeto pertinente del paquete de trama de información según una realización preferida de la invención.
15 En la misma, HDMI_VIC0...HDMI_VIC7 describen el código de identificación de formato de vídeo. Cuando se transmite cualquier formato de vídeo definido en esta sección, un dispositivo fuente HDMI fijará el campo HDMI_VIC al código de vídeo para ese formato.
En la tabla, HDMI_3D_FMT0...HDMI_3D_FMT describen el código de formato 3D. Cuando se transmite cualquier
20 formato de vídeo definido en esta sección, un dispositivo fuente HDMI fijará el campo HDMI_3D_Format al código de vídeo para ese formato.
Tabla 2
N.º de octeto de paquete
7 6 5 4 3 2 1 0
PB0
Identificador de registro IEEE de 24 bits ((0x000C03)) (Primer octeto menos significativo)
PB1
PB2
PB3
HDMI_VI C7 HDMI_VI C6 HDMI_V IC5 HDMI_VIC4 HDMI_VI C3 HDMI_VI C2 HDMI_VI C1 HDMI_VIC0
PB4
HDMI_3D_ FMT7 HDMI_3D_ FMT6 HDMI_3 D_FMT 5 HDMI_3D_ FMT 4 HDMI_3D_ FMT 3 HDMI_3D_ FMT 2 HDMI_3D_ FMT 1 HDMI_3D_FM T 0
PB5 ~ (Nv-4)
Reservados (0)
25 Según la invención, valores de formato de temporización de vídeo adicionales que se identifican mediante números HDMI_VIC, se definen para una transmisión 3D (estereoscópica).
Los siguientes formatos de vídeo se usan para la transmisión 3D. La imagen izquierda y la imagen derecha para
30 cada ojo de los espectadores pueden distinguirse de manera unívoca usando la definición de formato de vídeo de esta sección, de modo que no se necesita ningún otro paquete de información adicional. La Tabla 3 muestra el valor de HDMI_VIC, que se describe en los EDID y en la trama de información relacionados.
Tabla 3. HDMI_VIC para transmisión 3D 35
(Hz)
HDMI_VIC
Hactive Vactive Vfreq n.º de canales Descripción
1
1920 1080 60 1 1080i FullHD 60Hz
2
1920 1080 50 1 1080i FullHD 50Hz
3
1920 1080 60 1 1080p FullHD 60Hz
4
1920 1080 50 1 1080p FullHD 50Hz
5
1920 1080 24 1 1080p FullHD 24Hz
6
1920 1080 60 2 1080i FullHD 60Hz
imagen8
5
15
25
35
45
55
65
Se enumeran varias opciones; los metadatos pueden incluirse en uno de lo siguiente:
-tipo de trama de información 3D (CEA),
-trama de información AVI,
-trama de información específica del proveedor (VSIF), CEC,.
En la siguiente sección se describirán realizaciones específicas para enviar información estéreo o el caso en que las unidades comprenden dos tramas.
Se propone usar información de barra negra en tramas de información AVI para albergar el indicador de sincronización de tipo de trama, por ejemplo para la señalización izquierda-derecha e información adicional para una renderización adecuada de vídeo 3D en el dispositivo de visualización. La trama de información AVI es un bloque de datos que se envía al menos cada dos campos. Por este motivo, solamente la trama de información puede transmitir señalización en cada trama, la cual es necesaria si va a usarse para sincronizar la señal de vídeo estereoscópica. La ventaja de esta solución en comparación con otras soluciones basadas en una señalización relativa o basadas en tramas de información específicas del proveedor es que es compatible con los conjuntos de chips actuales de HDMI y proporciona una sincronización de tramas precisa y un espacio suficiente (8 octetos) para la señalización.
En una realización alternativa se propone usar los bits de preámbulo definidos en HDMI para indicar que los datos de vídeo subsiguientes son una trama de vídeo izquierda o una trama de vídeo derecha. La sección 5.2.1.1 de la norma HDMI indica que el preámbulo está justo antes de cada periodo de datos de vídeo o de cada periodo de isla de datos. Es una secuencia de ocho caracteres de control idénticos que indican si el periodo de datos subsiguiente es un periodo de datos de vídeo o es una isla de datos. Los valores de CTL0, CTL1, CTL2 y CTL3 indican el tipo de periodo de datos subsiguiente. Los valores de control restantes, HSYNC y VSYNC, pueden variar durante esta secuencia. El preámbulo está formado actualmente por 4 bits, CTL0, CTL1, CLT3 y CTL4. Por el momento solo se usan los valores 1000 y 1010. Por ejemplo, ahora pueden definirse los valores 1100 o 1001 para indicar que los datos de vídeo contienen o bien una trama de vídeo izquierda o bien una trama de vídeo derecha o, como alternativa, tramas que contienen la información de imagen y/o de profundidad. Además, los bits de preámbulo solo pueden indicar un tipo de trama 3D o una primera trama 3D de una secuencia, mientras que la discriminación adicional de tipos de trama puede seguir una secuencia de sincronización de tipos de trama definida por una trama de datos adicional. Además, la señalización de HSYNC y VSYNC puede adaptarse para transmitir al menos parte de la sincronización de tipo de trama, por ejemplo si una trama es una trama de vídeo izquierda o una trama de vídeo derecha. HSYNC está dispuesto delante de los datos de vídeo de una trama izquierda y VSYNC delante de una trama derecha de información de vídeo. El mismo principio puede aplicarse a otros tipos de trama, como información de imagen 2D y de profundidad.
La Figura 10 muestra una tabla de una trama de información AVI ampliada con un indicador de sincronización de tipo de trama. La trama de información AVI está definida por la CEA y es utilizada por HDMI y otras normas de transmisión de vídeo para proporcionar señalización de tramas en un muestreo de color y crominancia, conforme al barrido y la relación de aspecto. Se ha añadido información adicional para representar el indicador de sincronización de tipo de trama de la siguiente manera.
El último bit del octeto de datos 1; F17 y el último bit del octeto de datos 4; F47 están reservados en la trama de información AVI estándar. En una realización del indicador de sincronización de tipo de trama, se usan para indicar la presencia de señalización estereoscópica en la información de barra negra. La información de barra negra está incluida normalmente en los octetos de datos 6 a 13. Por lo general, los octetos 14 a 27 están reservados en HDMI y, por tanto, pueden no transmitirse correctamente con el hardware actual. Por lo tanto, estos campos se usan para proporcionar información de ubicación OSD menos crítica. La sintaxis de la tabla es la siguiente. Si F17 se fija (=1), entonces los octetos de datos hasta el 13 contienen información de parámetros 3D. Por defecto F17 no está fijado (=0), lo que significa que no hay información de parámetros 3D.
Los octetos de datos 12 a 19 indican la ubicación de la superposición OSD/subtítulo. La capa adicional puede ser más pequeña que la capa de vídeo principal, y está situada en función de los datos de ubicación de los octetos 12 a
19. Esto permite que el dispositivo de visualización 3D realice una renderización específica en el área de la pantalla indicada por el indicador de sincronización de tipo de trama. El indicador de sincronización de tipo de trama puede incluir además información de tiempos de sincronización para indicar cuándo debe aparecer y/o desaparecer la información de subtítulos/OSD, por ejemplo en los octetos de datos 20 a 27 denominados parámetros de renderización en la Figura 10.
La Figura 11 muestra una tabla de formatos de vídeo 3D. Los valores que están en la columna izquierda indican un formato de vídeo específico que tiene diferentes tipos de trama respectivos. El valor seleccionado se incluye en el indicador de sincronización de trama, por ejemplo el octeto de datos 7 en la tabla de la Figura 10. El octeto de datos 7 describe el formato de vídeo estereoscópico que el dispositivo fuente (el reproductor) está transmitiendo. La tabla de la Figura 11 enumera algunos de los posibles valores. El valor 0 indica que la trama asociada es 2D; esto es útil cuando se transmiten segmentos de vídeo 2D durante un título 3D. El dispositivo de visualización (un televisor 3D)
imagen9

Claims (1)

  1. imagen1
    imagen2
    imagen3
    imagen4
ES10701925.9T 2009-01-20 2010-01-14 Transferencia de datos de imágenes 3D Active ES2563728T3 (es)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP09150947 2009-01-20
EP09150939 2009-01-20
EP09150947 2009-01-20
EP09150939 2009-01-20
EP09151461 2009-01-27
EP09151461 2009-01-27
PCT/IB2010/050141 WO2010084439A1 (en) 2009-01-20 2010-01-14 Transferring of 3d image data

Publications (1)

Publication Number Publication Date
ES2563728T3 true ES2563728T3 (es) 2016-03-16

Family

ID=41822413

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10701925.9T Active ES2563728T3 (es) 2009-01-20 2010-01-14 Transferencia de datos de imágenes 3D

Country Status (12)

Country Link
US (1) US20120069154A1 (es)
EP (1) EP2389765B1 (es)
KR (1) KR101634569B1 (es)
CN (1) CN102292996B (es)
AU (1) AU2010207508B2 (es)
BR (1) BRPI1005134B1 (es)
CA (1) CA2749896C (es)
ES (1) ES2563728T3 (es)
MX (1) MX2011007645A (es)
RU (1) RU2538333C2 (es)
TW (1) TWI517664B (es)
WO (1) WO2010084439A1 (es)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101972962B1 (ko) * 2009-02-19 2019-04-26 톰슨 라이센싱 3d 비디오 포맷
DE102010009291A1 (de) * 2010-02-25 2011-08-25 Expert Treuhand GmbH, 20459 Verfahren und Vorrichtung für ein anatomie-adaptiertes pseudoholographisches Display
US9571811B2 (en) * 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
IT1401367B1 (it) 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US9258541B2 (en) * 2010-08-17 2016-02-09 Lg Electronics Inc. Apparatus and method for receiving digital broadcasting signal
US20120050462A1 (en) * 2010-08-25 2012-03-01 Zhibing Liu 3d display control through aux channel in video display devices
KR20120020627A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
KR20120027897A (ko) * 2010-09-14 2012-03-22 삼성전자주식회사 3d 디스플레이 엔진, 상기 3d 디스플레이 엔진의 동작 방법, 및 상기 3d 디스플레이 엔진을 포함하는 3d 디스플레이 시스템
CN103703771B (zh) * 2011-07-25 2017-05-10 索尼公司 用于生成3d立体视图的着色方法
US20130044192A1 (en) * 2011-08-17 2013-02-21 Google Inc. Converting 3d video into 2d video based on identification of format type of 3d video and providing either 2d or 3d video based on identification of display device type
TWI486053B (zh) * 2011-09-27 2015-05-21 Realtek Semiconductor Corp 立體影像傳輸方法及立體影像傳輸電路
KR101697385B1 (ko) * 2012-04-05 2017-02-01 한국전자통신연구원 채널 적응형 계층적 방송 장치 및 방법
CN102903320B (zh) 2012-08-17 2015-02-18 深圳市华星光电技术有限公司 4k2k分辨率放大方法及应用该方法的4k2k分辨率放大系统
US9413985B2 (en) * 2012-09-12 2016-08-09 Lattice Semiconductor Corporation Combining video and audio streams utilizing pixel repetition bandwidth
CN103024288B (zh) * 2012-12-26 2017-12-29 新奥特(北京)视频技术有限公司 一种3d文件时间矫正的方法和装置
KR102019495B1 (ko) * 2013-01-31 2019-09-06 삼성전자주식회사 싱크 장치, 소스 장치, 기능 블록 제어 시스템, 싱크 장치 제어 방법, 소스 장치 제어 방법 및 기능 블록 제어 방법
US20150042771A1 (en) * 2013-08-07 2015-02-12 United Video Properties, Inc. Methods and systems for presenting supplemental content in media assets
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
WO2016021809A1 (ko) * 2014-08-08 2016-02-11 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
EP3286916A1 (en) 2015-04-23 2018-02-28 Ostendo Technologies, Inc. Methods and apparatus for full parallax light field display systems
KR20170140187A (ko) 2015-04-23 2017-12-20 오스텐도 테크놀로지스 인코포레이티드 깊이 정보를 이용한 완전 시차 압축 광 필드 합성을 위한 방법
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
KR102512479B1 (ko) * 2015-11-27 2023-03-21 엘지디스플레이 주식회사 홀로그램 디스플레이
KR20170075349A (ko) * 2015-12-23 2017-07-03 한국전자통신연구원 멀티 뷰를 가진 다중영상 송수신 장치 및 다중영상 다중화 방법
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US11202050B2 (en) * 2016-10-14 2021-12-14 Lg Electronics Inc. Data processing method and device for adaptive image playing
CN109803134A (zh) * 2017-11-16 2019-05-24 科通环宇(北京)科技有限公司 一种基于hdmi系统的视频图像传输方法及数据帧结构
CN107895312A (zh) * 2017-12-08 2018-04-10 快创科技(大连)有限公司 一种基于ar技术的网上购物体验系统
TWI723683B (zh) * 2019-12-17 2021-04-01 瑞昱半導體股份有限公司 視訊介面轉換裝置及方法
EP3840368B1 (en) * 2019-12-18 2022-01-26 Axis AB Method of injecting additional data
CN111836037A (zh) * 2020-07-13 2020-10-27 紫旸升光电科技(苏州)有限公司 一种微型显示器3d自动调适影像显示系统及方法
TWI812887B (zh) * 2020-10-07 2023-08-21 瑞昱半導體股份有限公司 偵測電路和喚醒方法
CN114666415B (zh) * 2022-05-16 2022-09-09 宏晶微电子科技股份有限公司 数据传输方法、显示设备及控制设备
CN116886845B (zh) * 2023-09-04 2023-12-15 湖北芯擎科技有限公司 自适应的参数更新方法、装置、计算机设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979033A (en) 1988-09-27 1990-12-18 Stephens Berton H Stereoscopic video system and method with field synchronization and intensity control
US5818419A (en) * 1995-10-31 1998-10-06 Fujitsu Limited Display device and method for driving the same
US6704042B2 (en) * 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
US6407736B1 (en) * 1999-06-18 2002-06-18 Interval Research Corporation Deferred scanline conversion architecture
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
TW580826B (en) * 2001-01-12 2004-03-21 Vrex Inc Method and apparatus for stereoscopic display using digital light processing
US7088398B1 (en) * 2001-12-24 2006-08-08 Silicon Image, Inc. Method and apparatus for regenerating a clock for auxiliary data transmitted over a serial link with video data
KR100556826B1 (ko) * 2003-04-17 2006-03-10 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상을 서비스하기 위한 인터넷 방송 시스템 및 그 방법
US8879823B2 (en) * 2005-06-23 2014-11-04 Koninklijke Philips N.V. Combined exchange of image and related data
US8189034B2 (en) * 2005-06-23 2012-05-29 Koninklijke Philips Electronics N.V. Combined exchange of image and related depth data
JP2007065067A (ja) * 2005-08-29 2007-03-15 Seijiro Tomita 立体映像表示装置
RU2298297C1 (ru) * 2005-10-03 2007-04-27 Борис Иванович Волков Система стереотелевидения
JP4179387B2 (ja) * 2006-05-16 2008-11-12 ソニー株式会社 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
WO2009075495A1 (en) * 2007-12-10 2009-06-18 Samsung Electronics Co., Ltd. System and method for generating and reproducing image file including 2d image and 3d stereoscopic image
RU2516499C2 (ru) * 2007-12-18 2014-05-20 Конинклейке Филипс Электроникс Н.В. Передача данных стереоскопического изображения через интерфейс устройства отображения
KR101488199B1 (ko) * 2008-03-12 2015-01-30 삼성전자주식회사 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
JP5338166B2 (ja) * 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法

Also Published As

Publication number Publication date
CA2749896C (en) 2019-02-19
CA2749896A1 (en) 2010-07-29
TW201103311A (en) 2011-01-16
WO2010084439A1 (en) 2010-07-29
EP2389765B1 (en) 2016-01-13
KR20110114673A (ko) 2011-10-19
EP2389765A1 (en) 2011-11-30
BRPI1005134B1 (pt) 2021-07-20
MX2011007645A (es) 2011-09-06
KR101634569B1 (ko) 2016-06-29
CN102292996B (zh) 2014-09-17
RU2538333C2 (ru) 2015-01-10
TWI517664B (zh) 2016-01-11
RU2011134872A (ru) 2013-02-27
AU2010207508A1 (en) 2011-09-08
CN102292996A (zh) 2011-12-21
US20120069154A1 (en) 2012-03-22
BRPI1005134A2 (pt) 2020-01-28
AU2010207508B2 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
ES2563728T3 (es) Transferencia de datos de imágenes 3D
ES2626302T3 (es) Transmisor, método de transmisión de datos de imagen tridimensional, receptor y método de recepción de datos de imagen tridimensional
US20190215508A1 (en) Transferring of 3d image data
CN101601291B (zh) 传输装置、图像数据传输方法、接收装置和接收装置的图像显示方法
TWI488172B (zh) 多螢幕顯示
US20110074921A1 (en) Transmitter, transmitting method, receiver and receiving method
US10255875B2 (en) Transmission device, transmission method, reception device, reception method, and transmission/reception system
US9319658B2 (en) Digital video signal output device and display device, and digital video signal output method and reception method
US11381800B2 (en) Transferring of three-dimensional image data
JP6085626B2 (ja) 3d画像データの転送