ES2868358T3 - Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos - Google Patents

Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos Download PDF

Info

Publication number
ES2868358T3
ES2868358T3 ES10828234T ES10828234T ES2868358T3 ES 2868358 T3 ES2868358 T3 ES 2868358T3 ES 10828234 T ES10828234 T ES 10828234T ES 10828234 T ES10828234 T ES 10828234T ES 2868358 T3 ES2868358 T3 ES 2868358T3
Authority
ES
Spain
Prior art keywords
video
identification information
frame
switching
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10828234T
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Application granted granted Critical
Publication of ES2868358T3 publication Critical patent/ES2868358T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]

Abstract

Un receptor, que comprende: una unidad de procesamiento de decodificación adaptada para decodificar una señal de vídeo recibida desde un transmisor; una unidad de adquisición de información de identificación adaptada para adquirir información de identificación que incluye un formato relativo a 2D o 3D de vídeo a partir de una capa correspondiente a cada trama de la señal de vídeo; y una unidad de procesamiento adaptada para realizar el procesamiento de la visualización de una imagen mediante la señal de vídeo sobre la base de la información de identificación, en donde la unidad de procesamiento incluye una unidad de puesta en escala adaptada para realizar una puesta en escala espacial o temporal de datos de vídeo sobre la base de la información de identificación y, cuando se conmuta el formato del vídeo, conmutar los parámetros para el ajuste de una puesta en escala para la sincronización de la conmutación, caracterizado porque la información de identificación contiene información de compensación que indica el momento en que se produce la conmutación del formato 3D del vídeo o el momento en que se produce la conmutación del vídeo 3D y del vídeo 2D y la unidad de puesta a escala está adaptada para iniciar, en función de la información de compensación, el procesamiento para conmutar los parámetros antes del momento en que se produce la conmutación, en donde la información de identificación contiene información que indica si las fases espaciales o temporales de dos vistas para un ojo izquierdo y un ojo derecho, según el formato 3D, tienen las mismas fases o fases diferentes.

Description

DESCRIPCIÓN
Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos CAMPO TÉCNICO
La presente invención se refiere a un receptor, un transmisor, un sistema de comunicación, un método de control de visualización, un programa y una estructura de datos.
ANTECEDENTES
En la técnica relacionada, se conocen varios sistemas para visualizar vídeo estereoscópico. Por ejemplo, tal como se describe en las publicaciones de patentes 1 a 3, un método para suministrar de manera alternativa una imagen del ojo izquierdo y una imagen del ojo derecho con un paralaje entre ellas a una pantalla en un ciclo predeterminado y observar estas imágenes mediante el uso de gafas que incluyen un obturador de cristal líquido accionado en sincronización con el ciclo predeterminado.
Lista de citas de referencia
Literatura de patentes
Literatura de patentes 1: JP 9-138384A
Literatura de patentes 2: JP 2000-36969A
Literatura de patentes 3: JP 2003-45343A
Literatura de patentes 4: Solicitud de patente de EE. UU. abierta al pública núm. 2009/092335
Literatura de patentes 5: Solicitud de patente de EE. UU. abierta al público núm. 2009/096864
El documento EP 1633148 A1 describe un receptor de imágenes utilizado en un aparato de reproducción de imágenes y tiene una unidad de conversión de imágenes que convierte los datos de imagen en una imagen tridimensional según un formato predeterminado especificado por información adicional separada de los datos de imagen.
El documento EP1734766 A2, Estructura de flujo de transporte para transmisión de TV digital, tiene una unidad de información de identificación para indicar si los datos de imagen almacenados representan una imagen tridimensional o bidimensional. Una carga útil comprende datos de imagen. Una cabecera incluye información de control para visualizar una imagen incluida en la carga útil, y un parámetro característico de imagen que comprende información de identificación que indica si los datos de imagen son una imagen tridimensional o bidimensional.
SUMARIO
Problema técnico
Cuando se supone que un contenido, tal como un programa de televisión, se transmite desde una estación de radiodifusión al televisor de un usuario, se puede considerar la transmisión, conmutando vídeo 3D y vídeo 2D, como datos de vídeo. Por ejemplo, se puede considerar un caso en donde la parte principal de un programa se transmite como vídeo 3D y la publicidad comercial como vídeo 2D.
Diferentes modos, tal como el modo lado a lado, el modo arriba-abajo y el modo secuencial de campo, se conocen como modos de vídeo 3D. Por tanto, se supone que los datos de vídeo transmitidos desde el lado de una estación de radiodifusión se transmiten después de haber sido conmutados de manera dinámica entre varios métodos que se ajustan al contenido de vídeo.
En tal caso, se supone que es posible que el televisor del lado del usuario no pueda mostrar una imagen de forma correcta inmediatamente después de la conmutación. Lo que antecede se debe a que varios parámetros (tales como el tamaño y la frecuencia de la imagen) relacionados con el vídeo antes y después de la conmutación cambian y, por lo tanto, es necesario conmutar el procesamiento de visualización en el lado del televisor. Para mostrar imágenes de manera correcta inmediatamente después de la conmutación, es necesario comunicar datos al receptor, incluyendo la sincronización de la conmutación de formato, pero la tecnología de la técnica relacionada en las literaturas de patentes 4 y 5 no presupone tal mecanismo.
La presente invención se ha realizado en vista del problema anterior y es deseable proporcionar un receptor capaz de realizar la visualización adecuada inmediatamente después de la conmutación cuando se conmuta una señal de vídeo que incluye vídeo estereoscópico, un transmisor, un sistema de comunicación, un método de control de visualización, un programa y una estructura de datos.
Solución al problema
La invención está definida por las reivindicaciones independientes. Las reivindicaciones dependientes definen formas de realización ventajosas.
Efectos ventajosos de la invención
Según la presente invención, cuando se conmuta una señal de vídeo que incluye vídeo estereoscópico, se puede realizar una visualización adecuada inmediatamente después de la conmutación.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 es un diagrama esquemático que muestra un ejemplo de configuración de un receptor según una forma de realización de la presente invención.
La Figura 2 es un diagrama esquemático que muestra un ejemplo en donde se produce la conmutación de 3D_Type. La Figura 3 es un diagrama esquemático que proporciona una descripción general de la información añadida a una sintaxis de flujo de una capa de códec de cada trama.
La Figura 4 es un diagrama esquemático que muestra datos de la información añadida a la sintaxis de flujo de la capa de códec de cada trama.
La Figura 5 es un diagrama esquemático que ilustra datos de un tipo 3D.
La Figura 6 es un diagrama esquemático que ilustra datos del tipo 3D.
La Figura 7 es un diagrama esquemático que muestra otra información añadida a la sintaxis.
La Figura 8 es un diagrama esquemático que muestra un caso en donde el vídeo se conmuta de 3D a 2D.
La Figura 9 es un diagrama esquemático que muestra un caso en donde el vídeo se conmuta de 3D a 2D y luego, el vídeo se conmuta de 2D a 3D.
La Figura 10 es un diagrama esquemático que muestra los parámetros antes y después de la conmutación en un procesador de extremo posterior.
La Figura 11 es un diagrama esquemático que ilustra un concepto de copia de vista.
La Figura 12 es un diagrama esquemático que ilustra los cambios de la configuración de la memoria.
La Figura 13 es un diagrama esquemático que muestra la configuración de un transmisor según la presente forma de realización.
La Figura 14 es un diagrama esquemático que muestra tramas correspondientes al tipo 3D cuando los datos 3D son de un tipo entrelazado de un método secuencial de campo basado en tramas.
La Figura 15 es un diagrama esquemático que muestra tramas correspondientes al tipo 3D cuando los datos 3D son de un tipo entrelazado del método secuencial de campo.
La Figura 16 es un diagrama esquemático que muestra tramas correspondientes al tipo 3D cuando los datos 3D están en modo de lado a lado.
La Figura 17 es un diagrama esquemático que muestra las tramas correspondientes al tipo 3D cuando los datos 3D están en modo arriba-abajo.
La Figura 18 es un diagrama esquemático que muestra un funcionamiento del receptor basado en un indicador de prohibición de conversión.
La Figura 19 es un diagrama esquemático que muestra el funcionamiento del receptor sobre la base del indicador de prohibición de conversión.
La Figura 20 es un diagrama esquemático que muestra el funcionamiento del receptor sobre la base del indicador de prohibición de conversión.
DESCRIPCIÓN DE LA FORMA DE REALIZACIÓN
A continuación, se describirán en detalle formas de realización preferidas de la presente invención con referencia a los dibujos adjuntos. Conviene señalar que, en esta especificación y en los dibujos, los elementos que tienen prácticamente la misma función y estructura se indican con los mismos signos de referencia y se omite la explicación repetida.
La descripción se proporcionará en el orden que se muestra a continuación:
(1) Ejemplo de configuración del receptor
(2) Ejemplo de conmutación desde el tipo 3D
(3) Información añadida a la capa de códec
(4) Conmutación de tipo 3D
(5) Parámetro antes y después de conmutar en el procesador de extremo posterior
(6) Concepto de copia de vista
(7) Cambios en la configuración de la memoria
(8) Ejemplo de configuración del transmisor
[(1) Ejemplo de configuración del receptor]
En primer lugar, se describirá una configuración esquemática de un receptor 100 según la presente forma de realización basándose en los dibujos. La Figura 1 es un diagrama esquemático que muestra un ejemplo de configuración del receptor 100. Como ejemplo, el receptor 100 es un televisor que recibe transmisión digital terrestre o similar y recibe un flujo binario de, por ejemplo, vídeo estereoscópico (vídeo 3D) compuesto de vídeo del ojo izquierdo y vídeo del ojo derecho y decodifica el flujo binario antes de hacer que un panel de visualización muestre el flujo binario. El receptor 100 también recibe un flujo binario de vídeo bidimensional normal (vídeo 2D) y combina el flujo binario antes de hacer que el panel de visualización muestre el flujo binario.
Un transmisor, de conformidad con la presente forma de realización, transmite conmutando apropiadamente vídeo 3D y 2D de conformidad con fuentes de vídeo. Por ejemplo, la parte principal de un programa se transmite como vídeo 3D y la publicidad comercial insertada entre ellos se transmite como vídeo 2D. Al transmitir vídeo 3D, el transmisor puede transmitir conmutando apropiadamente vídeo 3D de diferentes formatos (modos). Los formatos de vídeo 3D incluyen, por ejemplo, el modo lado a lado, el modo arriba-abajo y el modo secuencial de tramas.
Por tanto, se hace necesario que el lado del receptor 100 conmute el procesamiento de recepción de forma estática o dinámica de conformidad con la conmutación de vídeo desde el transmisor. Por tanto, en la presente forma de realización, cuando se conmuta dinámicamente entre formatos 3D o entre 3D y 2D, se inserta un formato de conmutación en la sintaxis de flujo de la capa de códec y también se inserta un parámetro del desplazamiento temporal antes de la conmutación. Por consiguiente, se pueden asegurar suficientes preparaciones temporales para el sistema de procesamiento de un procesador de imágenes en el lado del transmisor 100 para la sincronización de conmutación objetivo.
Si, por ejemplo, se conmuta dinámicamente entre 3D y 2D, es necesaria una memoria adicional. Además, cuando se produce la conmutación, puede ser necesario liberar una memoria. Tal como se describirá más adelante, puede llevar tiempo en unidades de segundos liberar o inicializar una memoria.
En tal caso, si la información de tiempo antes de la conmutación se introduce utilizando una capa de contenedor tal como la marca de tiempo (TS), la información de tiempo depende de la marca de tiempo y, por lo tanto, es difícil asociar directamente la relación de tiempo directa con la sincronización de vídeo V. Además, es posible que la marca de tiempo no se adjunte a todas las imágenes y, por lo tanto, es difícil controlar la conmutación con precisión en sincronización con las tramas de vídeo.
Por lo tanto, según la presente forma de realización, el parámetro de desplazamiento temporal antes de la conmutación se inserta básicamente en una posición correspondiente a la cabecera de imagen en la capa de códec. Por consiguiente, se inserta un parámetro en cada trama de una señal de vídeo de modo que la sincronización de la señal de vídeo se pueda procesar en unidades de trama. La sincronización y la posición de una imagen del ojo izquierdo L y una imagen del ojo derecho R se insertan como otros parámetros. En consecuencia, las imágenes decodificadas se pueden mostrar en el orden correcto. En la descripción que sigue, se asume que SEI (Información de Mejora Suplementaria: datos de usuario) se define en la norma MPEG-4 AVC (H.264/MPEG-4 AVC) y se inserta en una posición equivalente de unidad de imagen. En consecuencia, la información de identificación se inserta en cada trama y se mantiene una relación directa con un formato de vídeo 3D de modo que la sincronización de conmutación en el ciclo de vídeo se pueda gestionar con facilidad. La información anterior se inserta en la cabecera de imagen de un flujo binario, pero en el caso de, por ejemplo, MPEG-4 AVC, la información puede insertarse de manera adicional en parámetros de secuencia (cabecera de secuencia), parámetros de imagen equivalentes de la unidad GOP o similares. En consecuencia, los parámetros tales como el desplazamiento temporal se pueden adquirir sin ver información en una capa superior. El contenido anterior también se aplica cuando el códec no es solamente MPEG4 AVC, sino también vídeo MPEG2, VC-1 o MPEG4 Visual.
Tal como se describirá a continuación, el contenido 2D y el contenido 3D se mezclan en un solo flujo en la presente forma de realización y cuando se transmite 2D después de convertirse en un formato 3D, se proporciona un indicador para que el lado de la pantalla pueda identificar una diferencia si el formato antes de la conversión es 2D o 3D.
Tal como se muestra en la Figura 1, el receptor 100 incluye un analizador sintáctico de cabecera 102, un decodificador elemental 104, un procesador de extremo posterior 106 y un control del sistema 110. La configuración mostrada en la Figura 1 se puede configurar mediante un circuito (hardware) o una CPU (unidad central de procesamiento) y un programa (software) para hacer que el circuito o CPU funcione. En este caso, el programa se puede almacenar en una memoria incluida en el receptor 100 o en un medio de almacenamiento externo.
En la Figura 1, el analizador sintáctico de cabecera 102 detecta que 3D está contenido en un flujo recibido desde el transmisor y notifica al control del sistema 110 de la detección. El decodificador elemental 104 decodifica los datos de vídeo del flujo recibido desde el transmisor y envía los datos de vídeo decodificados al procesador de extremo posterior 106. El decodificador elemental 104 también detecta información de 3D_Type en el flujo de vídeo y notifica al control del sistema 110 el tamaño de la imagen, la estructura de la trama y la frecuencia de la trama junto con la información de Picture_type. Si los datos de vídeo tienen una marca de tiempo, el decodificador elemental 104 añade la marca de tiempo a la información anterior antes de que se envíe una notificación al control del sistema 110.
El control del sistema 110 especifica imágenes que se mostrarán desde la memoria intermedia de salida del decodificador en el orden de marca de tiempo o de conformidad con Picture_Type y realiza una notificación de las mismas al procesador de extremo posterior 106. De conformidad con la notificación desde el control del sistema 110, el procesador de extremo posterior 106 establece el orden de salida de cada imagen extraída de la memoria intermedia en donde se acumulan los datos decodificados y proporciona el orden de salida a la etapa siguiente. Si, por ejemplo, se decodifican B imágenes de MPEG-4 AVC, se produce un reordenamiento y el procesador de extremo posterior 106 especifica el orden de salida de cada trama bajo las instrucciones del control del sistema 110.
En este punto, el control del sistema 110 notifica al procesador de extremo posterior 106 de la información de 3D_Type, el tamaño de imagen y la estructura de la trama de los datos de vídeo y también especifica una puesta en escala espacial necesaria o el procesamiento temporal tal como el desentrelazado. A continuación, durante la cuenta regresiva de FrameCountDown, el control del sistema 110 especifica el tiempo (número de tramas) antes de conmutar de conformidad con el valor del mismo y el 3D_Type recién conmutado.
Las preparaciones se realizan dentro del procesador de extremo posterior 106 para que el procesamiento se pueda conmutar sin problemas en la sincronización cuando se produce la conmutación 3D_Type y el sistema de procesamiento se conmuta en sincronización con el punto de conmutación. Tal como se describirá en detalle más adelante, el procesador de extremo posterior 106 realiza principalmente el procesamiento de una puesta en escala espacial y temporal de conformidad con 3D_Type y 2D_Type y prepara la configuración de la memoria para que el procesamiento se pueda conmutar sin problemas.
Como procesamiento específico para vídeo 3D, el procesador de extremo posterior 106 intercala datos de imagen de la imagen L del ojo izquierdo y de la imagen R del ojo derecho después de ser decodificados en la dirección del tiempo para hacer que los datos de imagen sean adecuados para un sistema de visualización 3D. De manera alternativa, el procesador de extremo posterior 106 intercala la imagen L del ojo izquierdo y la imagen R del ojo derecho en la dirección perpendicular a la pantalla para cada línea para hacer que los datos de imagen sean adecuados para un sistema de visualización 3D. Ambos métodos de visualización requieren gafas 3D, pero como es de conocimiento público, ya existen dispositivos de visualización sin gafas.
[(2) Ejemplo de conmutación desde el tipo 3D]
La Figura 2 es un diagrama esquemático que muestra un ejemplo en donde se produce la conmutación de 3D_Type y muestra un caso en donde 3D_Type cambia desde el modo arriba-abajo al modo secuencial de tramas. La Figura 2 muestra cómo las tramas cambian de manera cronológica desde el n° 1 al n° 7. Cada trama tiene información del valor de cuenta regresiva de la trama (FrameCountDown), el indicador de reinicio de tipo 3D (3D_Type_Reset_flag), el tipo 3D (3D_Type) y el siguiente tipo 3D después de la conmutación (Next_3D_type_after_reset) añadido a la sintaxis de flujo de la capa codificada. Por tanto, el receptor 100 adquiere esta información desde cada trama.
El valor de cuenta regresiva de tramas es un valor que indica el número de tramas antes de la conmutación. En el ejemplo de la Figura 2, la conmutación no se especifica para la trama n° 1 y el valor de cuenta regresiva de la trama para la trama n° 1 se establece en 0xFF. Por tanto, cuando se reciben los datos de la n° 1, no se reconoce ninguna conmutación. La siguiente trama n° 2 tiene el valor de cuenta regresiva de 2. Lo que antedece muestra que la conmutación ocurrirá cuando dos tramas pasen después de la trama n° 2. El valor de la cuenta regresiva de la trama disminuye en 1 en las tramas posteriores n° 3 y n° 4 y se convierte en 0 en la trama n° 4 inmediatamente antes de la conmutación.
El indicador de reinicio de tipo 3D es un indicador que indica que se reinicia el tipo 3D. Si el indicador de restablecimiento de tipo 3D se establece en 0, ello indica que el tipo 3d no se restablece y el mismo 3D se establece en la siguiente trama. Por otro lado, si el indicador de reinicio de tipo 3D se establece en 1, el tipo 3D se reinicia en la trama para finalizar el tipo 3D hasta la trama actual y se establece un tipo 3D diferente en la trama siguiente.
El tipo 3D es información que indica el tipo 3D de la trama actual. En la trama n° 1, el tipo 3D es 000100 y este tipo 3D indica que, tal como se describirá a continuación, el modo 3D de la trama actual es el modo arriba-abajo. En la trama n° 5, después de que se conmute el tipo 3D, el tipo 3D es 000000 y este tipo 3D indica que el modo 3D de la trama actual es el modo 2D en la técnica relacionada.
El siguiente tipo de trama es información que indica el tipo de trama después de un reinicio. Si se reinicia el tipo 3D, el tipo 3D después de la conmutación se muestra en el siguiente tipo de trama. Si, por ejemplo, el valor de la cuenta regresiva se establece en 2 en la trama n° 2, la trama se restablece después de dos tramas y 000000 indica que el 2D en la técnica relacionada se especifica como el siguiente tipo de trama. En la etapa de la trama n° 1, el valor de la cuenta regresiva de la trama es 0x00 y no se indica si se conmutará el tipo de 3D y, por lo tanto, el siguiente tipo de trama se indica como xxxx.
Por lo tanto, en el ejemplo de la Figura 2, los datos se transmiten en modo arriba-abajo en la trama n° 1 sin indicar si se conmutará el tipo 3D. En el trama n° 2, el valor de cuenta regresiva de tramas se establece en 2, lo que indica que el tipo 3D actual (modo arriba-abajo) se restablece después de dos tramas y se conmuta al modo secuencial de tramas, que es el siguiente tipo de trama. En la trama n° 3, el valor de la cuenta regresiva de la trama se establece en 1, lo que indica que el tipo 3D actual se restablece en la siguiente trama y se conmuta al 2D en la técnica relacionada, que es el siguiente tipo de trama. A continuación, en la trama n° 4, el valor de la cuenta regresiva de la trama se establece en 0 y el indicador de reinicio de tipo 3D se establece en 1, lo que indica que el tipo 3D actual se reinicia en la trama actual y, desde la siguiente trama en adelante, el tipo 3D se conmuta al 2D en la técnica relacionada, que es el siguiente tipo de trama.
En la trama n° 5, el tipo 3D se establece en 000000, lo que indica que los datos 3D de la trama actual están en modo 2D en la técnica relacionada. Además, el valor de la cuenta regresiva de la trama se establece en 0xFF y el indicador de reinicio del tipo 3D se establece en 0 y, por lo tanto, no se indica si se conmutará el tipo 3D. Como no se indica ninguna conmutación, el siguiente tipo de trama se indica como xxxxxx.
En el ejemplo de la Figura 2, tal como se describió con anterioridad, la información del valor de cuenta regresiva de la trama, el indicador de reinicio del tipo 3D, el tipo 3D y el siguiente tipo 3D se añade a la sintaxis de flujo de la capa de códec. Por lo tanto, el receptor 100 puede adquirir el tipo 3D de la trama actual y si la conmutación del tipo 3D ocurre a continuación y la sincronización hasta la conmutación del tipo 3D puede adquirirse de antemano. Por consiguiente, los preparativos para el procesamiento de una puesta en escala de conformidad con la conmutación y los preparativos para cambiar la configuración de la memoria se pueden realizar de antemano.
[(3) Información de identificación añadida a la capa de códec]
La Figura 3 es un diagrama esquemático que proporciona una descripción general de la información de identificación añadida a la sintaxis de flujo de la capa de códec de cada trama. Tal como se muestra en la Figura 3, el ID de señalización del formato 3D de 8 bits se añade a la sintaxis del flujo como datos de usuario y también el indicador de reinicio de tipo 3D (1 bit), el indicador de prohibición de conversión (1 bit), los bits reservados (6 bits), el valor de cuenta regresiva de trama (Frame_Countdown_to_reset, 8 bits), el tipo 3D (6 bits), la copia de vista (View_copy, 1 bit), L_First_flag (1 bit), el tipo 3D siguiente (6 bits) y Reference_Dependency (2 bits).
El ID de señalización de formato 3D es generalmente datos de usuario y corresponde, en MPEG4-AVC, a la definición de usuario de SEI. Cada uno de los datos anteriores se puede añadir de la misma manera que el período de almacenamiento en memoria intermedia SET y el tiempo de imagen SET definido en MPEG y se añade a cada una de todas las tramas. La información se describirá en detalle a continuación.
Las Figuras 4, 5, 6 y 7 son diagramas esquemáticos que muestran datos de la información añadida a la sintaxis de flujo de la capa de códec de cada trama. Si, tal como se muestra en la Figura 4, el indicador de reinicio de tipo 3D es 1, el tipo 3D actual se reinicia en la trama actual. Si el indicador de reinicio de tipo 3D es 0, se mantiene el tipo 3D actual. El valor de la cuenta regresiva de la trama indica el valor de compensación de tiempo hasta el reinicio de tipo 3D y cuando el valor del mismo se convierte en 0x00, el indicador de reinicio del tipo 3D se establece en 1. Si la trama no se reinicia inmediatamente en el futuro y el valor del recuento regresivo de tramas no se utiliza, su valor se establece en 0xFF.
Las Figuras 5 y 6 son diagramas esquemáticos que ilustran datos del tipo 3D. Tal como se muestra en las Figuras 5 y 6, además, del modo lado a lado y del modo secuencial de tramas que se muestran en la Figura 2, se pueden especificar varios modos tales como información de tipo 3D. Tal como se describirá a continuación, 100000 y 100001 indican un caso en donde los datos 3D son datos progresivos en modo secuencial de campo. 100000 indica una primera vista y 100001 indica una segunda vista. Básicamente, una de entre la primera vista y la segunda vista es la imagen del ojo izquierdo L y la otra es la imagen del ojo derecho R. El hecho de que la primera vista y la segunda vista corresponda a la imagen del ojo izquierdo L o la imagen del ojo derecho R se especifica mediante L_First_Flag.
110000, 110001,110010 y 110011 indican un caso en donde los datos 3D son datos entrelazados en modo secuencial de campo basado en tramas. 11000 indica que el campo superior es la primera vista del primer campo de un par de tramas y el campo inferior es la segunda vista del primer campo. 110000 corresponde a la Figura 14A. 110001 indica que el campo superior es la primera vista del segundo campo de un par de tramas y el campo inferior es la segunda vista del segundo campo. 110001 corresponde a la Figura 14B. 110010 indica que el campo superior es la primera vista del primer campo de un par de tramas y el campo inferior es la segunda vista del segundo campo. 110010 corresponde a la Figura 14C. 110011 indica que el campo superior es la primera vista del segundo campo de un par de tramas y el campo inferior es la segunda vista del primer campo. 110011 corresponde a la Figura 14D.
010000 y 010001 indican un caso en donde los datos 3D están en modo secuencial de campo y 010000 indican la primera vista del primer campo. 010001 indica la segunda vista del primer campo.
010010 y 010011 indican un caso en donde los datos 3D están en modo secuencial de campo y 010000 indican la primera vista del segundo campo. 010011 indica la segunda vista del segundo campo.010000, 010001, 010010 y 010011 corresponden a las Figuras 15A, 15B, 15C y 15D, respectivamente.
Por lo tanto, en el método de asignación de la primera vista/segunda vista al campo superior/campo inferior en modo secuencial de campo, ya sea para adoptar campos de la misma sincronización o campos de diferente sincronización de las imágenes fuente respectivas de dos vistas de la primera vista/la segunda vista se hace especificable. Lo que antecede permite una configuración adaptativa de conformidad con las características de paralaje de las imágenes fuente. En este caso, existen casos en los que la primera vista adopta la vista superior de una imagen de origen y la segunda vista también adopta el campo superior de la imagen de origen y cuando la primera vista adopta la vista superior de la imagen de origen y la segunda vista adopta el campo inferior de la imagen fuente.
001000 y 001001 indican el modo de lado a lado y también indican que el lado izquierdo es la primera vista y el lado derecho es la segunda vista. De estos, 001000 indica que el lado izquierdo y el lado derecho tienen la misma posición de muestreo y la posición de muestreo está en píxeles pares. 001001 indica que el lado izquierdo y el lado derecho tienen la misma posición de muestreo y la posición de muestreo está en píxeles impares. 001000 y 001001 corresponden a las Figuras 16A y 16B, respectivamente. 001010 y 001011 indican el modo de lado a lado y también indican que el lado izquierdo es la primera vista y el lado derecho es la segunda vista. De estos, 001010 indica que el lado izquierdo y el lado derecho tienen posiciones de muestreo alternativas y la primera vista está en píxeles pares y la segunda vista está en píxeles impares. 001011 indica que el lado izquierdo y el lado derecho tienen posiciones de muestreo alternativas y la primera vista está en píxeles impares y la segunda vista está en píxeles pares. 001000 y 001001 corresponden a las Figuras 16C y 16D, respectivamente.
000100 y 000101 indican el modo arriba-abajo y también indican que el lado superior es la primera vista y el lado inferior es la segunda vista. De estos, 000100 indica que el lado superior y el lado inferior tienen la misma posición de muestreo y la primera vista y la segunda vista se muestrean ambas en líneas pares. 000101 indica que el lado superior y el lado inferior tienen posiciones de muestreo alternativas y la primera vista se muestrea en líneas pares y la segunda vista se muestrea en líneas impares. 000100 y 000101 corresponden a las Figuras 17A y 17B, respectivamente.
000110 y 000111 indican el modo arriba-abajo y también indican que el lado superior es la primera vista y el lado inferior es la segunda vista. De estos, 000110 indica que el lado superior y el lado inferior tienen posiciones de muestreo alternativas y la primera vista se muestrea en líneas impares y la segunda vista se muestrea en líneas pares.
000111 indica que el lado superior y el lado inferior tienen posiciones de muestreo alternativas y que la primera y la segunda vista se muestrean en líneas impares. 000110 y 000111 corresponden a las Figuras 17C y 17D, respectivamente.
Al decidir el tipo de 3D tal como se describió con anterioridad, cuando la primera vista y la segunda vista están entrelazadas, se puede mostrar explícitamente si asignar la misma fase temporal o fases diferentes a las dos vistas. Al adoptar diferentes fases temporales, la precisión temporal de la calidad de conformidad con el paralaje se puede mejorar con diferentes fases al intercalar cronológicamente en modo secuencial de trama o secuencial de campo.
Además, en fases espaciales, particularmente submuestras en la dirección horizontal, se puede mostrar explícitamente si asignar la misma fase de muestra o diferentes fases. En consecuencia, por ejemplo, cuando se intercalan espacialmente dos vistas en modo lado a lado, la resolución espacial horizontal en una parte con menos paralaje se puede mejorar adoptando diferentes fases espaciales. Además, en submuestras en la dirección vertical, se puede mostrar explícitamente si asignar la misma fase de muestra o diferentes fases. En consecuencia, cuando se intercalan espacialmente dos vistas en el modo arriba-abajo, la resolución espacial vertical en una parte con menos paralaje puede mejorarse adoptando diferentes fases espaciales. De conformidad con los ajustes de tipo 3D descritos con anterioridad, se puede lograr un efecto de mejora de la calidad especificando y codificando de manera selectiva el tipo 3D al transmitir cada formato.
Si el tipo 3D es 000000, no se especifica ningún formato 3D, lo que indica que los datos de vídeo son 2D. Si no se agrega información del tipo 3D (6 bits) mostrada en la Figura 4, el receptor 100 gestiona los datos como datos 2D.
De conformidad con la información de tipo 3D descrita con anterioridad, si el secuencial de tramas, el secuencial de campo, los modos de lado a lado, de arriba-abajo, o el formato 2D como formato 3D se pueden considerar verificando el bit donde el primero 1 de 6 bits está establecido. Por cierto, el lado receptor puede rechazar cualquier otro tipo de 3D que no sean los tipos anteriores.
La información de la copia de vista mostrada en la Figura 4 es información que indica si se ha creado un par de tramas 3D (primera vista, segunda vista) mediante copia. Si la copia de la vista es 1, ello indica que la segunda vista es una copia de la primera vista. En este caso, la primera vista y la segunda vista son iguales y el par de tramas 3D se gestiona como datos 2D en el lado del receptor 100. Si la copia de la vista es 0, ello indica que la primera vista y la segunda vista son datos independientes y en este caso, el lado del receptor puede reconocer que el par de tramas 3D son datos 3D.
La Figura 7 es un diagrama esquemático que muestra otra información añadida a la sintaxis. L_First_Flag es un indicador que indica cuál de la primera vista y de la segunda vista corresponde a la imagen del ojo izquierdo L o a la imagen del ojo derecho R. Si L_First_Flag es 1, ello indica que la primera vista es la imagen del ojo izquierdo L. Si L_First_Flag es 0, ello indica que la primera vista es la imagen R del ojo derecho. El siguiente tipo 3D es, tal como se describió con anterioridad, información que indica el tipo 3D después de conmutar y se puede especificar de la misma manera que el tipo 3D.
Reference_Dependency son datos que indican si los datos de referencia de compensación de movimiento de MPEG o similares se extienden sobre tramas. Si Reference_Dependency es 10, una trama de la 1a vista utiliza solamente las tramas de la otra 1a vista como datos de referencia y una trama de la 1a vista no utiliza ninguna trama de la 2a vista como datos de referencia. En este caso, no se impone ninguna restricción en la segunda vista y una trama de la segunda vista puede utilizar una trama de la primera vista u otra segunda vista como datos de referencia.
Si Reference_Dependency es 01, una trama de la segunda vista utiliza solamente tramas de otra segunda vista como datos de referencia y una trama de la segunda vista no utiliza ninguna trama de la primera vista como datos de referencia. En este caso, no se impone ninguna restricción sobre la primera vista y una trama de la primera vista puede utilizar una trama de otra primera vista o segunda vista como datos de referencia.
Si Reference_Dependency es 11, una trama de la 1a vista utiliza solamente las tramas de la otra 1a vista como datos de referencia y una trama de la 2a vista utiliza solamente las tramas de la otra 2a vista como datos de referencia. Si Reference_Dependency es 00, no existe restricción de datos de referencia para ninguna vista.
Con una disposición de Reference_Dependency, tal como se describió con anterioridad, el procesamiento se puede hacer más eficiente, por ejemplo, decodificando solamente la primera vista cuando se muestre una imagen 2D con la imagen del ojo izquierdo L solamente de las imágenes izquierda y derecha recibidas sólo por la imagen del ojo izquierdo que es objeto de referencia por la primera vista para la imagen del ojo izquierdo L.
En la presente forma de realización, la información de las Figuras 3 a 7 se inserta en SEI de MPEG4 AVC. Por otro lado, en otras normas de códecs, la información se puede insertar en una ubicación correspondiente en cada trama de una señal de vídeo. Por ejemplo, en vídeo MPEG2, VC1 o MPEG4 Visual, la conmutación sincronizada con la señal de vídeo se puede realizar introduciendo la inserción en cada trama en la capa de una señal de vídeo.
Para vídeo MPEG2 (H.262 ISO/IEC IS 13818.2 Tecnología de la información - Codificación genérica de imágenes en movimiento e información de audio asociada: Vídeo), por ejemplo, la introducción puede realizarse en la zona de datos de usuario de la cabecera de imagen definida para el formato. También en este caso, los datos se pueden insertar, además, en la cabecera de secuencia, cabecera de segmento o cabecera de macrobloque.
[(4) Conmutación de tipo 3D]
A continuación, se describirá en detalle la conmutación de tipo 3D. La Figura 8 es un diagrama esquemático que muestra un caso en donde el vídeo se conmuta de 3D a 2D. La parte superior de la Figura 8 muestra, de forma esquemática, los datos de cada trama recibida por un receptor y las tramas n° 1 a n° 6 se transmiten a una frecuencia de 60 [Hz] como datos progresivos en el modo secuencial de tramas después de que 100000 y 100001 se especifiquen de manera alternativa como el Tipo 3D. A continuación, después de que los datos se conmuten a datos 2D en la trama n° 7, los datos 2D se transmiten a 30 Hz. El tipo 3D se establece en 000000 (formato no 3D) para la trama 7 y las tramas posteriores.
La parte inferior de la Figura 8 muestra, de manera esquemática, datos (tramas decodificadas) de cada trama de salida del decodificador 104 y datos (BackEnd Proc out) de tramas de salida desde el procesador de extremo posterior 106. La parte inferior de la Figura 8 muestra, de manera esquemática, un estado operativo cuando se observa desde las tramas superiores. Los datos de cada trama a la frecuencia de 60 [Hz] se emiten hasta la trama n° 6 desde el decodificador 104 y los datos de la trama n° 7 y las tramas subsiguientes se emiten a la frecuencia de 30 [Hz].
El procesador de extremo posterior 106 recibe la salida del decodificador 104 y envía las tramas n° 1 a n° 6 al panel de visualización a la frecuencia de 120 [Hz]. El procesador de extremo posterior 108 pone en escala temporalmente la trama n° 7 y las tramas subsiguientes para convertir en datos de 120 [Hz] y envía los datos al panel de visualización. Más concretamente, el procesador de extremo posterior 106 realiza el procesamiento de interpolación entre, por ejemplo, la trama n° 7 y la trama n° 8 para generar la trama n° 7-8 y también genera la trama n° 8-9 realizando el procesamiento de interpolación entre la trama n° 8 y la trama n° 9. Como otro método, la trama n° 7 puede copiarse como trama n° 7-8 y la trama n° 8 puede copiarse como trama n° 8-9. Si las tramas n° 7-8 y n° 8-9 se generan en el lado del transmisor 100 de antemano mediante la copia de vista, el receptor 100 puede mostrar los datos 2D recibidos tal como están. En el caso de la copia de vistas, los datos 2D se transmiten a la frecuencia de 120 [Hz].
En el ejemplo de la Figura 8, el receptor 100 puede adquirir sincronización de conmutación de 3D a 2D basándose en el valor de cuenta regresiva de trama añadido a cada trama. Por tanto, el procesador de extremo posterior 108 puede reconocer la sincronización de la conmutación de la trama n° 7 de antemano y puede hacer los preparativos necesarios para la puesta en escala de los datos 2D. Por lo tanto, cuando el vídeo se conmuta de 3D a 2D, la visualización se puede hacer de forma continua sin causar un retraso de tiempo.
La Figura 9 es un diagrama esquemático que muestra un caso en donde el vídeo se conmuta de 3D a 2D y luego, el vídeo se conmuta de 2D a 3D. Tal como se muestra en la parte superior de la Figura 9, las tramas n° 1 a n° 4 tienen datos entrelazados (60i) de 60 [Hz] con 1920 x 1080 píxeles y el indicador 3D de cada trama indica "3D". A continuación, cuando los datos 3D se conmutan a datos 2D en la trama n° 5, se reciben datos interconectados (60i) de 60 Hz con 1920 x 1080 píxeles. A continuación, los datos 2D se conmutan a datos 3D de nuevo en la trama n° 11 para obtener datos interconectados (60i) de 60 Hz con 1920 x 1080 píxeles.
La parte inferior de la Figura 9 muestra, de manera esquemática, los datos (tramas decodificadas) de cada trama de salida del decodificador 106 y los datos (BackEnd Proc out) de las tramas de salida del procesador de extremo posterior 106. La parte inferior de la Figura 9 muestra, de manera esquemática, un estado cuando se observa desde las tramas superiores y los datos 3D está en modo de lado a lado y, por lo tanto, los datos L, y R, están dispuestos uno al lado del otro en la dirección horizontal de la pantalla. Los datos de cada trama en el modo de lado a lado a la frecuencia de 60 [Hz] se envían hasta la trama n° 4 desde el decodificador 104 y los datos 2D de las tramas n° 5 a n° 10 se envían a la frecuencia de 60 [Hz]. Para la trama n° 11 y las tramas subsiguientes, se emiten los datos de cada trama en el modo lado a lado a la frecuencia de 60 [Hz].
El procesador de extremo posterior 106 recibe la salida del decodificador 104 y expande cada elemento de datos L, R (cada uno tiene 960 x 1080 píxeles) en el modo de lado a lado de las tramas n° 1 a n° 4, n° 10 a n° 14 realizando un filtrado (procesamiento complementario) en el mismo en la dirección horizontal de la pantalla a datos de 1920 x 1080 píxeles y pone a escala los datos en la dirección de la base de tiempo antes de enviar los datos a 120 [Hz] al panel de visualización. El procesador de extremo posterior 108 pone en escala (procesamiento de interpolación), a las tramas 2D n° 5 a n° 10 en la dirección de la base de tiempo para convertir a datos de 120 [Hz] y envía los datos al panel de visualización.
También en el ejemplo de la Figura 9, el receptor 100 puede adquirir la sincronización de conmutación de 3D ^2D a partir del valor de cuenta regresiva de trama añadido a cada trama. Por tanto, el procesador de extremo posterior 108 puede reconocer la sincronización de conmutación de la trama n° 4 de antemano y puede realizar los preparativos necesarios para el procesamiento de interpolación de datos 2D. Además, el procesador de extremo posterior 108 puede reconocer la sincronización de la conmutación de la trama n° 10 de antemano y puede realizar los preparativos necesarios para el procesamiento 3D. Por lo tanto, cuando el vídeo se conmuta entre 3D y 2D, la visualización se puede hacer de forma continua sin causar un retraso de tiempo.
En la Figura 8, la imagen L del ojo izquierdo, la imagen R del ojo derecho o los datos de la imagen 2D en modo secuencial de tramas se almacenan en diferentes zonas de la memoria después de ser decodificados. De manera similar, en la Figura 9, la imagen L del ojo izquierdo, la imagen R del ojo derecho o los datos de la imagen 2D en modo de lado a lado se almacenan en diferentes zonas de la memoria después de ser decodificados. Por lo tanto, las zonas de memoria son diferentes antes y después de la conmutación y es necesario inicializar de antemano dependiendo de la sincronización de la conmutación. En la presente forma de realización, el desplazamiento temporal antes de la conmutación se conoce de antemano a partir del valor de desplazamiento temporal y se pueden realizar preparativos para la inicialización de la memoria antes de la conmutación.
En el ejemplo de la Figura 9, el algoritmo para el procesamiento de interpolación es diferente entre 3D y 2D en el procesamiento por parte del procesador de extremo posterior 106. También en este caso, el desfase de tiempo antes de la conmutación se conoce de antemano a partir del valor de desfase de tiempo y se pueden realizar preparativos para la conmutación de algoritmos antes de la conmutación.
[(5) Parámetro antes y después de conmutar en el procesador de extremo posterior]
La Figura 10 es un diagrama esquemático que muestra los parámetros antes y después de la conmutación en el procesador de extremo posterior 108 cuando se produce la conmutación anterior. La primera columna en la Figura 10 muestra los cambios de parámetros cuando el vídeo se conmuta entre 3D y 2D después de recibir datos de vídeo en modo secuencial de campo (FS). En este ejemplo, se supone que los datos 3D tienen 1280 x 720 píxeles y la frecuencia de vídeo izquierda/derecha es 30 x 2 = 60 [Hz]. Es decir, cada uno de los datos L, R, sale del descodificador 104 a la frecuencia de 30 [Hz] y la frecuencia del vídeo izquierdo/derecho es 30 x 2 = 60 [Hz]. Por otro lado, los datos 2D también tienen 1280 x 720 píxeles, pero salen del decodificador 104 a la frecuencia de 30 [Hz]. Por tanto, cuando se produce la conmutación de 3D a 2D, el procesador de extremo posterior 108 realiza una puesta en escala en la dirección del tiempo para realizar un procesamiento complementario de los datos 2D para la salida a la frecuencia de 60 [Hz]. En consecuencia, cuando el vídeo se conmuta entre 3D y 2D, el vídeo antes y después de la conmutación se puede hacer que tenga la misma frecuencia y el procesamiento del panel de visualización se puede realizar de la misma manera y también una sensación de incomodidad que siente el usuario durante la conmutación se puede reducir al mínimo.
La segunda columna de la Figura 10 muestra los cambios de parámetros cuando el vídeo se conmuta entre 3D y 2D después de que se hayan recibido los datos 3D en el modo de lado a lado (SBS). En este ejemplo, se supone que cada uno de L, R, de los datos 3D tiene 960 x 540 píxeles y una trama en donde L y R están dispuestos en la dirección horizontal de la pantalla se emite desde el decodificador 104 a la frecuencia de 60 [Hz]. Por otro lado, los datos 2D tienen 1920 x 540 píxeles y se emiten desde el descodificador 104 a la frecuencia de 60 [Hz]. Por tanto, el procesador de extremo posterior 108 realiza una puesta en escala de cada uno de L, R del vídeo 3D en la dirección del espacio para dar salida a datos de 1920 x 540 píxeles. Más concretamente, se realiza un filtrado (procesamiento complementario) para aumentar el número de píxeles en la dirección horizontal de la pantalla de una trama a 960 x 2 = 1920. Por otro lado, tanto 3D como 2D tienen la frecuencia de salida de 60 [Hz] desde el decodificador 104 y, por lo tanto, no se realiza ninguna puesta en escala. Por consiguiente, cuando el vídeo se conmuta entre 3D y 2D, se puede hacer que el vídeo, antes y después de la conmutación, tenga el mismo número de píxeles.
La tercera columna de la Figura 10 muestra los cambios de parámetros cuando el vídeo se conmuta entre 3D y 2D después de recibir los datos 3D en el modo arriba-abajo (TAB). En este ejemplo, se supone que cada uno de entre L, R de los datos 3D tiene 1920 x 270 píxeles y una trama en donde L y R están dispuestos en la dirección horizontal de la pantalla que se emite desde el decodificador 104 a la frecuencia de 60 [Hz]. Por otro lado, los datos 2D tienen 1920 x 540 píxeles y se emiten desde el descodificador 104 a la frecuencia de 60 [Hz]. Por tanto, el procesador de extremo posterior 108 realiza una puesta en escala de cada uno de entre L, R del vídeo 3D en la dirección del espacio para dar salida a datos de 1920 x 540 píxeles. Más concretamente, se realiza un procesamiento complementario para aumentar el número de píxeles en la dirección vertical de la pantalla de una trama a 270 x 2 = 540. Por otro lado, tanto 3D como 2D tienen la frecuencia de trama de salida de 60 [Hz] desde el decodificador 104 y, por lo tanto, no se realiza ninguna puesta en escala. Por consiguiente, cuando el vídeo se conmuta entre 3D y 2D, se puede hacer que el vídeo antes y después de la conmutación tenga el mismo número de píxeles.
En una puesta en escala espacial y temporal de datos de imagen tal como se describió con anterioridad, es difícil visualizar imágenes escaladas adecuadas inmediatamente después de la conmutación si los parámetros después de la conversión no se conocen de antemano. En la presente forma de realización, el valor de cuenta regresiva de trama y el siguiente tipo 3D después de la conversión pueden adquirirse antes de la conversión y, por lo tanto, pueden realizarse preparaciones de conmutación para una puesta en escala espacial y temporal antes de la sincronización de conmutación. Por lo tanto, las imágenes con la escala adecuada se pueden mostrar inmediatamente después de la conmutación.
La Figura 11 es un diagrama esquemático que ilustra el concepto de copia de vista. La copia de vista se utiliza para copiar uno de entre L, R de vídeo 3D como el otro para crear los mismos datos de vídeo de L, R en el lado del transmisor y para transmitir los datos como datos 2D al lado de recepción. Tal como se muestra en la Figura 11, en el modo de arriba-abajo, los datos de la trama original (Original Frame) se comprimen verticalmente (Scaling Vertically) y los mismos datos comprimidos se disponen verticalmente en cada una de las zonas L, R de la parte superior e inferior. Si, por ejemplo, la trama original es la imagen del ojo izquierdo L y la visualización 2D se realiza solamente con la imagen del ojo izquierdo L mediante la copia de vista, los datos de la imagen del ojo izquierdo L comprimidos verticalmente se disponen en la zona de la imagen del ojo izquierdo L de la parte superior e inferior y la imagen del ojo izquierdo L se copia en la zona de la imagen del ojo derecho R (zona inferior).
En el modo de lado a lado, los datos de la trama original se comprimen horizontalmente (puesta en escala horizontal) y los mismos datos comprimidos se disponen verticalmente en cada una de las zonas L, R en el modo de lado a lado. Si, por ejemplo, la trama original es la imagen del ojo izquierdo L y la visualización 2D se realiza solamente con la imagen del ojo izquierdo L mediante la copia de vista, los datos de la imagen del ojo izquierdo L comprimidos horizontalmente se disponen en la zona de la imagen del ojo izquierdo L en el modo de lado a lado y la imagen del ojo izquierdo L se copia en la zona de la imagen del ojo derecho R (zona derecha).
En el modo secuencial de tramas, se realiza una puesta en escala (compresión) predeterminada en los datos de la trama original y luego, los datos de una trama N, que es la imagen L del ojo izquierdo, a la siguiente trama N 1 en la dirección de la base de tiempo. En consecuencia, mientras que la trama original N 1 de 3D tiene la imagen del ojo derecho R, los vídeos izquierdo y derecho se vuelven iguales al copiar la imagen L del ojo izquierdo y el vídeo 2D se puede mostrar solamente con la imagen L del ojo izquierdo.
Si View_Copy descrita en la Figura 4 es 1, la segunda vista es una copia de la primera vista y se realiza una copia de la vista tal como se muestra en la Figura 11. Por tanto, cuando se reciben datos 2D, el receptor 100 puede reconocer que los datos 2D son originalmente datos 3D y se generan copiando uno de entre L, R de datos originales al otro haciendo referencia a datos de View_Copy.
[(7) Cambios en las configuraciones de memoria]
La Figura 12 es un diagrama esquemático que ilustra los cambios de configuraciones de memoria. Tal como se muestra en la parte superior de la Figura 12, un desentrelazador 106a, un dispositivo de puesta en escala 106b y un intercalador de tramas 106c están dispuestos en la etapa posterior del decodificador 104 y el bloque de función está configurado principalmente por el procesador de extremo posterior 106. La parte inferior de la Figura 12 muestra la salida del decodificador 104 y cada uno de los casos en los que los datos de vídeo tienen tramas entrelazadas y se muestran tramas progresivas. Para las tramas entrelazadas, una (N-1 )-ésima trama y una N-ésima trama se componen de un par de tramas de Campo par y Campo impar y los datos L, R de una trama se componen de un par de tramas. Para las tramas progresivas, por otro lado, el número de tramas es el doble que el de las tramas entrelazadas y una 2*N-ésima trama y (2*N+1 )-ésima trama están configuradas por los datos L, R dispuestos en una sola trama.
Una memoria necesaria para retener estos datos es asignada a un espacio de memoria por el control del sistema 110. La configuración de memoria necesaria cambia dependiendo de 3D_type y el controlador inicializa la asignación de memoria cuando 3D_Type se conmuta. La memoria se inicializa con frecuencia en un tiempo que depende del sistema operativo y el tiempo necesario para la inicialización puede estar en el margen de 10 ms a varias decenas de ms. Por otro lado, la conmutación de filtro por el desentrelazador 106a o el dispositivo de puesta en escala 106b se realiza después de que el procesamiento normal se haya detenido de manera temporal.
En vista de estos factores, es necesario un período de preparación de la conmutación que va desde una pluralidad de tramas de vídeo o una pluralidad de períodos verticales de vídeo hasta varios segundos para la conmutación de tipo 3D. Por tanto, es necesario transmitir información sobre una diferencia de tiempo hasta la sincronización de conmutación de 3D_Type desde el lado de transmisión al lado de recepción para hacer que el panel de visualización muestre un nuevo 3D_Type después de conmutar desde la trama de vídeo inicial en adelante.
En la presente forma de realización, si la conmutación se produce tal como se describió con anterioridad, la sincronización de la conmutación se indica de antemano por el valor de la cuenta regresiva de la trama antes de la sincronización de la conmutación. Por tanto, al realizar los preparativos para la inicialización de la memoria de antemano, el receptor 100 puede hacer que el panel de visualización muestre un nuevo 3D_Type después de conmutar desde la trama de vídeo inmediatamente después de conmutar hacia adelante.
[(8) Operación de la prohibición de conversión basada en el indicador de prohibición de conversión]
A continuación, se describirá el funcionamiento de la prohibición de conversión sobre la base al indicador de prohibición de conversión. Tal como se describe en la Figura 3, la información de identificación añadida a la sintaxis de flujo de la capa de códec de cada trama contiene el indicador de prohibición de conversión (Prohibit_Convert_flag). El indicador de prohibición de conversión se pone a "1" cuando el contenido transmitido desde el lado transmisor debe tener prohibido convertirse de conformidad con la intención del lado transmisor. Por otro lado, la conversión se permite según la intención del lado transmisor, poniéndose el indicador de prohibición de conversión a "0".
Como en el caso en donde, por ejemplo, el contenido transmitido es vídeo 3D premium, se puede entregar contenido que no se supone que se visualiza como vídeo 2D en el lado de transmisión. En tal caso, la conversión a 2D por parte del receptor 100 está prohibida estableciendo el indicador de prohibición de conversión en "1" en el lado de transmisión. De forma similar, si el contenido transmitido es vídeo 2D y no se supone la conversión a vídeo 3D en el lado de transmisión, la conversión a 3D por el receptor 100 está prohibida estableciendo el indicador de prohibición de conversión en "1" en el lado de transmisión.
Las Figuras 18, 19 y 20 son diagramas esquemáticos que muestran el funcionamiento del receptor 100 sobre la base del indicador de prohibición de conversión. Las Figuras 18 y 19 muestran un caso en donde el contenido transmitido desde el lado de transmisión es vídeo 3D, la Figura 18 muestra un caso del modo secuencial de tramas y la Figura 19 es un caso del modo de lado a lado. La Figura 20 muestra un caso en donde el contenido transmitido es vídeo 2D.
En el modo secuencial de campo mostrado en la Figura 18, como en la Figura 8, una trama de la imagen L del ojo izquierdo y una trama de la imagen R del ojo derecho se emiten de manera alternativa en forma secuencial desde el decodificador 106. Si, tal como se muestra en la Figura 18, el indicador de prohibición de conversión es "0" ([i] Prohibit_Convert_flag = 0), la conversión está permitida y el receptor 100 normalmente puede reproducir en 3D el contenido recibido (reproducción en 3D normal). Si el indicador de prohibición de conversión es "0", el receptor 100 también puede convertir vídeo 3D en vídeo 2D para reproducir vídeo convertido 2D (reproducción de conversión en 2D). Para la reproducción 3D normal, el procesador de extremo posterior 106 realiza un procesamiento 3D predeterminado en los datos (tramas decodificadas que se muestran en la Figura 18) emitidos desde el decodificador 104 y salidas como datos de la salida del procesador 3D que se muestra en la Figura 18. En este caso, el procesador de extremo posterior 106 puede emitir sin realizar una puesta en escala en la dirección del espacio o en la dirección del tiempo. Para la reproducción de conversión 2D, solamente la imagen L del ojo izquierdo se extrae de los datos (tramas decodificadas que se muestran en la Figura 18) emitidos por el decodificador 104 y emitidos por el procesador de extremo posterior 106. Por lo tanto, el vídeo 3D se puede convertir en vídeo 2D con solamente la imagen del ojo izquierdo L y luego reproducirla. Conviene señalar que para la reproducción de conversión 2D, solamente se pueden extraer las tramas de la imagen R del ojo derecho para convertir el vídeo 3D en vídeo 2D con solamente la imagen R del ojo derecho para la reproducción.
Por otro lado, si el indicador de prohibición de conversión es "1" ([ii] Prohibit_Convert_flag = 1) en la Figura 18, la conversión está prohibida y el receptor 100 normalmente puede reproducir en 3D el contenido recibido (reproducción en 3D normal), pero no está permitido convertir el vídeo 3D en vídeo 2D. Por tanto, la conversión de vídeo 3D a vídeo 2D no funciona en el receptor 100. La reproducción 3D es la misma que cuando el indicador de prohibición de conversión es "0".
En el modo de lado a lado mostrado en la Figura 19, los datos de imagen en los que la imagen L del ojo izquierdo y la imagen R del ojo derecho se juntan en una sola trama, se emiten desde el decodificador 104. Si, como se muestra en la Figura 19, el indicador de prohibición de conversión es "0" ([i] Prohibit_Convert_flag = 0), la conversión está permitida y el receptor 100 normalmente puede reproducir en 3D el contenido recibido (reproducción en 3D normal). Si el indicador de prohibición de conversión es "0", el receptor 100 también puede convertir vídeo 3D en vídeo 2D para reproducir vídeo convertido 2D (reproducción de conversión en 2D). Para la reproducción 3D normal, el procesamiento de una puesta en escala (procesamiento de interpolación) se realiza horizontalmente en las imágenes de datos izquierda y derecha (tramas decodificadas mostradas en la Figura19) emitidas desde el decodificador 104 por el procesador de extremo posterior 106 y la imagen del ojo izquierdo L y la imagen del ojo derecho R se emite de manera alternativa para cada trama cronológicamente como datos de salida de procesador 3d que se muestran en la Figura 19. Para la reproducción de conversión 2D, el procesamiento de puesta en escala se realiza solamente en la imagen L del ojo izquierdo de los datos (las tramas decodificadas se muestran en la Figura 19) emitida desde el decodificador 104 por el procesador de extremo posterior 106 y solamente la imagen L del ojo izquierdo se emite en cada trama. Por lo tanto, el vídeo 3D se puede convertir en vídeo 2D con únicamente la imagen L del ojo izquierdo y luego reproducirlo. Conviene señalar que, para la reproducción de conversión 2D, el procesamiento de puesta en escala se puede realizar horizontalmente solamente en la imagen del ojo derecho R para convertir el vídeo 3D en vídeo 2D con solamente la imagen del ojo derecho R para la reproducción.
Por otro lado, si el indicador de prohibición de conversión es "1" ([ii] Prohibit_Convert_flag = 1) en la Figura 19, la conversión está prohibida y el receptor 100 normalmente puede reproducir en 3D el contenido recibido (reproducción en 3D normal), pero no está permitido convertir el vídeo 3D en vídeo 2D. Por tanto, la conversión de vídeo 3D a vídeo 2D no funciona en el receptor 100. La reproducción 3D es la misma que cuando el indicador de prohibición de conversión es "0".
Si, tal como se muestra en la Figura 20, el contenido transmitido es vídeo 2D y el indicador de prohibición de conversión es "0" ([i] Prohibit_Convert_flag = 0), la conversión está permitida y el receptor 100 normalmente puede reproducir 2D el contenido recibido (reproducción en 2D normal). Si el indicador de prohibición de conversión es "0", el receptor 100 también puede convertir vídeo 2D en vídeo 3D para reproducir vídeo convertido en 3D (reproducción por conversión 3D). Para la reproducción 2D normal, el procesamiento 3D no se realiza en datos para la imagen L del ojo izquierdo (tramas decodificadas mostradas en la Figura 20) emitidos desde el decodificador 104 por el procesador de extremo posterior 106 y los datos se emiten como tramas de datos 2D. En consecuencia, se puede mostrar vídeo 2D con la imagen L del ojo izquierdo. Si se transmite un vídeo 2D con datos de la imagen R del ojo derecho desde el lado de transmisión, se puede mostrar un vídeo 2D con la imagen R del ojo derecho.
Cuando se realiza la reproducción de conversión 2D en la Figura 20, el procesamiento para desplazar el vídeo por el paralaje se realiza en los datos (tramas decodificadas mostradas en la Figura 20) de la imagen L del ojo izquierdo emitida desde el decodificador 104 por el procesador de extremo posterior 106. Con este procesamiento, la imagen R del ojo derecho que se emparejará con la imagen L original del ojo izquierdo se genera de modo que la imagen L del ojo izquierdo y la imagen R del ojo derecho se emitan de manera alternativa. Cuando se realiza el procesamiento para desplazar la imagen L del ojo izquierdo mediante el paralaje, se puede generar un vídeo 3D más realista haciendo que la cantidad de paralaje sea diferente de un objeto a otro contenido en la imagen L del ojo izquierdo. En este caso, se pueden utilizar varios métodos para detectar objetos tales como un método de detección de bordes de contorno y un método para detectar diferencias de brillo o de contraste.
Por otro lado, si el indicador de prohibición de conversión es "1" ([ii] Prohibit_Convert_flag = 1) en la Figura 20, la conversión está prohibida y el receptor 100 normalmente puede reproducir en 2D el contenido recibido (reproducción normal en 2D), pero no está permitido convertir el vídeo 2D en vídeo 3D. Por tanto, la conversión de vídeo 2D a vídeo 3D no funciona en el receptor 100. La reproducción 2D es la misma que cuando el indicador de prohibición de conversión es "0".
[(8) Ejemplo de configuración del transmisor]
La Figura 13 es un diagrama esquemático que muestra la configuración de un transmisor 200 según la presente forma de realización. El transmisor 200 se utiliza para codificar y transmitir vídeo 3D o vídeo 2D al receptor 100 a través de una ruta de transmisión cableada o inalámbrica.
Tal como se muestra en la Figura 13, el transmisor 200 incluye una CPU 202, un contador 204, un conmutador 206 y un codificador de vídeo 208. Una base de datos 210 y una base de datos 212 están conectadas al conmutador 206. La base de datos 210 y la base de datos 212 pueden configurarse integralmente con el transmisor 200 o por separado. La configuración que se muestra en la Figura 13 puede establecerse mediante un circuito (hardware) o una CPU (unidad central de procesamiento) y un programa (software) para hacer que el circuito o CPU funcione. En este caso, el programa se puede almacenar en una memoria incluida en el receptor 100 o en un medio de almacenamiento externo.
La base de datos 210 tiene datos de vídeo A en 3D almacenados en la misma. La base de datos 212 tiene datos de vídeo B en 2D almacenados en la misma. Los datos de vídeo A almacenados en la base de datos 210 y los datos de vídeo B almacenados en la base de datos 212 se transmiten al conmutador 206. El conmutador 206 selecciona uno de entre el vídeo A y el vídeo B y envía el vídeo seleccionado al codificador de vídeo 208. El conmutador 206 envía uno de entre el vídeo A y el vídeo B al codificador de vídeo 208 de conformidad con el número de recuento de tramas por el contador 204.
El contador 204 cuenta el número de tramas de datos de vídeo transmitidas al codificador de vídeo 208 basándose en las instrucciones de la CPU 202 y envía el número de recuento hasta la conmutación al conmutador 206. Si, por ejemplo, el vídeo A en 3D son datos de la parte principal de un programa y el vídeo B en 2D son datos comerciales, la CPU 202 envía el número de recuento de tramas correspondiente al desplazamiento temporal hasta la conmutación del vídeo A de la parte principal del programa al vídeo B de la parte comercial al conmutador 206.
Sobre la base del número de recuento enviado desde el contador 204, el conmutador 206 conmuta el vídeo enviado al codificador de vídeo 208 en el tiempo en donde se produce la conmutación. Por consiguiente, el vídeo se puede conmutar mutuamente entre el vídeo A de la parte principal de un programa y el vídeo B de la parte comercial.
El codificador de vídeo 208 codifica datos del vídeo A o del vídeo B enviado desde el conmutador 206 como un flujo binario de MPEG-4 AVC, MPEG-2 Video, VC-1, MPEG4 Visual o similar para transmitir los datos al receptor 100.
El contador 204 envía el número de conteo hasta la conmutación al codificador de vídeo 208. El codificador de vídeo 208 añade el número de recuento enviado desde el contador 204 a la sintaxis de flujo de la capa de códec de cada trama codificada como el valor de cuenta regresiva de trama. Basándose en las instrucciones de la CPU 202, el codificador de vídeo 208 añade varios tipos de datos descritos con referencia a las Figuras 3 a 7 a los datos del vídeo A o del vídeo B. El flujo binario codificado por el codificador 208 de vídeo se transmite desde una unidad de transmisión 214 al receptor 100.
De acuerdo con la configuración anterior, el transmisor 200 puede conmutar el vídeo 3D A y el vídeo 2D B sobre la base a las instrucciones de la CPU 202. El transmisor 200 puede añadir el valor de conteo regresivo que indica el número de tramas hasta conmutar a datos de vídeo basados en instrucciones de la CPU 202. El transmisor 200 también puede añadir varios tipos de información en las Figuras 3 a 7 a datos de vídeo. Por lo tanto, basándose en esta información añadida por el transmisor 200, el lado del receptor 100 puede realizar el procesamiento antes y después de la conmutación y hacer preparativos para varios tipos de procesamiento relacionados con la conmutación de antemano.
Las formas de realización preferidas de la presente invención se han descrito con anterioridad con referencia a los dibujos adjuntos, mientras que la presente invención no se limita a los ejemplos anteriores, por supuesto. Un experto en esta técnica puede encontrar varias alternancias y modificaciones dentro del alcance de las reivindicaciones adjuntas.
Lista de referencias numéricas
100 Receptor
104 Decodificador
106 Procesador de extremo posterior
200 Transmisor
202 UPC
208 Codificador de vídeo
206 Unidad de entramado

Claims (12)

REIVINDICACIONES
1. Un receptor, que comprende:
una unidad de procesamiento de decodificación adaptada para decodificar una señal de vídeo recibida desde un transmisor;
una unidad de adquisición de información de identificación adaptada para adquirir información de identificación que incluye un formato relativo a 2D o 3D de vídeo a partir de una capa correspondiente a cada trama de la señal de vídeo; y
una unidad de procesamiento adaptada para realizar el procesamiento de la visualización de una imagen mediante la señal de vídeo sobre la base de la información de identificación,
en donde la unidad de procesamiento incluye una unidad de puesta en escala adaptada para realizar una puesta en escala espacial o temporal de datos de vídeo sobre la base de la información de identificación y, cuando se conmuta el formato del vídeo, conmutar los parámetros para el ajuste de una puesta en escala para la sincronización de la conmutación,
caracterizado porque la información de identificación contiene información de compensación que indica el momento en que se produce la conmutación del formato 3D del vídeo o el momento en que se produce la conmutación del vídeo 3D y del vídeo 2D y la unidad de puesta a escala está adaptada para iniciar, en función de la información de compensación, el procesamiento para conmutar los parámetros antes del momento en que se produce la conmutación, en donde la información de identificación contiene información que indica si las fases espaciales o temporales de dos vistas para un ojo izquierdo y un ojo derecho, según el formato 3D, tienen las mismas fases o fases diferentes.
2. El receptor según la reivindicación 1,
en donde la unidad de puesta en escala inicia, sobre la base de la información de compensación, el procesamiento para conmutar los ajustes de una memoria intermedia temporal para retener la señal de vídeo decodificada antes de la sincronización cuando ocurre la conmutación.
3. El receptor según la reivindicación 1, en donde la información de identificación contiene información que representa al menos uno de entre un modo lado a lado, un modo arriba-abajo y un modo secuencial de tramas como el formato 3D.
4. El receptor según la reivindicación 1, en donde la información de identificación contiene una señal que indica que la señal de vídeo se cambia al vídeo 2D copiando uno de los vídeos 3D izquierda-derecha al otro.
5. El receptor según la reivindicación 1, en donde la unidad de puesta en escala realiza, como la puesta en escala espacial, el procesamiento para expandir el vídeo decodificado por la unidad de procesamiento de decodificación en una dirección vertical de la pantalla o en una dirección horizontal de la pantalla.
6. El receptor según la reivindicación 1, en donde la unidad de puesta en escala realiza, como una puesta en escala temporal, el procesamiento de copia o de interpolación de tramas de vídeo dispuestas de forma cronológica.
7. E receptor según la reivindicación 1, en donde la información de identificación contiene información para prohibir una conversión del formato del vídeo.
8. Un transmisor, que comprende:
una unidad de procesamiento de código adaptada para codificar una señal de vídeo;
una unidad de inserción de información de identificación adaptada para insertar información de identificación que incluye al menos un formato relativo a 2D o 3D de vídeo en una capa correspondiente a cada trama de la señal de vídeo; y
una unidad de transmisión adaptada para transmitir la señal de vídeo en donde se inserta la información de identificación,
caracterizado porque la información de identificación contiene información de compensación que indica el momento en que ocurre la conmutación del formato 3D del vídeo o el momento en que ocurre la conmutación del vídeo 3D y el vídeo 2D,
en donde la información de identificación contiene información que indica si las fases espaciales o temporales de dos vistas para un ojo izquierdo y para un ojo derecho, según el formato 3D, tienen las mismas fases o fases diferentes.
9. Un sistema de comunicación, que comprende:
un transmisor tal como se define en la reivindicación 8; y
un receptor tal como se define en cualquiera de las reivindicaciones 1 a 7.
10. Un método de visualización de imágenes, que comprende:
decodificar una señal de vídeo recibida desde un transmisor;
adquirir información de identificación que incluye un formato de vídeo en 2D o 3D de una capa correspondiente a cada trama de la señal de vídeo; y
realizar el procesamiento de la visualización de una imagen mediante la señal de vídeo en función de la información de identificación;
en donde el método comprende, además, realizar una puesta en escala espacial o temporal de los datos de vídeo sobre la base de la información de identificación y, cuando se conmuta el formato del vídeo, conmutar los parámetros para el ajuste de la puesta en escala en la sincronización de la conmutación;
caracterizado porque la información de identificación contiene información de compensación que indica el momento en que se produce la conmutación del formato 3D del vídeo o el momento en que se produce la conmutación del vídeo 3D y del vídeo 2D, e iniciar, sobre la base de la información de compensación, el procesamiento para conmutar los parámetros antes del momento en que se produce la conmutación;
en donde la información de identificación contiene información que indica si las fases espaciales o temporales de dos vistas para un ojo izquierdo y para un ojo derecho, según el formato 3D, tienen las mismas fases o fases diferentes.
11. Un programa informático que comprende instrucciones que, cuando el programa es ejecutado por un ordenador, hacen que el ordenador lleve a cabo el método según la reivindicación 10.
12. Una estructura de datos de una señal de transmisión digital que contiene una señal de vídeo relacionada con el contenido que se va a transmitir,
en donde la información de identificación que incluye un formato relativo a 2D o 3D de vídeo se inserta en una capa correspondiente a cada trama de la señal de vídeo en donde la información de identificación contiene información de compensación que indica el momento en que se produce la conmutación del formato 3D del vídeo o el momento en que se produce la conmutación de vídeo 3D y de vídeo 2D, y
la información de identificación contiene información que indica si las fases espaciales o temporales de dos vistas para un ojo izquierdo y un ojo derecho, según el formato 3D, tienen las mismas fases o fases diferentes.
ES10828234T 2009-11-05 2010-10-28 Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos Active ES2868358T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009254471 2009-11-05
JP2010022240A JP5482254B2 (ja) 2009-11-05 2010-02-03 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
PCT/JP2010/069154 WO2011055674A1 (ja) 2009-11-05 2010-10-28 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造

Publications (1)

Publication Number Publication Date
ES2868358T3 true ES2868358T3 (es) 2021-10-21

Family

ID=43969914

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10828234T Active ES2868358T3 (es) 2009-11-05 2010-10-28 Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos

Country Status (7)

Country Link
US (2) US8872890B2 (es)
EP (1) EP2498500B1 (es)
JP (1) JP5482254B2 (es)
CN (1) CN102308588A (es)
BR (1) BRPI1006042A2 (es)
ES (1) ES2868358T3 (es)
WO (1) WO2011055674A1 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5585047B2 (ja) * 2009-10-28 2014-09-10 ソニー株式会社 ストリーム受信装置、ストリーム受信方法、ストリーム送信装置、ストリーム送信方法及びコンピュータプログラム
CN102349302A (zh) * 2010-01-14 2012-02-08 松下电器产业株式会社 影像输出装置、影像显示系统
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
KR101329506B1 (ko) * 2010-08-12 2013-11-13 엘지디스플레이 주식회사 영상표시장치
US20120206568A1 (en) * 2011-02-10 2012-08-16 Google Inc. Computing device having multiple image capture devices and image modes
JP6033529B2 (ja) 2011-05-30 2016-11-30 株式会社東海理化電機製作所 検出装置および電流センサ
CA2815106A1 (en) 2011-07-22 2013-01-31 Panasonic Corporation Content playback device, content playback method, content playback program and content distribution system
JP5815326B2 (ja) * 2011-08-12 2015-11-17 ルネサスエレクトロニクス株式会社 動画像復号装置及び画像表示装置
WO2013108295A1 (ja) * 2012-01-20 2013-07-25 パナソニック株式会社 映像信号処理装置及び映像信号処理方法
CN102547353A (zh) * 2012-03-07 2012-07-04 山东泰信电子有限公司 一种识别及播放2d与3d节目的方法
WO2013154029A1 (ja) * 2012-04-13 2013-10-17 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
CN103428463B (zh) * 2012-05-19 2016-10-12 腾讯科技(深圳)有限公司 3d视频源存储方法和装置及3d视频播放方法和装置
TWI510055B (zh) * 2012-11-13 2015-11-21 Realtek Semiconductor Corp 立體影像格式轉換器及其立體影像格式轉換方法
CN103888839B (zh) * 2012-12-20 2017-03-29 深圳市快播科技有限公司 一种视频播放方法和设备
CN104284191B (zh) * 2013-07-03 2018-12-18 乐金电子(中国)研究开发中心有限公司 视频编解码方法及视频编解码器
JP6330816B2 (ja) 2013-09-12 2018-05-30 ソニー株式会社 符号化装置、送信装置および受信装置
CN104125452A (zh) * 2014-08-08 2014-10-29 北京行云时空科技有限公司 一种面向立体眼镜的2d及3d图像显示和操作控制系统
CN106303493B (zh) * 2015-05-27 2018-06-29 深圳超多维光电子有限公司 图像处理方法及装置
WO2016204481A1 (ko) * 2015-06-16 2016-12-22 엘지전자 주식회사 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
US20190266771A1 (en) * 2016-09-29 2019-08-29 Panasonic Intellectual Property Management Co., Ltd. Editing method, creation method, editing device, creation device, and recording medium
TW201834455A (zh) * 2016-12-05 2018-09-16 晨星半導體股份有限公司 立體影像串流處理裝置與立體影像串流處理處理方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3066298B2 (ja) 1995-11-15 2000-07-17 三洋電機株式会社 立体画像観察用眼鏡の制御方法
JP4336396B2 (ja) * 1997-08-29 2009-09-30 キヤノン株式会社 記録再生装置、ファイル変換装置、ディジタル信号のファイル変換禁止システムおよびディジタル信号処理方法
US6108047A (en) * 1997-10-28 2000-08-22 Stream Machine Company Variable-size spatial and temporal video scaler
JP3784967B2 (ja) 1998-07-21 2006-06-14 日本放送協会 立体画像表示方法および装置
JP2003045343A (ja) 2001-08-03 2003-02-14 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2003333624A (ja) * 2002-05-10 2003-11-21 Sharp Corp 電子機器
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP2005094168A (ja) * 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
JP2006140618A (ja) * 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
KR100813961B1 (ko) * 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
JP2007067686A (ja) * 2005-08-30 2007-03-15 Toshiba Corp 映像表示装置及び映像表示方法
US8538134B2 (en) * 2007-10-04 2013-09-17 Samsung Electronics Co., Ltd. Method and apparatus for receiving and generating image data stream including parameters for displaying local three dimensional image
KR101521655B1 (ko) 2007-10-13 2015-05-20 삼성전자주식회사 LASeR 기반의 단말을 위한 스테레오스코픽 입체 영상 컨텐츠 제공 장치 및 방법
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
CN201215988Y (zh) 2008-06-30 2009-04-01 泰德富华科技(深圳)有限公司 显示装置
WO2010010709A1 (ja) * 2008-07-24 2010-01-28 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム
US20100026783A1 (en) * 2008-08-01 2010-02-04 Real D Method and apparatus to encode and decode stereoscopic video data
JPWO2010038409A1 (ja) * 2008-09-30 2012-03-01 パナソニック株式会社 再生装置、記録媒体、及び集積回路
CN104618708B (zh) * 2009-01-28 2017-07-07 Lg电子株式会社 广播接收机及其视频数据处理方法
WO2010089995A1 (ja) * 2009-02-04 2010-08-12 パナソニック株式会社 記録媒体、再生装置、及び集積回路
EP2425631B1 (en) * 2009-04-27 2015-05-20 LG Electronics Inc. Broadcast receiver and 3d video data processing method thereof
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
US20120212579A1 (en) * 2009-10-20 2012-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Method and Arrangement for Multi-View Video Compression

Also Published As

Publication number Publication date
JP5482254B2 (ja) 2014-05-07
WO2011055674A1 (ja) 2011-05-12
JP2011120195A (ja) 2011-06-16
US20120026287A1 (en) 2012-02-02
EP2498500A4 (en) 2016-12-14
BRPI1006042A2 (pt) 2016-05-10
US20140375780A1 (en) 2014-12-25
EP2498500A1 (en) 2012-09-12
EP2498500B1 (en) 2021-04-28
US10051226B2 (en) 2018-08-14
US8872890B2 (en) 2014-10-28
CN102308588A (zh) 2012-01-04

Similar Documents

Publication Publication Date Title
ES2868358T3 (es) Receptor, transmisor, sistema de comunicación, método de control de visualización, programa y estructura de datos
ES2941888T3 (es) Organización en mosaico en codificación y decodificación de vídeo
US8860782B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
US8937642B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
ES2670663T3 (es) Datos auxiliares en difusión de vídeo en 3D
US20110018966A1 (en) Receiving Device, Communication System, Method of Combining Caption With Stereoscopic Image, Program, and Data Structure
WO2011062195A1 (ja) 画像受信装置
US9578305B2 (en) Digital receiver and method for processing caption data in the digital receiver
JP5502436B2 (ja) 映像信号処理装置
KR20120013307A (ko) 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법
KR20110064161A (ko) 3차원 영상에 관한 압축 방법 및 장치, 그리고 3차원 영상 디스플레이 장치 및 그 시스템
TW201108714A (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
TW201251467A (en) Video encoder, video encoding method, video encoding program, video reproduction device, video reproduction method, and video reproduction program
KR101676311B1 (ko) 방송 수신기 및 3d 방송 데이터 처리 방법
US20120307006A1 (en) Receiving apparatus, transmitting apparatus, communication system, receiving apparatus control method, and program
JP5390017B2 (ja) 映像処理装置
US20130147912A1 (en) Three dimensional video and graphics processing
US20120281075A1 (en) Broadcast signal receiver and method for processing video data
KR101492980B1 (ko) 다시점 화상 처리 장치 및 방법
JP2011061360A (ja) 映像表示装置及び映像表示装置の制御方法
STANDARD Stereoscopic 3D Frame Compatible Packing and Signaling for HDTV