ES2649556T3 - Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción - Google Patents

Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción Download PDF

Info

Publication number
ES2649556T3
ES2649556T3 ES10796911.5T ES10796911T ES2649556T3 ES 2649556 T3 ES2649556 T3 ES 2649556T3 ES 10796911 T ES10796911 T ES 10796911T ES 2649556 T3 ES2649556 T3 ES 2649556T3
Authority
ES
Spain
Prior art keywords
video
data
file
stream
graphics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10796911.5T
Other languages
English (en)
Inventor
Taiji Sasaki
Hiroshi Yahata
Tomoki Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Application granted granted Critical
Publication of ES2649556T3 publication Critical patent/ES2649556T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • G11B20/1251Formatting, e.g. arrangement of data block or words on the record carriers on discs for continuous data, e.g. digitised analog information signals, pulse code modulated [PCM] data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10592Audio or video recording specifically adapted for recording or reproducing multichannel signals
    • G11B2020/106113D video data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Abstract

Un dispositivo (102) de reproducción para reproducir imágenes de vídeo desde un medio (101) de registro, en el que un flujo de vídeo de vista principal, un flujo de vídeo de sub-vista y un flujo de gráficos se registran en el medio (101) de registro, el flujo de vídeo de vista principal incluye instantáneas de vista principal que constituyen las vistas principales de imágenes de vídeo estereoscópico, el flujo de vídeo de sub-vista incluye instantáneas de sub-vista y metadatos, constituyendo las instantáneas de subvista, sub-vistas de imágenes de vídeo estereoscópico, el flujo de gráficos incluye datos de gráficos que constituyen imágenes de gráficos monoscópicos, las instantáneas de vista principal se restablecen cada una en un plano de vídeo de vista principal, cuando se están reproduciendo, las instantáneas de sub-vista se restablecen cada una en un plano de vídeo de sub-vista, cuando se están reproduciendo, los datos de gráficos se restablecen en un plano de gráficos, cuando se están reproduciendo, los metadatos se proporcionan en cada grupo de instantáneas, GOP, que constituyen el flujo de vídeo de sub-vista e incluyen información de compensación, caracterizado porque la información de compensación es información de control que especifica el control de compensación, el control de compensación es un procedimiento para proporcionar una compensación izquierda y una compensación derecha para coordenadas horizontales en el plano de gráficos para generar un par de planos de gráficos, y a continuación combinar el par de planos de gráficos de manera separada con el plano de vídeo de vista principal y el plano de vídeo de sub-vista, el flujo de vídeo de sub-vista se multiplexa en un flujo de transporte, TS, los paquetes de TS que constituyen el TS cada uno tiene un encabezamiento que incluye una bandera de prioridad de TS que indica una prioridad del paquete de TS, y paquetes de TS que contienen los metadatos cada uno tiene un valor diferente de la bandera de prioridad de TS de paquetes de TS que contienen las instantáneas de sub-vista, comprendiendo el dispositivo (102) de reproducción: una unidad (3701) de lectura operable para leer datos de flujo desde el medio (101) de registro; una unidad (3725) de decodificación operable para decodificar los datos de flujo leídos mediante la unidad de lectura en al menos cualquiera de los planos de vídeo y los planos de gráficos; una unidad (4551) de filtro de prioridad de TS operable para monitorizar las banderas de prioridad de TS de los paquetes de TS incluidos en los datos de flujo, y extraer los paquetes de TS que contienen los metadatos; una unidad (4552) de procesamiento de metadatos operable para extraer los metadatos de los paquetes de TS extraídos por la unidad (4551) de filtro de prioridad de TS; y una unidad (4226) de combinación de planos operable para realizar control de compensación en el plano de gráficos de acuerdo con información de compensación incluida en los metadatos extraídos por la unidad (4552) de procesamiento de metadatos.

Description

5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción
[Campo técnico]
La presente invención se refiere a una tecnología para reproducción de vídeo estereoscópico, es decir, tridimensional (3D), y especialmente a la estructura de datos de flujo en un medio de registro.
[Antecedentes de la técnica]
En los últimos años, ha aumentado el interés general en el vídeo en 3D. Por ejemplo, son conocidas las atracciones en los parques de atracciones que incorporan imágenes de vídeo en 3D. Adicionalmente, a través de todo el país, está aumentando el número de cines que muestran películas en 3D. Junto con este creciente interés en vídeo en 3D, el desarrollo de la tecnología que posibilita la reproducción de imágenes de vídeo en 3D en el hogar ha progresado también. Existe una demanda de que esta tecnología almacene contenido de vídeo en 3D en un medio de registro portátil, tal como un disco óptico, mientras mantiene el contenido de vídeo en 3D a calidad de imagen alta. Adicionalmente, existe una demanda de que el medio de registro sea compatible con un dispositivo de reproducción bidimensional (2D). Es decir, se prefiere que un dispositivo de reproducción en 2D pueda reproducir imágenes de vídeo en 2D y un dispositivo de reproducción en 3D pueda reproducir imágenes de vídeo en 3D desde el mismo contenido de vídeo en 3D registrado en el medio de registro. En este punto, un “dispositivo de reproducción en 2D” se refiere a un dispositivo de reproducción convencional que puede reproducir únicamente imágenes de vídeo monoscópico, es decir imágenes de vídeo en 2D, mientras que un “dispositivo de reproducción en 3D” se refiere a un dispositivo de reproducción que puede reproducir imágenes de vídeo en 3D. Obsérvese que en la presente descripción, un dispositivo de reproducción en 3D se supone que puede reproducir también imágenes de vídeo en 2D convencionales.
La Figura 109 es un diagrama esquemático que ilustra la tecnología para asegurar la compatibilidad de un disco óptico que almacena contenido de vídeo en 3D con dispositivos de reproducción en 2D (véase, por ejemplo, el Documento de Patente 1). Un disco óptico PDS almacena dos tipos de flujos de vídeo. Uno es un flujo de vídeo en 2D/vista izquierda, y el otro es un flujo de vídeo de vista derecha. Un “flujo de vídeo en 2D/vista izquierda” representa una imagen de vídeo en 2D para mostrarse al ojo izquierdo de un observador durante la reproducción en 3D, es decir una “vista izquierda”. Durante la reproducción en 2D, este flujo constituye la imagen de vídeo en 2D. Un “flujo de vídeo de vista derecha” representa una imagen de vídeo en 2D para mostrarse al ojo derecho del observador durante la reproducción en 3D, es decir una “vista derecha”. Los flujos de vídeo de la vista izquierda y derecha tienen la misma velocidad de fotograma pero diferentes tiempos de presentación desplazados entre sí por un periodo de medio fotograma. Por ejemplo, cuando la velocidad de fotograma de cada flujo de vídeo es 24 fotogramas por segundo, los fotogramas del flujo de vídeo en 2D/vista izquierda y del flujo de vídeo de la vista derecha se visualizan de manera alterna cada 1/48 segundos.
Como se muestra en la Figura 109, los flujos de vídeo de la vista izquierda y de la vista derecha se dividen en una pluralidad de segmentos EX1A-C y EX2A-C respectivamente en el disco óptico PDS. Cada segmento contiene al menos un grupo de instantáneas (GOP), leyéndose los GOP juntos mediante la unidad de disco óptico. En lo sucesivo, los segmentos que pertenecen al flujo de vídeo en 2D/vista izquierda se denominan como “segmentos de vista izquierda/2D”, y los segmentos que pertenecen al flujo de vídeo de la vista derecha se denominan como “segmentos de vista derecha”. Los segmentos de vista en 2D/izquierda EX1A-C y los segmentos de vista derecha EX2A-C están dispuestos de manera alterna en una pista TRC del disco óptico PDS. Cada dos segmentos contiguos EX1A + EX2A, EX1B + EX2B, y EX1C + EX2C tienen la misma duración de tiempo de reproducción. Una disposición de este tipo de segmentos se denomina como una “disposición intercalada”. Un grupo de segmentos registrados en una disposición intercalada en un medio de registro se usa tanto en reproducción de vídeo en 3D como en reproducción de imágenes de vídeo en 2D, como se describe a continuación.
De entre los segmentos registrados en el disco óptico PDS, un dispositivo de reproducción en 2D PL2 provoca que una unidad de disco óptico DD2 lea únicamente los segmentos de vista en 2D/izquierda EX1A-C secuencialmente desde el inicio, omitiendo la lectura de segmentos de vista derecha EX2A-C. Adicionalmente, un decodificador de imagen VDC decodifica secuencialmente los segmentos leídos mediante la unidad de disco óptico DD2 en un fotograma de vídeo VFL. De esta manera, un dispositivo de visualización DS2 únicamente visualiza vistas izquierda, y los observadores pueden ver imágenes de vídeo en 2D normales.
Un dispositivo de reproducción en 3D PL3 provoca que una unidad de disco óptico DD3 lea de manera alterna segmentos de vista izquierda/2D y segmentos de vista derecha desde el disco óptico PDS. Cuando se expresan como códigos, los segmentos se leen en el orden EX1A, EX2A, EX1B, EX2B, EX1C y EX2C. Adicionalmente, de entre los segmentos leídos, aquellos que pertenecen al flujo de vídeo en 2D/vista izquierda se suministran a un decodificador de vídeo izquierdo VDL, mientras que aquellos que pertenecen al flujo de vídeo de la vista derecha se suministran a un decodificador de vídeo derecho VDR. Los decodificadores de vídeo VDL y VDR decodifican de manera alterna cada flujo de vídeo en fotogramas de vídeo VFL y VFR, respectivamente. Como resultado, se
visualizan de manera alterna vistas izquierda y vistas derecha en un dispositivo de visualización DS3. En sincronización con la conmutación de las vistas mediante el dispositivo de visualización DS3, las gafas de obturador SHG provocan que las lentes izquierda y derecha se vuelvan opacas de manera alterna. Por lo tanto, un observador que lleve las gafas de obturador SHG ve las vistas visualizadas por el dispositivo de visualización DS3 como 5 imágenes de vídeo en 3D.
Cuando el contenido de vídeo en 3D se almacena en cualquier medio de registro, no únicamente en un disco óptico, se usa la disposición intercalada de segmentos anteriormente descrita. El medio de registro puede usarse por lo tanto para tanto reproducción de imágenes de vídeo en 2D como de imágenes de vídeo en 3D.
[Lista de citas]
10 [Bibliografía de patente]
[Bibliografía de patente 1]
Publicación de Patente Japonesa N.° 3935507
Son conocidas soluciones de la técnica anterior adicionales a partir de los documentos WO2009/083863, EP1713276 y WO2006/038715.
15 [Sumario de la invención]
[Problema técnico]
El contenido de vídeo general incluye, además de un flujo de vídeo, uno o más flujos de gráficos que representan imágenes de gráficos tales como subtítulos y pantallas interactivas. Cuando se reproducen imágenes de vídeo desde contenido de vídeo en 3D, las imágenes de gráficos se reproducen también en tres dimensiones. Las técnicas 20 para reproducirlas en tres dimensiones incluyen modo de 2 planos y modo de 1 plano + compensación. El contenido de vídeo en 3D en modo de 2 planos incluye un par de flujos de gráficos que representan de manera separada imágenes de gráficos de la vista izquierda y de la vista derecha. Un dispositivo de reproducción en modo de 2 planos genera un plano de gráficos de la vista izquierda y de la vista derecha separados de los flujos de gráficos. El contenido de vídeo en 3D en modo de 1 plano + compensación incluye un flujo de gráficos que representa imágenes 25 de gráficos en 2D, e información de compensación proporcionada para el flujo de gráficos. Un dispositivo de reproducción en modo de 1 plano + compensación genera en primer lugar un único plano de gráficos desde el flujo de gráficos, y a continuación proporciona una compensación horizontal en el plano de gráficos de acuerdo con la información de compensación. Un par de planos de gráficos de la vista izquierda y de la vista derecha se generan por lo tanto desde el flujo de gráficos. En cualquier modo, las imágenes de gráficos de la vista izquierda y de la vista 30 derecha se visualizan de manera alterna en la pantalla del dispositivo de visualización. Como resultado, los observadores perciben las imágenes de gráficos como imágenes en 3D.
Si el flujo de gráficos y la información de compensación están contenidos en ficheros separados de contenido de vídeo en 3D, el dispositivo de reproducción en modo de 1 plano + compensación procesa estos ficheros de manera separada en piezas de datos correspondientes, y usa las piezas de datos para generar un par de imágenes de 35 gráficos de la vista izquierda y de la vista derecha. Obsérvese que las imágenes de gráficos y la información de compensación se cambian en general en periodos de fotograma. Sin embargo, leer y analizar el fichero que almacena la información de compensación cada vez que se visualiza un fotograma tiene un riesgo de que “el procedimiento no se esté completando a tiempo y las imágenes no puedan visualizarse correctamente”. Por consiguiente, para que el procedimiento se sincronice con el periodo de fotograma sin fallo, es necesario expandir la 40 información de compensación en la memoria con antelación. En ese caso, la capacidad de la memoria integrada en la que se ha de expandir el fichero que almacena la información de compensación debería ser necesariamente grande debido a que la cantidad total de la información de compensación por flujo de gráficos es grande. También, cuando se incluye una pluralidad de imágenes de gráficos en una escena, la memoria integrada se requiere que tenga incluso capacidad más grande. De esta manera, incorporar el flujo de gráficos y la información de 45 compensación como ficheros separados en contenido de vídeo en 3D evita una reducción adicional en la capacidad
de la memoria integrada.
Para resolver el problema anteriormente descrito, la información de compensación está contenida en el flujo de vídeo a intervalos de GOP, por ejemplo. Esto permite que un decodificador en un dispositivo de reproducción extraiga la información de compensación desde el flujo de vídeo mientras decodifica el flujo de vídeo. Como 50 resultado, el dispositivo de reproducción puede mantener de manera segura la correspondencia entre el flujo de
gráficos y la información de compensación. Además, la memoria integrada únicamente necesita tener una capacidad suficiente para expandir la información de compensación por GOP en la misma, por ejemplo. Esto puede conseguir fácilmente tanto el soporte de contenidos de vídeo en 3D con diversos flujos de gráficos como la reducción adicional en capacidad de la memoria integrada.
55 En este punto, son concebibles diversos medios como medios específicos usados por el decodificador en un dispositivo de reproducción para implementar la función para extraer información de compensación desde los flujos
5
10
15
20
25
30
35
40
45
50
55
60
de vídeo, tal como un medio para incorporar la función en el hardware especializado a la decodificación de flujos de vídeo, y un medio para realizar la función por otro hardware o software. Sin embargo, no se prefiere variar las estructuras de datos de flujos de vídeo e información de compensación entre estos medios.
Un objeto de la presente invención es resolver los problemas anteriores, particularmente para proporcionar un medio de registro en el que un flujo de vídeo e información de compensación están registrados de manera integral en una estructura de datos usable en común en diversos modos de implementación de la función, que es para extraer la información de compensación desde el flujo de vídeo, en un dispositivo de reproducción.
[Solución al problema]
En un medio de registro de acuerdo con la presente invención, se registran un flujo de vídeo de vista principal, un flujo de vídeo de sub-vista y un flujo de gráficos. El flujo de vídeo de vista principal incluye instantáneas de vista principal que constituyen las vistas principales de imágenes de vídeo estereoscópico. El flujo de vídeo de sub-vista incluye instantáneas de sub-vista y metadatos, constituyendo las instantáneas de sub-vista sub-vistas de imágenes de vídeo estereoscópico. El flujo de gráficos incluye datos de gráficos que constituyen imágenes de gráficos monoscópicos. Las instantáneas de vista principal se restablecen cada una en un plano de vídeo de vista principal, cuando se están reproduciendo. Las instantáneas de sub-vista se restablecen cada una en un plano de vídeo de sub-vista, cuando se están reproduciendo. Los datos de gráficos se restablecen en un plano de gráficos, cuando se están reproduciendo. Los metadatos se proporcionan en cada grupo de instantáneas (GOP) que constituyen el flujo de vídeo de sub-vista e incluyen información de compensación. La información de compensación es información de control que especifica el control de compensación para una pluralidad de instantáneas que constituyen un GOP. El control de compensación es un procedimiento para proporcionar una compensación izquierda y una compensación derecha para coordenadas horizontales en el plano de gráficos para generar un par de planos de gráficos, y a continuación combinar el par de planos de gráficos de manera separada con el plano de vídeo de vista principal y el plano de vídeo de sub-vista. El flujo de vídeo de sub-vista se multiplexa en un flujo de transporte (TS). Los paquetes de TS que constituyen el TS cada uno tienen un encabezamiento que incluye una bandera de prioridad de TS que indica una prioridad del paquete de TS. Los paquetes de TS que contienen los metadatos tienen un valor diferente de bandera de prioridad de TS de los paquetes de TS que contienen las instantáneas de sub-vista.
[Efectos ventajosos de la invención]
El medio de registro de acuerdo con la presente invención posibilita que la unidad de decodificación de un dispositivo de reproducción separe paquetes de TS que contienen los metadatos y paquetes de TS que contienen las instantáneas de sub-vista de acuerdo con los valores de las banderas de prioridad de TS. Por consiguiente, la unidad de decodificación puede equiparse con unidades de función separadas; una para extraer la información de compensación desde paquetes de TS que contienen los metadatos, y la otra para decodificar paquetes de TS que contienen las instantáneas de sub-vista en instantáneas descomprimidas. En este caso, pueden diseñarse configuraciones específicas de estas unidades de función de manera independiente entre sí. Por otra parte, la unidad de decodificación en la que están integradas las unidades de función posibilita que la unidad de función integrada procese todos los paquetes de TS que contienen el flujo de vídeo de sub-vista, de manera independiente de los valores de las banderas de prioridad de TS. De esta manera, el medio de registro de acuerdo con la presente invención posibilita que un flujo de vídeo y la información de compensación se graben integralmente en el mismo en una estructura de datos usable en común en diversos modos de implementación de la función, que es para extraer la información de compensación desde el flujo de vídeo, en un dispositivo de reproducción.
[Breve descripción de los dibujos]
La Figura 1 es un diagrama esquemático que muestra un sistema de cine en casa que usa un medio de registro de acuerdo con la realización 1 de la presente invención.
La Figura 2 es un diagrama esquemático que muestra una estructura de datos de un disco 101 BD-ROM mostrado en la Figura 1.
Las Figuras 3A y 3B son listas de flujos elementales multiplexados en un TS principal y un sub-TS en el disco BD-ROM, respectivamente.
La Figura 4 es un diagrama esquemático que muestra la disposición de paquetes de TS en los datos 400 de flujo multiplexados.
La Figura 5A es un diagrama esquemático que muestra una estructura de datos de un encabezamiento 501H de TS; la Figura 5B es un diagrama esquemático que muestra el formato de una secuencia 501 de paquetes de TS que constituyen datos de flujo multiplexados; la Figura 5C es un diagrama esquemático que muestra la formación de una secuencia de paquetes 502 de origen compuestos de la secuencia de paquetes de TS para datos de flujo multiplexados; y la Figura 5D es un diagrama esquemático de un grupo de sectores, en el que una secuencia de paquetes 502 de origen se registra de manera consecutiva, en el área de volumen del disco BD-ROM.
La Figura 6 es un diagrama esquemático que muestra la estructura de datos del flujo 600 de PG.
La Figura 7 es un diagrama esquemático que muestra las instantáneas para un flujo 701 de vídeo de vista de base y un flujo 702 de vídeo de vista derecha en orden de tiempo de presentación.
La Figura 8 es un diagrama esquemático que muestra detalles sobre una estructura de datos de un flujo 800 de vídeo.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 9 es un diagrama esquemático que muestra detalles sobre un procedimiento para almacenar un flujo 901 de vídeo en una secuencia 902 de paquetes de PES.
La Figura 10 es un diagrama esquemático que muestra correspondencia entre las PTS y las DTS asignadas a cada instantánea en un flujo 1001 de vídeo de vista de base y un flujo 1002 de vídeo de vista dependiente.
La Figura 11 es un diagrama esquemático que muestra una estructura de datos de metadatos 1110 de compensación incluidos en un flujo 1100 de vídeo de vista dependiente.
La Figura 12 es una tabla que muestra la sintaxis de estos metadatos 1110 de compensación mostrados en la Figura 11.
Las Figuras 13A y 13B son diagramas esquemáticos que muestran controles de compensación para un plano 1310 de PG y plano 1320 de IG respectivamente; y la Figura 13C es un diagrama esquemático que muestra imágenes de gráficos en 3D que se hace que perciba un observador 1330 desde imágenes de gráficos en 2D representadas por planos de gráficos mostrados en las Figuras 13A y 13B.
Las Figuras 14A y 14B son gráficos que muestran ejemplos de secuencias de compensación; y la Figura 14C es un diagrama esquemático que muestra imágenes de gráficos en 3D reproducidas de acuerdo con las secuencias de compensación mostradas en las Figuras 14A y 14B.
La Figura 15 es un diagrama esquemático que muestra un paquete 1510 de PES que almacena la VAU n.° 1 1500 en el flujo de vídeo de vista dependiente, y una secuencia de paquetes 1520 de TS generada desde el paquete 1510 de PES.
La Figura 16 es un diagrama esquemático que muestra una secuencia de paquetes 1620 de TS donde los paquetes de TS que pertenecen al primer grupo 1521 y al segundo grupo 1522 mostrados en la Figura 15 indican el mismo valor de prioridad de TS.
La Figura 17A es un diagrama esquemático que muestra una estructura de datos de información 1750 de conmutación de decodificación; y las Figuras 17B y 17C son diagramas esquemáticos que muestran secuencias de contadores 1710, 1720, 1730 y 1740 de decodificación asignados a cada instantánea en un flujo 1701 de vídeo de vista de base y un flujo 1702 de vídeo de vista dependiente.
La Figura 18 es un diagrama esquemático que muestra una estructura de datos de una PMT 1810.
La Figura 19 es un diagrama esquemático que muestra una disposición física de datos de flujo multiplexados en el disco BD-ROM.
La Figura 20A es un diagrama esquemático que muestra la disposición del TS 2001 principal y sub-TS 2002 registrados de manera separada y consecutiva en un disco BD-ROM; la Figura 20B es un diagrama esquemático que muestra una disposición de bloques de datos de vista dependiente D[0], D[1], D[2], ... y bloques de datos de vista de base B[0], B[1], B[2], ... registrados de manera alterna en el disco 101 BD-ROM de acuerdo con la realización 1 de la presente invención; y las Figuras 20C y 20D son diagramas esquemáticos que muestran ejemplos de los tiempos de ATC de segmento para un grupo de bloques de datos de vista dependiente D[n] y un grupo de bloques de datos de vista de base B[n] registrados en una disposición intercalada (n = 0, 1, 2).
La Figura 21 es un diagrama esquemático que muestra una ruta 2101, 2102 de reproducción en modo de reproducción en 2D y modo L/R para un grupo 1901-1903 de bloques de segmento.
La Figura 22 es un diagrama esquemático que muestra una estructura de datos de fichero 231 de información de clip en 2D (01000.clpi).
La Figura 23A es un diagrama esquemático que muestra una estructura de datos de un mapa 2230 de entrada; la Figura 23B es un diagrama esquemático que muestra paquetes de origen en un grupo 2310 de paquetes de origen que pertenecen a un fichero de 2D 241 que están asociados con cada EP_ID 2305 por el mapa 2230 de entrada; y la Figura 23C es un diagrama esquemático que muestra un grupo de bloques de datos D[n], B[n] (n = 0, 1,2, 3, ...) en un disco 101 BD-ROM que corresponde al grupo 2310 de paquetes de origen.
La Figura 24A es un diagrama esquemático que muestra una estructura de datos de puntos 2242 de inicio de segmento; la Figura 24B es un diagrama esquemático que muestra una estructura de datos de puntos 2420 de inicio de segmento incluidos en el fichero 232 de información de clip de vista dependiente (02000.clpi); la Figura 24C es un diagrama esquemático que representa los bloques de datos de vista de base B[0], B[1], B[2], ... extraídos desde el fichero SS 244A por el dispositivo 102 de reproducción en un modo de reproducción en 3D; la Figura 24D es un diagrama esquemático que representa la correspondencia entre segmentos de vista dependiente EXT2[0], EXT2[1], ... que pertenecen al fichero DEP (02000.m2ts) 242 y los SPN 2422 mostrados por los puntos 2420 de inicio de segmento; y la Figura 24E es un diagrama esquemático que muestra la correspondencia entre un segmento SS EXTSS[0] que pertenece al fichero SS 244A y un bloque de segmento en el disco BD-ROM.
La Figura 25 es un diagrama esquemático que muestra la correspondencia entre un único bloque 2500 de
segmento registrado en el disco bD-ROM y cada uno de los grupos de bloques de segmentos en un fichero en
2D 2510, fichero base 2511, fichero DEP 2512 y fichero SS 2520.
La Figura 26 es un diagrama esquemático que muestra un ejemplo de puntos de entrada establecidos en un flujo 2610 de vídeo de vista de base y un flujo 2620 de vídeo de vista dependiente.
La Figura 27 es un diagrama esquemático que muestra una estructura de datos de un fichero de lista de
reproducción en 2D.
La Figura 28 es un diagrama esquemático que muestra una estructura de datos de PI n.° N mostrada en la Figura 27.
Las Figuras 29A y 29B son diagramas esquemáticos que muestran una correspondencia entre dos secciones 2901 y 2902 de reproducción a conectarse cuando CC es “5” o “6”.
La Figura 30 es un diagrama esquemático que muestra una correspondencia entre PTS indicadas por un fichero
5
10
15
20
25
30
35
40
45
50
55
60
65
de lista de reproducción en 2D (00001.mpls) 221 y secciones reproducidas desde un fichero en 2D (01000.m2ts) 241.
La Figura 31 es un diagrama esquemático que muestra una estructura de datos de un fichero de lista de reproducción en 3D.
La Figura 32 es un diagrama esquemático que muestra una tabla 3205 de STN incluida en una ruta 3101 principal del fichero de lista de reproducción en 3D mostrado en la Figura 31.
La Figura 33 es un diagrama esquemático que muestra una estructura de datos de la tabla de STN SS 3130 mostrada en la Figura 31.
La Figura 34 es un diagrama esquemático que muestra la correspondencia entre PTS indicadas mediante un fichero de lista de reproducción en 3D (00002.mpls) 222 y secciones reproducidas desde un fichero SS (01000.ssif) 244A.
La Figura 35 es un diagrama esquemático que muestra una estructura de datos de un fichero de índice (index.bdmv) 211 mostrado en la Figura 2.
La Figura 36 es un diagrama de flujo de procesamiento mediante el cual el dispositivo 102 de reproducción mostrado en la Figura 1 selecciona un fichero de lista de reproducción para reproducción usando seis tipos de procedimientos de determinación.
La Figura 37 es un diagrama de bloques funcional de un dispositivo 3700 de reproducción en 2D.
La Figura 38 es una lista de parámetros de sistema (SPRM) almacenados en la unidad 3736 de almacenamiento variable de reproductor mostrada en la Figura 37.
La Figura 39 es un diagrama de flujo de procesamiento de reproducción de lista de reproducción en 2D mediante una unidad 3735 de control de reproducción mostrada en la Figura 37.
La Figura 40 es un diagrama de bloques funcional del decodificador 3725 objetivo de sistema mostrado en la Figura 37.
La Figura 41A es un diagrama de flujo de procesamiento mediante el cual el decodificador 4072 de PG mostrado en la Figura 40 decodifica un objeto de gráficos desde una entrada de datos en el flujo de PG; y las Figuras 41B- 41E son diagramas esquemáticos que muestran el objeto de gráficos que cambia a medida que el procesamiento continúa.
La Figura 42 es un diagrama de bloques funcional de un dispositivo 4200 de reproducción en 3D.
La Figura 43 es una tabla que muestra una estructura de datos del SPRM(27) y SPRM(28) almacenados en la unidad 4236 de almacenamiento variable de reproductor mostrada en la Figura 42.
La Figura 44 es un diagrama de flujo procesamiento de reproducción de lista de reproducción en 3D mediante una unidad 4235 de control de reproducción mostrada en la Figura 42.
La Figura 45 es un diagrama de bloques funcional del decodificador 4225 objetivo de sistema mostrado en la Figura 42 que implementa la función para extraer metadatos de compensación usando un primer medio.
La Figura 46 es un diagrama de bloques funcional de un sistema de procesamiento de flujos de vídeo en el decodificador 4225 objetivo de sistema mostrado en la Figura 42 que implementa la función para extraer metadatos de compensación usando un segundo medio.
La Figura 47 es un diagrama de bloques funcional de un sumador 4226 de planos mostrado en la Figura 42.
La Figura 48 es un diagrama de flujo de control de compensación mediante las unidades 4731-4734 de recorte mostradas en la Figura 47.
La Figura 49B es un diagrama esquemático que muestra de datos de plano de PG GP para los que la segunda unidad 4732 de recorte ha de proporcionar control de compensación; y las Figuras 49A y 49C son diagramas esquemáticos que muestran datos de plano de PG RPG a los que se ha proporcionado una compensación derecha y datos de plano de PG LPG a los que se ha proporcionado una compensación izquierda.
La Figura 50 es un diagrama esquemático que muestra un paquete 5010 de PES que almacena la VAU n.° 1 5000 en el flujo de vídeo de vista dependiente y una secuencia de paquetes 5020 de TS generada desde el paquete 5010 de PES.
La Figura 51 es un diagrama de bloques funcional que muestra un sistema de procesamiento de flujos de vídeo en el decodificador 5125 objetivo de sistema que extrae metadatos de compensación desde la secuencia 5020 de paquetes de TS mostrado en la Figura 50.
La Figura 52A es un diagrama esquemático que muestra una estructura de datos de metadatos 5200 de compensación que usa una función de finalización; la Figura 52B es un gráfico que muestra los tipos de elementos en la función de finalización; y la Figura 52C es un gráfico que muestra valores de compensación calculados por un dispositivo de reproducción en 3D desde los ID de secuencia de compensación = 0, 1, 2 mostrados en la Figura 52A.
La Figura 53 es un diagrama esquemático que muestra (i) una estructura de datos de un fichero 5300 de lista de reproducción en 3D que incluye una pluralidad de sub-rutas y (ii) una estructura de datos de un fichero en 2D 5310 y dos ficheros de DEP 5321 y 5322 a los que se hace referencia mediante el fichero 5300 de lista de reproducción en 3D.
La Figura 54 es un diagrama esquemático que muestra una tabla 5400 de STN en la que se establecen dos o más valores de ajuste de compensación para una pieza de datos de flujo.
Las Figuras 55A-55C son diagramas esquemáticos que muestran paralajes PRA, PRB y PRC entre vistas izquierda y derecha visualizadas en una pantalla de 32 pulgadas SCA, pantalla de 50 pulgadas SCB, y pantalla de 100 pulgadas SCC, respectivamente.
La Figura 56A es un diagrama esquemático que muestra una tabla de correspondencia entre tamaños de pantalla y valores de ajuste de compensación de salida; y la Figura 56B es un gráfico que representa una función
5
10
15
20
25
30
35
40
45
50
55
60
65
entre tamaños de pantalla y valores de ajuste de compensación de salida.
La Figura 57 es un diagrama de bloques que muestra los componentes de un dispositivo de reproducción en 3D requeridos para emitir el ajuste de compensación.
La Figura 58A es un diagrama esquemático que muestra una estructura de datos de un flujo 5800 de vídeo de vista dependiente que representa únicamente imágenes fijas; y la Figura 58B es un diagrama esquemático que muestra una secuencia 5821 de plano de vídeo de la vista izquierda, una secuencia 5822 de plano de vídeo de vista derecha, y una secuencia 5830 de plano de gráficos que se reproducen de acuerdo con una lista de reproducción en 3D de este tipo.
La Figura 59 es un diagrama de bloques del dispositivo 103 de visualización que realiza el procesamiento para compensar una alineación incorrecta entre vistas izquierda y derecha.
La Figura 60A es una vista en planta que muestra esquemáticamente ángulos de visión horizontal HAL y HAR para un par de cámaras de vídeo CML y CMR que filman imágenes de vídeo en 3D;
Las Figuras 60B y 60C son diagramas esquemáticos que muestran una vista izquierda LV filmada por la cámara de vídeo de la vista izquierda CML y una vista derecha RV capturada por la cámara de vídeo derecha CMR, respectivamente; y las Figuras 60D y 60E son diagramas esquemáticos que muestran respectivamente una vista izquierda LV representada por el plano de vídeo izquierdo procesado y una vista derecha RV representada por el plano de vídeo derecho procesado.
La Figura 61A es una vista en planta que muestra esquemáticamente ángulos de vista vertical VAL y VAR para un par de cámaras de vídeo CML y CMR que filman imágenes de vídeo en 3D; la Figura 61B es un diagrama esquemático que muestra una vista izquierda LV filmada por la cámara de vídeo de la vista izquierda CML y una vista derecha RV capturada por la cámara de vídeo derecha CMR; y la Figura 61C es un diagrama esquemático que muestra una vista izquierda LV representada por el plano de vídeo izquierdo procesado y una vista derecha Rv representada por el plano de vídeo derecho procesado.
La Figura 62A es un diagrama esquemático que muestra un ejemplo de imágenes de gráficos representados por un plano de gráficos GPL; las Figuras 62B y 62C son diagramas esquemáticos que muestran respectivamente procedimientos de proporción de una compensación derecha e izquierda al plano de gráficos GPL; y las Figuras 62D y 62E son diagramas esquemáticos que muestran imágenes de gráficos representadas por los planos de gráficos GP1 y GP2 con las compensaciones derecha e izquierda, respectivamente.
La Figura 63 es un diagrama esquemático que muestra una condición con respecto a la disposición de los elementos de gráficos para planos de gráficos reproducidos desde un flujo de PG o un flujo de 1G en un disco BD-ROM y para un plano de gráficos generado por un dispositivo 102 de reproducción.
Las Figuras 64A1 y 64A2 son diagramas esquemáticos que muestran la misma pantalla en la visualización apaisada; las Figuras 64B y 64C son diagramas esquemáticos que muestran las pantallas en las que se ha proporcionado el plano de vídeo principal con compensaciones hacia arriba y hacia abajo de 131 píxeles, respectivamente; y la Figura 64D es un diagrama esquemático que muestra la pantalla en la que se ha proporcionado el plano de vídeo principal con una compensación hacia arriba de 51 píxeles.
La Figura 65 es un diagrama de bloques funcional que muestra la estructura del dispositivo de reproducción requerido para el desplazamiento de vídeo.
La Figura 66A es una tabla que muestra las estructuras de datos de los SPRM(32) y SPRM(33); y la Figura 66B es un diagrama esquemático que muestra la tabla de STN en el fichero de lista de reproducción para el contenido de vídeo de la visualización apaisada.
Las Figuras 67A-67C son diagramas esquemáticos que muestran planos de vídeo principales VPA, VPB y VPC procesados por la unidad 6501 de desplazamiento de vídeo en el modo Arriba, modo Mantener y modo Abajo, respectivamente; las Figuras 67D-67F son diagramas esquemáticos que muestran planos de PG PGD, PGE y PGF procesados por la segunda unidad 4632 de recorte en el modo Arriba, modo Mantener y modo Abajo, respectivamente; y las Figuras 67G-67I son diagramas esquemáticos que muestran datos de plano PLG, PLH y PLI combinados por el segundo sumador 4642 en el modo Arriba, modo Mantener y modo Abajo, respectivamente.
La Figura 68A es un diagrama esquemático que muestra otro ejemplo de la tabla de STN en el fichero de lista de reproducción para contenido de vídeo de la visualización apaisada; y la Figura 68B es un diagrama esquemático que muestra el orden de registro de una pluralidad de piezas de información 6803 de atributo de flujo, incluyendo cada una el modo 6812 de desplazamiento de vídeo, en la tabla de STN mostrada en la Figura 68A.
La Figura 69 es un diagrama de bloques funcional que muestra otro ejemplo de la estructura del dispositivo de reproducción requerida para la compensación de vídeo.
La Figura 70A es un diagrama esquemático que muestra la estructura de datos del SPRM(37) en la unidad 4236 de almacenamiento variable de reproductor; la Figura 70B es un diagrama esquemático que muestra la imagen de vídeo IMG y subtítulo SUB visualizados en la pantalla SCR en el caso donde el color de fondo del subtítulo representado por el flujo de PG se establece a transparente incoloro; y la Figura 70C es un diagrama esquemático que muestra la imagen de vídeo IMG y subtítulo SUB visualizados en la pantalla SCR en el caso donde un valor de coordenada de color del color de fondo del subtítulo se almacena en el SPRM(37).
La Figura 71A es un diagrama esquemático que muestra otro ejemplo adicional de la tabla de STN en el fichero de lista de reproducción para el contenido de vídeo de la visualización apaisada; y la Figura 71B es un diagrama de bloques funcional que muestra otro ejemplo adicional de la estructura del dispositivo de reproducción requerido para el desplazamiento de vídeo.
La Figura 72A es un diagrama esquemático que muestra los subtítulos SB1 y SB2 que corresponden al modo Mantener; la Figura 72B es un diagrama esquemático que muestra los subtítulos SB1 y SB2 que corresponden al
5
10
15
20
25
30
35
40
45
50
55
60
65
modo Abajo; la Figura 72C es un diagrama esquemático que muestra el subtítulo SB1 visualizado en el modo Mantener; y la Figura 72D es un diagrama esquemático que muestra el subtítulo SB3 visualizado en el modo Arriba cuando el subtítulo 7110 hacia arriba de vídeo no está registrado en la tabla de STN.
Las Figuras 73A y 73B son listas de flujos elementales multiplexados en un primer sub-TS y un segundo sub-TS en un disco BD-ROM, respectivamente.
La Figura 74 es un diagrama esquemático que muestra una estructura de datos de la tabla de STN SS 3130 de acuerdo con la realización 2 de la presente invención.
La Figura 75 es un diagrama de bloques funcional de un decodificador 7525 objetivo de sistema de acuerdo con la realización 2 de la presente invención.
La Figura 76 es un diagrama de bloques funcional parcial del sumador 7526 de planos en modo de 2 planos.
Las Figuras 77A, 77B y 77C son diagramas esquemáticos que muestran una imagen de gráficos de la vista izquierda GOB0 representada por el flujo de PG en 2D y unas imágenes de gráficos de vista derecha GOB1- GOB3 representadas por el flujo de PG de la vista derecha; y las Figuras 77D, 77E y 77F son diagramas esquemáticos que muestran el control de compensación realizado en la imagen de gráficos de la vista izquierda mostrada en las Figuras 77A, 77B y 77C.
La Figura 78 es un diagrama de bloques funcional de un dispositivo 7800 de registro de acuerdo con la realización 3 de la presente invención.
Las Figuras 79A y 79B son diagramas esquemáticos que muestran respectivamente una instantánea en una vista izquierda y en una vista derecha usadas para visualizar una escena de las imágenes de vídeo en 3D; y la Figura 79C es un diagrama esquemático que muestra información de profundidad calculada a partir de estas instantáneas por el codificador 7802 de vídeo.
La Figura 80 es un diagrama de flujo un procedimiento para registrar contenido de película en un disco BD-ROM usando el dispositivo 7800 de registro mostrado en la Figura 78.
La Figura 81 es un diagrama esquemático que muestra un procedimiento para alinear tiempos de ATC de segmento entre bloques de datos consecutivos.
Las Figuras 82A-82C son diagramas esquemáticos que ilustran el principio detrás de la reproducción de imágenes de vídeo en 3D (imágenes de vídeo estereoscópico) en un procedimiento que usa imágenes de vídeo de paralaje.
La Figura 83 es un diagrama esquemático que muestra un ejemplo de construcción de una vista izquierda LVW y una vista derecha RVW a partir de la combinación de una imagen de vídeo en 2D MVW y un mapa de profundidad DPH.
La Figura 84 es un diagrama de bloques que muestra el procesamiento de reproducción en el dispositivo de reproducción en modo de reproducción en 2D.
La Figura 85A es un gráfico que muestra el cambio en la cantidad de datos DA almacenados en la memoria intermedia 3721 de lectura durante la operación del procesamiento de reproducción mostrado en la Figura 84 en modo de reproducción en 2D; y la Figura 85B es un diagrama esquemático que muestra la correspondencia entre un bloque 8510 de segmento para reproducción y una ruta 8520 de reproducción en modo de reproducción en 2D.
La Figura 86 es un ejemplo de una tabla de correspondencia entre distancias de salto Sjump y tiempos de salto máximo Tjump_max para un disco BD-ROM.
La Figura 87 es un diagrama de bloques que muestra el procesamiento de reproducción en el dispositivo de reproducción en un modo de reproducción en 3D.
Las Figuras 88A y 88B son gráficos que muestran cambios en cantidades de datos DA1 y DA2 almacenados en RB1 4221 y RB2 4222 mostrados en la Figura 87 cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde un único bloque de segmento; y la Figura 88C es un diagrama esquemático que muestra una correspondencia entre el bloque 8810 de segmento y una ruta 8820 de reproducción en un modo de reproducción en 3D.
La Figura 89B es un diagrama esquemático que muestra un bloque 8901 de segmento de orden (M + 1) (la letra M representa un número entero mayor o igual a 1) y un bloque 8902 de segmento de orden (M + 2) y la correspondencia entre estos bloques 8901 y 8902 de segmento y una ruta 8920 de reproducción en un modo de reproducción en 3D; y la Figura 89A es un grupo de gráficos que muestra cambios en cantidades de datos DA1 y dA2 almacenados en RB1 4221 y RB2 4222, así como los cambios en la suma DA1 + DA2, cuando las imágenes de vídeo en 3D se reproducen continuamente sin interrupciones desde dos bloques 8901 y 8902 de segmento.
Las Figuras 90A y 90B son gráficos que muestran cambios en cantidades de datos DA1 y DA2 almacenados en RB1 4221 y RB2 4222 cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde los dos bloques 8901 y 8902 de segmentos consecutivos mostrados en la Figura 89B.
La Figura 91 es un diagrama de bloques que muestra el sistema de procesamiento de flujo de vídeo proporcionado en el decodificador 4225 objetivo de sistema en el modo de reproducción en 3D.
Las Figuras 92A y 92B son gráficos que muestran cambios temporales en la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 en ese caso, respectivamente; y la Figura 92C es un gráfico que muestra el cambio temporal en la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 mostradas en las Figuras 92A y 92B.
La Figura 93 es un diagrama esquemático que muestra las relaciones entre los paquetes de TS que se transfieren en el decodificador objetivo de sistema desde el desempaquetador de origen al filtro de PlD y los tiempos de ATC.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 94A es una tabla que muestra los tamaños de segmento máximo maxSEXTi[n] y maxSEXT2[n] para un par de segmentos a diversas combinaciones de la tasa de transferencia de vista de base REXT1[n] y la tasa de transferencia de vista dependiente RextcM; la Figura 94B es un diagrama esquemático que muestra que un par de segmentos EXT1[n], EXT2[n] está localizado en la parte superior de un bloque 9401 de segmento dispuesto después de un límite de capa Lb, y el bloque de datos de vista de base B[n] del par de segmentos está dispuesto antes del bloque de datos de vista dependiente D[n] del mismo.
Las Figuras 95A y 95B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 y RB2, respectivamente, cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde los dos bloques 9401 y 9402 de segmento mostrados en la Figura 94B.
La Figura 96A es un diagrama esquemático que muestra la sintaxis del punto de inicio de segmento en el caso donde el orden de bloques de datos se invierte en el par de segmentos localizados en el medio del bloque de segmento; la Figura 96B es un diagrama esquemático que muestra las relaciones entre el segmento de vista de base EXT1[k] (k = 0, 1, 2, ...) que pertenece al fichero base y la bandera de inicio de segmento indicada por el punto de inicio de segmento; la Figura 96C es un diagrama esquemático que muestra las relaciones entre el segmento de vista dependiente EXT2[k] que pertenece al fichero DEP y la bandera de inicio de segmento; y la Figura 96D es un diagrama esquemático que muestra las relaciones entre el segmento SS EXTSS[0] que pertenece al fichero SS y los bloques de segmento en el disco BD-ROM.
La Figura 97C es un diagrama esquemático que muestra una disposición de un bloque de datos que requiere la mayor capacidad de RB 1 4221; las Figuras 97A y 97B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 4221 y RB2 4222, respectivamente, cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde los dos bloques 9701 y 9702 de segmento mostrados en la Figura 97C; la Figura 97F es un diagrama esquemático que muestra una disposición de un bloque de datos que requiere la mayor capacidad de RB2 4222; y las Figuras 97D y 97E son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 4221 y RB2 4222, respectivamente, cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde los dos bloques 9703 y 9704 de segmento mostrados en la Figura 97F.
La Figura 98C es un diagrama esquemático que muestra un bloque 9810 de segmento que incluye en medio del mismo un par de segmentos en los que se invierte el orden de bloques de datos; y las Figuras 98A y 98B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 4221 y RB2 4222, respectivamente, cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde el bloque 9801 de segmento mostrado en la Figura 98C.
La Figura 99 es un diagrama esquemático que muestra una relación entre un bloque 9900 de segmento y los ficheros 9910-9920 de flujo de AV, incluyendo el bloque 9900 de segmento un par de segmentos en medio del mismo, teniendo el par de segmentos bloques de datos en orden inverso.
La Figura 100 es un diagrama esquemático que muestra la disposición 1 de un grupo de bloques de datos registrados antes y después de un límite de capa LB en un disco BD-ROM.
La Figura 101 es un diagrama esquemático que muestra una ruta A110 de reproducción en modo de reproducción en 2D y una ruta A120 de reproducción en un modo de reproducción en 3D para el grupo de bloques de datos en la disposición 1 mostrada en la Figura 100.
La Figura 102 es un diagrama esquemático que muestra la disposición 2 de un grupo de bloques de datos registrados antes y después de un límite de capa LB en un disco BD-ROM.
La Figura 103 es un diagrama esquemático que muestra una ruta A310 de reproducción en modo de reproducción en 2D y una ruta A320 de reproducción en un modo de reproducción en 3D para el grupo de bloques de datos en la disposición 2 mostrada en la Figura 102.
La Figura 104 es un diagrama esquemático que muestra las relaciones entre el tiempo de lectura Sext1[3]/Rud72 del bloque exclusivamente para reproducción en 3D B[3]ss localizado al final del segundo bloque A202 de segmento y el límite inferior de la capacidad de RB2 4222.
La Figura 105 es un diagrama esquemático que muestra los puntos A510 y A520 de entrada establecidos para los segmentos EXT1[k] y EXT2[k] (la letra k representa un número entero mayor o igual a 0) en un fichero A501 de base y un fichero dEp A502.
La Figura 106A es un diagrama esquemático que muestra una ruta de reproducción cuando los tiempos de ATC de segmento y los tiempos de reproducción del flujo de vídeo difieren entre bloques de datos de vista de base y bloques de datos de vista dependiente contiguos; y la Figura 106B es un diagrama esquemático que muestra una ruta de reproducción cuando los tiempos de reproducción del flujo de vídeo son iguales para bloques de datos de vista de base y de vista dependiente contiguos.
La Figura 107A es un diagrama esquemático que muestra una ruta de reproducción para datos de flujo multiplexados que soportan múltiples ángulos; la Figura 107B es un diagrama esquemático que muestra un grupo A701 de bloques de datos registrados en un disco BD-ROM y una correspondiente ruta A702 de reproducción en modo L/R; y la Figura 107C es un diagrama esquemático que muestra un bloque de segmento formado por los datos de flujo Ak, Bk y Ck para diferentes ángulos.
La Figura 108 es un diagrama esquemático que muestra (i) un grupo A801 de bloques de datos que constituyen un periodo de múltiples ángulos y (ii) una ruta A810 de reproducción en modo de reproducción en 2D y una ruta A820 de reproducción en modo L/R que corresponde al grupo A801 de bloque de datos.
La Figura 109 es un diagrama esquemático que ilustra la tecnología para asegurar la compatibilidad de un disco óptico que almacena contenido de vídeo en 3D con dispositivos de reproducción en 2D.
La Figura 110 es un diagrama de bloques funcional de un dispositivo de reproducción realizado usando el circuito
5
10
15
20
25
30
35
40
45
50
55
60
3 integrado de acuerdo con la realización 4 de la presente invención.
La Figura 111 es un diagrama de bloques funcional que muestra una estructura representativa de la unidad 5 de procesamiento de flujo mostrada en la Figura 110.
La Figura 112 es un diagrama de bloques funcional de la unidad 53 de conmutación y las unidades circundantes mostradas en la Figura 110 cuando la unidad 53 de conmutación es DMAC.
La Figura 113 es un diagrama de bloques funcional que muestra una estructura representativa de la unidad 8 de salida de AV mostrada en la Figura 110.
La Figura 114 es un diagrama esquemático que muestra un ejemplo del procedimiento de uso de la memoria 2 durante el procedimiento de superposición de imágenes.
La Figura 115 es un diagrama esquemático que muestra un procedimiento de superposición del plano de gráficos en el plano de vista izquierda usando la memoria 2 mostrada en la Figura 114.
La Figura 116 es un diagrama esquemático que muestra un procedimiento de superposición del plano de gráficos en el plano de vista derecha usando la memoria 2 mostrada en la Figura 114.
La Figura 117 es un diagrama esquemático que muestra otro ejemplo del procedimiento de uso de la memoria 2 durante el procedimiento de superposición de imágenes.
La Figura 118 es un diagrama de bloques funcional detallado de la unidad 8 de salida de AV y la unidad de salida de datos en el dispositivo de reproducción mostrado en la Figura 113.
Las Figuras 119A y 119B son diagramas esquemáticos que muestran ejemplos de la topología de un bus de control y un bus de datos dispuestos en el circuito 3 integrado mostrado en la Figura 110.
La Figura 120 es un diagrama de bloques funcional que muestra la estructura del circuito integrado de acuerdo con la realización 4 y las unidades circundantes, que se incorporan en un dispositivo de visualización.
La Figura 121 es un diagrama de bloques funcional detallado de la unidad 8 de salida de AV mostrada en la Figura 120.
La Figura 122 es un diagrama de flujo procesamiento de reproducción mediante un dispositivo de reproducción que usa el circuito 3 integrado mostrado en la Figura 110.
La Figura 123 es un diagrama de flujo que muestra detalles de las etapas S1-S6 mostradas en la Figura 122. [Descripción de las realizaciones]
Lo siguiente describe un medio de registro y un dispositivo de reproducción que pertenecen a las realizaciones preferidas de la presente invención con referencia a los dibujos.
Realización 1
La Figura 1 es un diagrama esquemático que muestra un sistema de cine en casa que usa un medio de registro de acuerdo con la realización 1 de la presente invención. Este sistema de cine en casa adopta un procedimiento de reproducción de imagen de vídeo en 3D (imagen de vídeo estereoscópico) que usa imágenes de vídeo de paralaje, y en particular adopta un procedimiento de generación de secuencias de fotogramas alternos como un procedimiento de visualización (véase la «explicación complementaria» para detalles). Como se muestra en la Figura 1, este sistema de cine en casa reproduce un medio 101 de registro e incluye un dispositivo 102 de reproducción, un dispositivo 103 de visualización, gafas 104 de obturador y un control 105 remoto. El dispositivo 102 de reproducción y el dispositivo 103 de visualización se proporcionan de manera independiente entre sí como se muestra en la Figura 1. Como alternativa, el dispositivo 102 de reproducción y el dispositivo 103 de visualización pueden proporcionarse como una unidad.
El medio 101 de registro es un Disco Blu-ray (BD)™ de solo lectura, es decir un disco BD-ROM. El medio 101 de registro puede ser un medio de registro portátil diferente, tal como un disco óptico con un formato diferente tal como DVD o similares, una unidad de disco duro (HDD) extraíble, o un dispositivo de memoria de semiconductores tal como una tarjeta de memoria SD. Este medio de registro, es decir, el disco 101 BD-ROM, almacena contenido de película como imágenes de vídeo en 3D. Este contenido incluye flujos de vídeo que representan una vista izquierda y una vista derecha para las imágenes de vídeo en 3D. El contenido puede incluir adicionalmente un flujo de vídeo que representa un mapa de profundidad para las imágenes de vídeo en 3D. Estos flujos de vídeo están dispuestos en el disco 101 BD-ROm en bloques de unidades de datos y se acceden usando una estructura de ficheros descrita a continuación. Los flujos de vídeo que representan la vista izquierda o la vista derecha se usan tanto por un dispositivo de reproducción en 2D como un dispositivo de reproducción en 3D para reproducir el contenido como imágenes de vídeo en 2D. A la inversa, un par de flujos de vídeo que representan una vista izquierda y una vista derecha, o un par de flujos de vídeo que representan cualquiera de una vista izquierda o una vista derecha y un mapa de profundidad, se usan por un dispositivo de reproducción en 3D para reproducir el contenido como imágenes de vídeo en 3D.
Una unidad 121 de BD-ROM se monta en el dispositivo 102 de reproducción. La unidad 121 de BD-ROM es una unidad de disco óptico conforme al formato de BD-ROM. El dispositivo 102 de reproducción usa la unidad 121 de BD-ROM para leer contenido desde el disco 101 de BD-ROM. El dispositivo 102 de reproducción decodifica adicionalmente el contenido en datos de vídeo / datos de audio. El dispositivo 102 de reproducción es un dispositivo de reproducción en 3D y puede reproducir el contenido tanto como imágenes de vídeo en 2D como imágenes de vídeo en 3D. En lo sucesivo, los modos operacionales del dispositivo 102 de reproducción cuando se reproducen imágenes de vídeo en 2D e imágenes de vídeo en 3D se denominan respectivamente como “modo de reproducción
5
10
15
20
25
30
35
40
45
50
55
60
en 2D” y “modo de reproducción en 3D”. En modo de reproducción en 2D, los datos de vídeo únicamente incluyen cualquiera de un fotograma de vídeo de vista izquierda o de vista derecha. En un modo de reproducción en 3D, los datos de vídeo incluyen tanto fotogramas de vídeo de la vista izquierda como de la vista derecha.
El modo de reproducción en 3D se divide adicionalmente en modo de izquierda/derecha (L/R) y modo de profundidad. En “modo L/R”, se genera un par de fotogramas de vídeo de la vista izquierda y de la vista derecha a partir de una combinación de flujos de vídeo que representan la vista izquierda y la vista derecha. En “modo de profundidad”, se genera un par de fotogramas de vídeo de la vista izquierda y de la vista derecha a partir de una combinación de flujos de vídeo que representan cualquiera de una vista izquierda o una vista derecha y un mapa de profundidad. El dispositivo 102 de reproducción se proporciona con un modo L/R. El dispositivo 102 de reproducción puede proporcionarse adicionalmente con un modo de profundidad.
El dispositivo 102 de reproducción está conectado al dispositivo 103 de visualización mediante un cable 122 de Interfaz Multimedia de Alta Definición (HDMI). El dispositivo 102 de reproducción convierte datos de vídeo / datos de audio en una señal de vídeo / señal de audio en el formato HDMI, y transmite las señales al dispositivo 103 de visualización mediante el cable 122 de HDMI. En modo de reproducción en 2D, únicamente uno de cualquiera del fotograma de vídeo de la vista izquierda o de la vista derecha se multiplexa en la señal de vídeo. En un modo de reproducción en 3D, ambos de los fotogramas de vídeo de la vista izquierda y de la vista derecha se multiplexan en tiempo en la señal de vídeo. Adicionalmente, el dispositivo 102 de reproducción intercambia mensajes de CEC con el dispositivo 103 de visualización mediante el cable 122 de HDMI. El dispositivo 102 de reproducción puede por lo tanto consultar al dispositivo 103 de visualización si soporta reproducción de imágenes de vídeo en 3D.
El dispositivo 103 de visualización es una pantalla de cristal líquido. Como alternativa, el dispositivo 103 de visualización puede ser otro tipo de pantalla de panel plano, tal como una pantalla de plasma, una pantalla de EL orgánica, etc., o un proyector. El dispositivo 103 de visualización visualiza vídeo en la pantalla 131 en respuesta a una señal de vídeo, y provoca que los altavoces produzcan audio en respuesta a una señal de audio. El dispositivo
103 de visualización soporta reproducción de imágenes de vídeo en 3D. Durante la reproducción de imágenes de vídeo en 2D, cualquiera de la vista izquierda o la vista derecha se visualiza en la pantalla 131. Durante la reproducción de imágenes de vídeo en 3D, la vista izquierda y vista derecha se visualizan de manera alterna en la pantalla 131.
El dispositivo 103 de visualización incluye una unidad 132 de transmisión de señal izquierda/derecha. La unidad 132 de transmisión de señal izquierda/derecha transmite una señal izquierda/derecha lR a las gafas 104 de obturador mediante rayos infrarrojos o mediante transmisión de radio. La señal izquierda/derecha LR indica si la imagen actualmente visualizada en la pantalla 131 es una imagen de vista izquierda o de vista derecha. Durante la reproducción de imágenes de vídeo en 3D, el dispositivo 103 de visualización detecta la conmutación de fotogramas distinguiendo entre un fotograma de vista izquierda y un fotograma de vista derecha basándose en una señal de control que acompaña una señal de vídeo. Adicionalmente, el dispositivo 103 de visualización provoca que la unidad 132 de transmisión de señal izquierda/derecha conmute la señal izquierda/derecha LR de manera síncrona con la conmutación detectada de los fotogramas.
Las gafas 104 de obturador incluyen dos paneles 141L y 141R de visualización de cristal líquido y una unidad 142 de recepción de señal izquierda/derecha. Los paneles 141L y 141R de visualización de cristal líquido respectivamente constituyen las partes de lente izquierda y derecha. La unidad 142 de recepción de señal izquierda/derecha recibe una señal izquierda/derecha LR, y de acuerdo con los cambios en la misma, transmite la señal a los paneles 141L y 141R de visualización de cristal líquido izquierdo y derecho. En respuesta a la señal, cada uno de los paneles 141L y 141R de visualización de cristal líquido deja pasar la luz a través de todo el panel o apaga la luz. Por ejemplo, cuando la señal izquierda/derecha LR indica una visualización de vista izquierda, el panel 141L de visualización de cristal líquido para el ojo izquierdo deja pasar la luz a través, mientras que el panel 141R de visualización de cristal líquido para el ojo derecho apaga la luz. Cuando la señal izquierda/derecha LR indica una visualización de vista derecha, los paneles de visualización actúan de manera opuesta. Los dos paneles 141L y 141R de visualización de cristal líquido por lo tanto dejan pasar la luz de manera alterna en sincronización con la conmutación de fotogramas. Como resultado, cuando el observador mira en la pantalla 131 mientras lleva las gafas
104 de obturador, la vista izquierda se muestra únicamente al ojo izquierdo del observador, y la vista derecha se muestra únicamente al ojo derecho. Se hace que el observador perciba la diferencia entre las imágenes observadas por cada ojo como la paralaje binocular para la misma imagen estereoscópica, y por lo tanto la imagen de vídeo parece ser estereoscópica.
El control 105 remoto incluye una unidad de operación y una unidad de transmisión. La unidad de operación incluye una pluralidad de botones. Los botones corresponden a cada una de las funciones del dispositivo 102 de reproducción y del dispositivo 103 de visualización, tal como encender o apagar la alimentación, iniciar o detener la reproducción del disco 101 BD-ROM, etc. La unidad de operación detecta cuándo el usuario presiona un botón y transporta información de identificación para el botón a la unidad de transmisión como una señal. La unidad de transmisión convierte esta señal a una señal de IR y la emite mediante rayos infrarrojos o transmisión de radio al dispositivo 102 de reproducción o al dispositivo 103 de visualización. Por otra parte, el dispositivo 102 de reproducción y el dispositivo 103 de visualización cada uno reciben esta señal de IR, determinan el botón indicado por esta señal de IR, y ejecutan la función asociada con el botón. De esta manera, el usuario puede controlar
5
10
15
20
25
30
35
40
45
50
55
remotamente el dispositivo 102 de reproducción o el dispositivo 103 de visualización.
<Estructura de datos del disco BD-ROM>
La Figura 2 es un diagrama esquemático que muestra una estructura de datos de un disco 101 BD-ROM. Como se muestra en la Figura 2, se proporciona un Área de Corte de Ráfaga (BCA) 201 en la parte más interior del área de registro de datos en el disco 101 BD-ROM. Únicamente se permite que la unidad 121 de BD-ROM acceda al BCA, y el acceso por los programas de aplicación está prohibido. El BCA 201 puede usarse por lo tanto como tecnología para protección de derechos de autor. En el área de registro de datos fuera del BCA 201, se encuentran pistas en espiral desde la circunferencia interna hasta la externa. En la Figura 2, una pista 202 se extiende esquemáticamente en una dirección transversal. El lado izquierdo representa la parte circunferencial interna del disco 101, y el lado derecho representa la parte circunferencial externa. Como se muestra en la Figura 2, la pista 202 contiene un área 202A de entrada, un área 202B de volumen y un área 202C de salida en orden desde la circunferencia interna. El área 202A de entrada se proporciona inmediatamente en el borde fuera del BCA 201. El área 202A de entrada incluye información necesaria para que la unidad 121 de BD-ROM acceda al área 202B de volumen, tal como el tamaño, la dirección física, etc., de los datos registrados en el área 202B de volumen. El área 202C de salida se proporciona en la parte circunferencial más externa del área de registro de datos e indica el final del área 202B de volumen. El área 202B de volumen incluye datos de aplicación tales como imágenes de vídeo, audio, etc.
El área 202B de volumen se divide en pequeñas áreas 202D denominadas “sectores”. Los sectores tienen un tamaño común, por ejemplo 2048 bytes. Cada sector 202D se le asigna consecutivamente un número de serie en orden desde la parte superior del área 202B de volumen. Estos números de serie se denominan números de bloque lógico (LBN) y se usan en direcciones lógicas en el disco 101 de BD-ROM. Durante la lectura de datos desde el disco 101 BD-ROM, los datos a leerse se especifican a través de la designación del LBN para el sector de destino. El área 202B de volumen puede por lo tanto accederse en unidades de sectores. Adicionalmente, en el disco 101 BD-ROM, las direcciones lógicas son sustancialmente las mismas que las direcciones físicas. En particular, en un área donde los LBN son consecutivos, las direcciones físicas también son sustancialmente consecutivas. Por consiguiente, la unidad 121 de BD-ROM puede leer consecutivamente datos desde sectores que tienen LBN consecutivos sin hacer que el cabezal óptico realice una búsqueda.
Los datos registrados en el área 202B de volumen se gestionan bajo un sistema de ficheros predeterminado. Se adopta el Formato de Disco Universal (UDF) como este sistema de ficheros. Como alternativa, el sistema de ficheros puede ser ISO9660. Los datos registrados en el área 202B de volumen se representan en un formato de directorio/fichero de acuerdo con el sistema de ficheros (véase la «explicación complementaria» para detalles). En otras palabras, los datos son accesibles en unidades de directorios o ficheros.
«Estructura de directorio/fichero en el disco BD-ROM>>
La Figura 2 muestra adicionalmente la estructura de directorio/fichero de los datos almacenados en el área 202B de volumen en un disco 101 BD-ROM. Como se muestra en la Figura 2, en esta estructura de directorio/fichero, un directorio 210 de película de BD (BDMV) está localizado directamente por debajo de un directorio 203 ROOT. Por debajo del directorio 210 BDMV están un fichero de índice (index.bdmv) 211 y un fichero de objeto de película (Movie-Object.bdmv) 212.
El fichero 211 de índice contiene información para gestionar como una totalidad el contenido registrado en el disco
101 BD-ROM. En particular, esta información incluye tanto información para hacer que el dispositivo 102 de reproducción reconozca el contenido, así como una tabla de índice. La tabla de índice es una tabla de correspondencia entre un título que constituye el contenido y un programa para controlar la operación del dispositivo
102 de reproducción. Este programa se denomina un “objeto”. Los tipos de objeto son un objeto de película y un objeto de BD-J (BD Java™).
El fichero 212 de objeto de película generalmente almacena una pluralidad de objetos de película. Cada objeto de película incluye una secuencia de comandos de navegación. Un comando de navegación es un comando de control que provoca que el dispositivo 102 de reproducción ejecute procedimientos de reproducción similares a los reproductores de DVD. Los tipos de comandos de navegación son, por ejemplo, un comando de lectura para leer un fichero de lista de reproducción que corresponde a un título, un comando de reproducción para reproducir datos de flujo desde un fichero de flujo de AV indicado por un fichero de lista de reproducción, y un comando de transición para hacer una transición a otro título. Los comandos de navegación se escriben en un lenguaje interpretado y se descifran mediante un intérprete, es decir un programa de control de trabajo, incluido en el dispositivo 102 de reproducción, haciendo por lo tanto que la unidad de control ejecute el trabajo deseado. Un comando de navegación está compuesto de un código operacional y un operando. El código operacional describe el tipo de operación que el dispositivo 102 de reproducción ha de ejecutar, tal como dividir, reproducir o calcular un título, etc. El operando indica información de identificación dirigida por la operación tal como el número del título, etc. La unidad de control del dispositivo 102 de reproducción solicita un objeto de película en respuesta, por ejemplo, a una operación de usuario y ejecuta comandos de navegación incluidos en el objeto de película solicitado en el orden de la secuencia. De una manera similar a los reproductores de DVD generales, el dispositivo 102 de reproducción visualiza en primer lugar un menú en el dispositivo 103 de visualización para permitir que el usuario seleccione un comando. El
5
10
15
20
25
30
35
40
45
50
55
60
dispositivo 102 de reproducción a continuación ejecuta el inicio/parada de reproducción de un título, conmuta a otro título, etc., en respuesta al comando seleccionado, cambiando de esta manera dinámicamente el progreso de reproducción de vídeo.
Como se muestra en la Figura 2, el directorio 210 de BDMV contiene adicionalmente un directorio 220 de lista de reproducción (PLAYLIST), un directorio 230 de información de clip (CLIPINF), un directorio 240 de flujo (STREAM), un directorio 250 de objeto de BD-J (BDJO: Objeto de Java BD) y un directorio 260 de archivo de Java (JAR: Archivo Java).
Tres tipos de los ficheros de flujo de AV, (01000.m2ts) 241, (02000.m2ts) 242, y (03000.m2ts) 243, así como un directorio 244 de fichero intercalado estereoscópico (SSIF) 244 están localizados directamente bajo el directorio 240 STREAM. Dos tipos de los ficheros de flujo de Av, (01000.ssif) 244A y (02000.ssif) 244B están localizados directamente bajo el directorio 244 SSIF.
Un “fichero de flujo de AV” se refiere a un fichero, de entre un contenido de vídeo real registrado en un disco 101 BD-ROM, que cumple con el formato de fichero determinado por el sistema de ficheros. Un contenido de vídeo real de este tipo generalmente se refiere a los datos de flujo en los que se han multiplexado diferentes tipos de datos de flujo que representan vídeo, audio, subtítulos, etc., es decir, flujos elementales. Los datos de flujo multiplexados pueden dividirse ampliamente en dos tipos: un flujo de transporte principal (TS), y un sub-TS. Un “Ts principal” son datos de flujo multiplexados que incluyen un flujo de vídeo de vista de base como un flujo de vídeo principal. Un “flujo de vídeo de vista de base” es un flujo de vídeo que puede reproducirse de manera independiente y que representa imágenes de vídeo en 2D. Estas imágenes de vídeo en 2D se denominan como la “vista de base” o la “vista principal”. Un “sub-TS” son datos de flujo multiplexados que incluyen un flujo de vídeo de vista dependiente como un flujo de vídeo principal. Un “flujo de vídeo de vista dependiente” es un flujo de vídeo que requiere un flujo de vídeo de vista de base para reproducción y representa imágenes de vídeo en 3D que se combinan con el flujo de vídeo de vista de base. Los tipos de flujos de vídeo de vista dependiente son un flujo de vídeo de vista derecha, flujo de vídeo de vista izquierda y flujo de mapa de profundidad. Cuando la vista de base es la vista izquierda de las imágenes de vídeo en 3D, un “flujo de vídeo de vista derecha” es un flujo de vídeo que representa la vista derecha de las imágenes de vídeo en 3D. Lo inverso se cumple también para un “flujo de vídeo de vista izquierda”. Cuando la vista de base es una proyección de las imágenes de vídeo en 3D en una pantalla en 2D virtual, un “flujo de mapa de profundidad” son datos de flujo que representan un mapa de profundidad para las imágenes de vídeo en 3D. Las imágenes de vídeo en 2D o mapa de profundidad representado por el flujo de vídeo de la vista dependiente se denominan como una “vista dependiente” o “sub-vista”.
Dependiendo del tipo de datos de flujo multiplexados almacenados en el mismo, los ficheros de flujo de AV se dividen en tres tipos: fichero 2D, fichero dependiente (en lo sucesivo, abreviado como “fichero DEP”), y fichero intercalado (en lo sucesivo, abreviado como “fichero SS”). Un “fichero 2D” es un fichero de flujo de AV para reproducción de imágenes de vídeo en 2D en modo de reproducción en 2D e incluye un TS principal. Un “fichero dEp” es un fichero de flujo de AV que incluye un sub-TS. Un “fichero SS” es un fichero de flujo de AV que incluye un TS principal y un sub-TS que representan las mismas imágenes de vídeo en 3D. En particular, un fichero SS comparte su TS principal con un cierto fichero en 2D y comparte su sub-TS con un cierto fichero DEP. En otras palabras, en el sistema de ficheros en el disco 101 BD-ROM, un TS principal puede accederse tanto por un fichero SS como un fichero en 2D, y un sub TS puede accederse tanto por un fichero SS como un fichero DEP. Esta configuración, mediante la cual una secuencia de datos registrados en el disco 101 BD-ROM es común para diferentes ficheros y puede accederse por todos los ficheros, se denomina como “enlace cruzado de fichero”.
En el ejemplo mostrado en la Figura 2, el primer fichero de flujo de AV (01000.m2ts) 241 es un fichero en 2D, y el segundo fichero de flujo de AV (02000.m2ts) 242 y el tercer fichero de flujo de AV (03000.m2ts) 243 son ambos un fichero DEP. De esta manera, los ficheros 2D y ficheros DEP están localizados directamente por debajo del directorio 240 STREAM. El primer fichero de flujo de AV, es decir el flujo de vídeo de vista de base que incluye el fichero en 2D 241, representa una vista izquierda de las imágenes de vídeo en 3D. El segundo fichero de flujo de AV, es decir el flujo de vídeo de vista dependiente que incluye el primer fichero DEP 242, incluye un flujo de vídeo de vista derecha. El tercer fichero de flujo de AV, es decir el flujo de vídeo de vista dependiente que incluye el segundo fichero DEP 243, incluye un flujo de mapa de profundidad.
En el ejemplo mostrado en la Figura 2, el cuarto fichero de flujo de AV (01000.ssif) 244A y el quinto fichero de flujo de AV (02000.ssif) 244B son ambos un fichero SS. De esta manera, los ficheros SS están localizados directamente por debajo el directorio 244 SSIF. El cuarto fichero de flujo de AV, es decir el fichero SS 244A, comparte un TS principal, y en particular un flujo de vídeo de vista de base, con el fichero en 2D 241 y comparte un sub-TS, en particular un flujo de vídeo de vista derecha, con el primer fichero DEP 242. El quinto fichero de flujo de AV, es decir el segundo fichero SS 244B, comparte un TS principal, y en particular un flujo de vídeo de vista de base, con el primer fichero 2D 241 y comparte un sub-TS, en particular un flujo de mapa de profundidad, con el tercer fichero DEP 243.
Tres tipos de ficheros de información de clip, (01000.clpi) 231, (02000.clpi) 232, y (03000.clpi) 233 están localizados en el directorio 230 CLIPINF. Un “fichero de información de clip” es un fichero asociado en una base uno a uno con un fichero en 2D y un fichero DEP y en particular contiene un mapa de entrada para cada fichero. Un “mapa de
5
10
15
20
25
30
35
40
45
50
55
60
entrada” es una tabla de correspondencia entre el tiempo de presentación para cada escena representada por el fichero y la dirección dentro de cada fichero en la que se registra la escena. Entre los ficheros de información de clip, un fichero de información de clip asociado con un fichero en 2D se denomina como un “fichero de información de clip en 2D”, y un fichero de información de clip asociado con un fichero DEP se denomina como un “fichero de información de clip de vista dependiente”. En el ejemplo mostrado en la Figura 2, el primer fichero de información de clip (01000.clpi) 231 es un fichero de información de clip en 2D y está asociado con el fichero en 2D 241. El segundo fichero de información de clip (02000.clpi) 232 y el tercer fichero de información de clip (03000.clpi) 233 son ambos un fichero de información de clip de vista dependiente, y están asociados con el primer fichero DEP 242 y el segundo fichero DEP 243, respectivamente.
Tres tipos de ficheros de lista de reproducción, (00001.mpls) 221, (00002.mpls) 222, y (00003.mpls) 223 están localizados en el directorio 220 PLAYLIST. Un “fichero de lista de reproducción que especifica la ruta de reproducción de un fichero de flujo de AV, es decir la parte de un fichero de flujo de AV para reproducción, y el orden de reproducción. Los tipos de ficheros de lista de reproducción son un fichero de lista de reproducción en 2D y un fichero de lista de reproducción en 3D. Un “fichero de lista de reproducción en 2D” especifica la ruta de reproducción de un fichero en 2D. Un “fichero de lista de reproducción en 3D” especifica, para un dispositivo de reproducción en modo de reproducción en 2D, la ruta de reproducción de un fichero en 2D, y para un dispositivo de reproducción en un modo de reproducción en 3D, la ruta de reproducción de un fichero SS. Como se muestra en el ejemplo en la Figura 2, el primer fichero de lista de reproducción (00001.mpls) 221 es un fichero de lista de reproducción en 2D y especifica la ruta de reproducción del fichero en 2D 241. El segundo fichero de lista de reproducción (00002.mpls) 222 es un fichero de lista de reproducción en 3D que especifica, para un dispositivo de reproducción en modo de reproducción en 2D, la ruta de reproducción del fichero en 2D 241, y para un dispositivo de reproducción en 3D en modo L/R, la ruta de reproducción del fichero SS 244A. El tercer fichero de lista de reproducción (00003.mpls) 223 es un fichero de lista de reproducción en 3D que especifica, para un dispositivo de reproducción en modo de reproducción en 2D, la ruta de reproducción del fichero en 2D 241, y para un dispositivo de reproducción en 3D en modo de profundidad, la ruta de reproducción del segundo fichero SS 244B.
Un fichero de objeto BD-J (XXXXX.bdjo) 251 está localizado en el directorio 250 BDJO. El fichero 251 de objeto BD- J incluye un único objeto de BD-J. El objeto BD-J es un programa de código de bits para provocar que una máquina virtual Java montada en el dispositivo 102 de reproducción reproduzca un título y restablezca imágenes de gráficos. El objeto BD-J se escribe en un lenguaje compilador tal como Java o similares. El objeto BD-J incluye una tabla de gestión de aplicación e información de identificación para el fichero de lista de reproducción al que se refiere. La “tabla de gestión de aplicación” es una lista de los programas de aplicación Java a ejecutarse mediante la máquina virtual Java y su periodo de ejecución, es decir, ciclo de vida. La “información de identificación del fichero de lista de reproducción al que se refiere” identifica un fichero de lista de reproducción que corresponde a un título a reproducir. La máquina virtual Java solicita un objeto de BD-J en respuesta a una operación de usuario o un programa de aplicación y ejecuta el programa de aplicación Java de acuerdo con la tabla de gestión de aplicación incluida en el objeto BD-J. En consecuencia, el dispositivo 102 de reproducción cambia dinámicamente el progreso del vídeo para cada título reproducido, o provoca que el dispositivo 103 de visualización visualice imágenes de gráficos independientemente del vídeo de título.
Un fichero JAR (YYYYY.jar) 261 está localizado en el directorio 260 JAR. El directorio 261 JAR generalmente incluye una pluralidad de programas de aplicación Java reales a ejecutarse de acuerdo con la tabla de gestión de aplicación mostrada en el objeto BD-J. Un “programa de aplicación Java” es un programa de código de bytes escrito en un lenguaje compilador tal como Java o similares, como es el objeto BD-J. Tipos de programas de aplicación Java incluyen programas que provocan que la máquina virtual Java realice la reproducción de un título y programas que provocan que la máquina virtual Java restablezca imágenes de gráficos. El fichero 261 JAR es un fichero de archivo Java, y cuando se lee por el dispositivo 102 de reproducción, se carga en memoria interna. De esta manera, un programa de aplicación Java se almacena en memoria.
«Estructura de datos de flujo multiplexados>>
La Figura 3A es una lista de flujos elementales multiplexados en un TS principal en un disco 101 BD-ROM. El TS principal es un flujo digital en formato de Flujo de Transporte (TS) de MPEG-2 y está incluido en el fichero en 2D 241 mostrado en la Figura 2. Como se muestra en la Figura 3A, el TS principal incluye un flujo 301 de vídeo primario, flujos 302A y 302B de audio primarios, y flujos 303A y 303B de gráficos de presentación (PG). El TS principal puede incluir adicionalmente un flujo 304 de gráficos interactivos (IG), un flujo 305 de audio secundario y un flujo 306 de vídeo secundario.
El flujo 301 de vídeo primario representa el vídeo primario de una película, y el flujo 306 de vídeo secundario representa vídeo secundario de la película. El vídeo primario es el vídeo principal que pertenece al contenido, tal como la característica principal de una película, y se visualiza en la pantalla completa, por ejemplo. Por otra parte, el vídeo secundario se visualiza en la pantalla simultáneamente con el vídeo primario con el uso, por ejemplo, de un procedimiento de imagen superpuesta, de modo que las imágenes de vídeo secundario se visualizan en una ventana más pequeña dentro de las imágenes de vídeo primario. El flujo 301 de vídeo primario y el flujo 306 de vídeo secundario son ambos un flujo de vídeo de vista de base. Cada uno de los flujos 301 y 306 de vídeo se codifica mediante un procedimiento de codificación de compresión de vídeo, tal como MPEG-2, MPEG-4 AVC o
5
10
15
20
25
30
35
40
45
50
55
SMPTE VC-1.
Los flujos 302A y 302B de audio primarios representan el audio principal de la película. En este caso, los dos flujos 302A y 302B de audio primarios están en diferentes idiomas. El flujo 305 de audio secundario representa audio secundario a mezclarse con el audio principal, tal como efectos de sonido que acompañan la operación de una pantalla interactiva. Cada uno de los flujos 302A, 302B y 305 de audio se codifica por un procedimiento tal como AC- 3, Dolby Digital Plus (“Dolby Digital” es una marca comercial registrada), Meridian Lossless Packing™ (MLP), Digital Theater System™ (DTS), DTS-HD, o Modulación por Codificación de Pulsos (PCM) lineal.
Cada uno de los flujos 303A y 303B de PG representa imágenes de gráficos, tales como subtítulos formados por gráficos, a visualizarse superpuestos en las imágenes de vídeo representadas por el flujo 301 de vídeo primario. Los dos flujos 303A y 303B de PG representan, por ejemplo, subtítulos en un idioma diferente. El flujo 304 de IG representa los elementos gráficos de la Interfaz de Usuario Gráfica (GUI), y la disposición de los mismos, para construir una pantalla interactiva en la pantalla 131 en el dispositivo 103 de visualización.
Los flujos 301-306 elementales se identifican por identificadores de paquete (PID). Los PID se asignan, por ejemplo, como sigue. Puesto que un TS principal incluye únicamente un flujo de vídeo primario, el flujo 301 de vídeo primario se asigna un valor hexadecimal de 0x1011. Cuando pueden multiplexarse hasta 32 otros flujos elementales por tipo en un TS principal, se asigna a cada uno de los flujos 302A y 302b de audio primarios cualquier valor de 0x1100 a 0x111F. Se asigna a cada uno de los flujos 303A y 303B de PG cualquier valor de 0x1200 a 0x121F. Se asigna al flujo 304 de IG cualquier valor de 0x1400 a 0x141F. Se asigna al flujo 305 de audio secundario cualquier valor de 0x1A00 a 0x1A1F. Se asigna al flujo 306 de vídeo secundario cualquier valor de 0x1B00 a 0x1B1F.
La Figura 3B es una lista de flujos elementales multiplexados en un sub-TS en un disco 101 BD-ROM. El sub-TS son datos de flujo multiplexados en formato MPEG-2 TS y se incluyen en el fichero DEP 242 mostrado en la Figura 2. Como se muestra en la Figura 3B, el sub-TS incluye dos flujos 311R y 311D de vídeo primarios. 311R es un flujo de vídeo de vista derecha, mientras que 311D es un flujo de mapa de profundidad. Obsérvese que los flujos 311R y 311D de vídeo primarios pueden multiplexarse en ficheros DEP 242 y 243, que son diferentes ficheros, de manera separada. Cuando el flujo 301 de vídeo primario en el TS principal representa la vista izquierda de las imágenes de vídeo en 3D, el flujo 311R de vídeo de la vista derecha representa la vista derecha de las imágenes de vídeo en 3D. El flujo 311D de mapa de profundidad representa imágenes de vídeo en 3D en combinación con el flujo 301 de vídeo primario en el TS principal. Adicionalmente, el sub TS puede incluir flujos 312R y 312D de vídeo secundarios. 312R es un flujo de vídeo de vista derecha, mientras que 312D es un flujo de mapa de profundidad. Cuando el flujo 306 de vídeo secundario en el TS principal representa la vista izquierda de las imágenes de vídeo en 3D, el flujo 312R de vídeo de la vista derecha representa la vista derecha de las imágenes de vídeo en 3D. El flujo 312D de mapa de profundidad representa imágenes de vídeo en 3D en combinación con el flujo 306 de vídeo secundario en el TS principal.
Los PID se asignan a los flujos 311R, ..., 312D elementales como sigue, por ejemplo. A los flujos 311R y 311D de vídeo primario se asignan respectivamente valores de 0x1012 y 0x1013. Cuando pueden multiplexarse hasta 32 otros flujos elementales por tipo en un sub-TS, a los flujos de vídeo secundarios 312R y 312D se asigna cualquier valor de 0x1B20 a 0x1B3F.
La Figura 4 es un diagrama esquemático que muestra la disposición de paquetes de TS en los datos 400 de flujo multiplexados. El TS principal y sub TS comparten esta estructura de paquete. En los datos 400 de flujo multiplexados, los flujos 401, 402, 403 y 404 elementales se convierten respectivamente en secuencias de paquetes 421, 422, 423 y 424 de TS. Por ejemplo, en el flujo 401 de vídeo, cada fotograma 401A o cada campo se convierte en primer lugar en un paquete 411 de Flujo Elemental Empaquetado (PES). A continuación, cada paquete 411 PES se convierte en general en una pluralidad de paquetes 421 de TS. De manera similar, el flujo 402 de audio, flujo 403 de PG y flujo 404 de IG se convierten en primer lugar respectivamente en una secuencia de paquetes 412, 413 y 414 de PES, después de lo cual se convierten en una secuencia 422, 423 y 424 de paquetes de TS. Finalmente, los paquetes 421, 422, 423 y 424 de TS obtenidos desde los flujos 401, 402, 403 y 404 elementales se multiplexan en tiempo en una pieza de los datos de flujo, es decir el TS 400 principal.
La Figura 5B es un diagrama esquemático que muestra una secuencia de paquetes de TS que constituye datos de flujo multiplexados. Cada paquete 501 de TS es de 188 de longitud. Como se muestra en la Figura 5B, cada paquete 501 de TS incluye un encabezamiento 501H de TS y cualquiera, o ambos, de una carga útil 501P de TS y un campo de adaptación (en lo sucesivo abreviado como “campo AD”) 501A. La carga útil 501P de TS y el campo 501A Ad juntos constituyen un área de datos de 184 bytes de longitud. La carga útil 501P de TS se usa como un área de almacenamiento para un paquete de PES. Los paquetes 411-414 de PES mostrados en la Figura 4 se dividen típicamente en una pluralidad de partes, y cada parte se almacena en una carga útil 501P de TS diferente. El campo 501A AD es un área para almacenar bytes de relleno (es decir datos ficticios) cuando la cantidad de datos en la carga útil 501P de TS no alcanza 184 bytes. Adicionalmente, cuando el paquete 501 de TS es, por ejemplo, una PCR como se describe a continuación, el campo 501A AD se usa para almacenar tal información. El encabezamiento 501H de TS es un área de datos de cuatro bytes de longitud.
La Figura 5A es un diagrama esquemático que muestra la estructura de datos de un encabezamiento 501H de TS.
5
10
15
20
25
30
35
40
45
50
55
60
Como se muestra en la Figura 5A, el encabezamiento 501H de TS incluye la prioridad de TS (transport_priority) 511, el PID 512 y el control de campo de AD (adaptation_field_control) 513. El PID 512 indica el PID para el flujo elemental cuyos datos se almacenan en la carga útil 501P de TS del paquete 501 de TS que contiene el PID 512. La prioridad 511 de TS indica el grado de prioridad del paquete 501 de TS entre los paquetes de TS que comparten el valor indicado por el PID 512. El control 513 de campo de AD indica si el paquete 501 de TS contiene un campo 501A de AD y/o una carga útil 501P de TS. Por ejemplo, si el control 513 de campo de AD indica “1”, entonces el paquete 501 de TS no incluye un campo 501A de AD pero incluye una carga útil 501P de TS. Si el control 513 de campo de AD indica “2”, entonces se cumple lo inverso. Si el control 513 de campo de AD indica “3”, entonces el paquete 501 de TS incluye tanto un campo 501A de AD como una carga útil 501P de TS.
La Figura 5C es un diagrama esquemático que muestra la formación de una secuencia de paquetes de origen compuesta de la secuencia de paquetes de TS para datos de flujo multiplexados. Como se muestra en la Figura 5C, cada paquete 502 de origen es de 192 bytes de longitud e incluye un paquete 501 de TS, mostrado en la Figura 5B, y un encabezamiento de cuatro bytes de longitud (TP_Extra_Header) 502H. Cuando el paquete 501 de TS se registra en el disco 101 BD-ROM, un paquete 502 de origen se constituye adjuntando un encabezamiento 502H al paquete 501 de TS. El encabezamiento 502H incluye una ATS (Arrival_Time_Stamp). La “ATS” es información de tiempo usada por el dispositivo 102 de reproducción como sigue. Cuando se envía un paquete 502 de origen desde el disco 101 BD-ROM a un decodificador objetivo de sistema en el dispositivo 102 de reproducción, el paquete 502P de TS se extrae desde el paquete 502 de origen y se transfiere a un filtro de PID en el decodificador objetivo de sistema. La ATS en el encabezamiento 502H indica el tiempo en el que ha de comenzar esta transferencia. El “decodificador objetivo de sistema” es un dispositivo que decodifica datos de flujo multiplexados un flujo elemental cada vez. Los detalles con respecto al decodificador objetivo de sistema y su uso de la ATS se proporcionan a continuación.
La Figura 5D es un diagrama esquemático de un grupo de sectores, en los que se registra de manera consecutiva una secuencia de paquetes 502 de origen, en el área 202B de volumen del disco 101 BD-ROM. Como se muestra en la Figura 5D, 32 paquetes 502 de origen se registran a la vez como una secuencia en tres sectores 521, 522 y 523 consecutivos. Esto es debido a que la cantidad de datos para 32 paquetes de origen, es decir 192 bytes x 32 = 6144 bytes, es la misma que el tamaño total de los tres sectores, es decir 2048 bytes x 3 = 6144 bytes. Los 32 paquetes 502 de origen que se registran de esta manera en tres sectores 521, 522 y 523 consecutivos se denominan como una “unidad alineada” 520. El dispositivo 102 de reproducción lee los paquetes 502 de origen desde el disco 101 BD-ROM mediante cada unidad 520 alineada, es decir 32 paquetes de origen a la vez. También, el grupo 521, 522, 523, ... de sectores se divide en 32 piezas en orden desde la parte superior, y cada una forma un bloque 530 de código de corrección de errores. La unidad 121 de BD-ROM realiza procesamiento de corrección de errores para cada bloque 530 de ECC.
«Estructura de datos de flujo de PG>>
La Figura 6 es un diagrama esquemático que muestra la estructura de datos del flujo 600 de PG. Como se muestra en la Figura 6, el flujo 600 de PG incluye una pluralidad de entradas de datos n.° 1, n.° 2, ... Cada entrada de datos representa una unidad de visualización (conjunto de visualización) del flujo 600 de PG, y está compuesta de datos que son necesarios para que el dispositivo 102 de reproducción forme un plano de gráficos. En este punto “plano de gráficos” son datos de plano generados desde datos de gráficos que representan imágenes de gráficos en 2D. Los “datos de plano” son una matriz bidimensional de datos de píxeles. El tamaño de la matriz es el mismo que la resolución del fotograma de vídeo. Un conjunto de datos de píxeles se forma por una combinación de un valor de coordenada cromática y un valor a (opacidad). El valor de coordenada cromática se expresa como un valor de RGB o un valor de YCrCb. Los tipos de planos de gráficos incluyen un plano de PG, plano de IG, plano de imagen y plano de visualización en pantalla (OSD). Un plano de PG se genera desde un flujo de PG en el TS principal. Un plano de IG se genera desde un flujo de IG en el TS principal. Un plano de imagen se genera de acuerdo con un objeto de BD-J. Un plano de OSD se genera de acuerdo con el firmware en el dispositivo 102 de reproducción.
Haciendo referencia de nuevo a la Figura 6, cada entrada de datos incluye una pluralidad de segmentos funcionales. Estos segmentos funcionales incluyen, en orden desde el inicio, un Segmento de Control de Presentación (PCS), Segmento de Definición de Ventana (WDS), Segmento de Definición de Paleta (PDS) y Segmento de Definición de Objeto (ODS).
WDS define una región rectangular dentro del plano de gráficos, es decir una ventana. Más específicamente, WDS incluye un ID 611 de ventana, una posición 612 de ventana y un tamaño 613 de ventana. El ID 611 de ventana es información de identificación (ID) del WDS. La posición 612 de ventana indica la posición de una ventana en el plano de gráficos mediante, por ejemplo, coordenadas de la esquina superior izquierda de la ventana. El tamaño 613 de ventana indica la altura y anchura de la ventana.
PDS define la correspondencia entre un tipo predeterminado de ID de color y un valor de coordenada cromática (por ejemplo, luminancia Y, diferencia de rojo Cr, diferencia de azul Cb, opacidad a). Específicamente, el PDS incluye un iD 621 de paleta y una tabla de correspondencia de color (CLUT) 622. El ID 621 de paleta es el ID del PDS. La CLUT 622 es una tabla que muestra una lista de colores que pueden usarse al reestablecer el objeto de gráficos. En la CLUT 622, pueden registrarse 256 colores, en el que los ID de color desde “0” a “255” se asignan a los
5
10
15
20
25
30
35
40
45
50
55
60
respectivos 256 colores. Obsérvese que el ID de color = 255 se asigna de manera constante a “transparente incoloro”.
En general, una pluralidad de ODS representan un objeto de gráficos. El “objeto de gráficos” son datos que restablecen una imagen de gráficos por la correspondencia entre un código de píxel y un ID de color. El objeto de gráficos se divide en partes después de que se comprime por el procedimiento de codificación por longitud de serie, y las partes se distribuyen en cada ODS. Cada ODS incluye adicionalmente un ID de objeto, en concreto un ID del objeto de gráficos.
El PCS muestra detalles de un ajuste de visualización que pertenece a la misma entrada de datos, y en particular define una estructura de pantalla que usa objetos de gráficos. Los tipos de pantalla incluyen corte de entrada/salida, fundido de entrada/salida, cambio de color, desplazamiento y barrido de entrada/salida. Específicamente, el PCS incluye una posición 601 de visualización de objeto, información 602 de recorte, ID 603 de ventana de referencia, ID 604 de paleta de referencia e ID 605 de objeto de referencia. La posición 601 de visualización de objeto indica una posición en el plano de gráficos en la que se ha de visualizar el objeto de gráficos, mediante, por ejemplo, coordenadas de la esquina superior izquierda de un área en la que se ha de visualizar el objeto de gráficos. La información 602 de recorte indica el rango de una parte rectangular que se ha de cortar del objeto de gráficos por el procedimiento de recorte. El rango se define mediante, por ejemplo, coordenadas de la esquina superior izquierda, altura y anchura. Realmente, la parte puede restablecerse en una posición indicada por la posición 601 de visualización de objeto. El ID 603 de ventana de referencia, ID 604 de paleta de referencia e ID 605 de objeto de referencia indican los ID del WDS, PDS, y objeto de gráficos que se han de referenciar en el procedimiento de restablecimiento de objeto de gráficos, respectivamente. El proveedor de contenido indica la estructura de la pantalla al dispositivo 102 de reproducción usando estos parámetros en el PCS. Esto permite que el dispositivo 102 de reproducción realice un efecto de visualización mediante el cual “un cierto subtítulo desaparece gradualmente, y se visualiza el siguiente subtítulo”.
«Estructura de datos de flujo de IG>>
Haciendo referencia de nuevo a la Figura 4, el flujo 404 de IG incluye un Segmento de Composición Interactiva (ICS), PDS y ODS. PDS y ODS son los mismos segmentos funcionales como se incluyen en el flujo 403 de PG. En particular, un objeto de gráficos que incluye un ODS representa un elemento gráfico de GUI, tal como un botón, menú emergente, etc., que forma una pantalla interactiva. Un ICS define operaciones interactivas que usan estos objetos de gráficos. Específicamente, un ICS define los estados que cada objeto de gráficos, tal como un botón, menú emergente, etc., puede tomar cuando cambia en respuesta una operación de usuario, estados tales como como normal, seleccionado y activo. Un ICS incluye también información de botón. La información de botón incluye un comando que el dispositivo de reproducción ha de realizar cuando el usuario realiza una cierta operación en el botón o similares.
«Estructura de datos de flujo de vídeo>>
Cada una de las instantáneas incluidas en el flujo de vídeo representa un fotograma o un campo y se comprime mediante un procedimiento de codificación de compresión de vídeo, tal como MPEG-2, MPEG-4 AVC, etc. Esta compresión usa redundancia espacial o temporal de la instantánea. En este punto, la codificación de la instantánea que únicamente usa la redundancia espacial de la instantánea se denomina como “codificación intra-instantánea”. Por otra parte, la codificación de instantánea que usa redundancia temporal, es decir la similitud entre datos para una pluralidad de instantáneas visualizadas de manera secuencial, se denomina como “codificación predictiva de inter-instantánea”. En codificación predictiva de inter-instantánea, en primer lugar, una instantánea más anterior o posterior en tiempo de presentación se asigna a la instantánea para que se codifique como una instantánea de referencia. A continuación, se detecta un vector de movimiento entre la instantánea a codificarse y la instantánea de referencia, y a continuación se realiza compensación de movimiento en la instantánea de referencia usando el vector de movimiento. Adicionalmente, se busca el valor de la diferencia entre la instantánea obtenida mediante compensación de movimiento y la instantánea a codificar, y se elimina la redundancia espacial usando el valor de diferencia. De esta manera, la cantidad de datos para cada instantánea se comprime.
La Figura 7 es un diagrama esquemático que muestra las instantáneas para un flujo 701 de vídeo de vista de base y un flujo 702 de vídeo de vista derecha en orden de tiempo de presentación. Como se muestra en la Figura 7, el flujo 701 de vídeo de vista de base incluye las instantáneas 710, 711, 712, ..., 719 (en lo sucesivo “instantáneas de vista de base”), y el flujo 702 de vídeo de la vista derecha incluye las instantáneas 720, 721, 722, ..., 729 (en lo sucesivo “instantáneas de la vista derecha”). Las instantáneas 710-719 de vista de base típicamente se dividen en una pluralidad de GOP 731 y 732. Un “GOP” se refiere a una secuencia de instantáneas que tienen una instantánea I en la parte superior de la secuencia. Además de una instantánea I, un GOP típicamente incluye instantáneas P e instantáneas B. En este punto “instantánea I (Intra)” se refiere a una instantánea comprimida por la codificación intra- instantánea. “Instantánea P (Predictiva)” se refiere a una instantánea comprimida por la codificación predictiva de inter-instantánea usando otro valor de instantánea cuyo tiempo de presentación es anterior al tiempo de presentación de la instantánea que una instantánea de referencia. “Instantánea B (Bidireccionalmente Predictiva)” se refiere a una instantánea comprimida por la codificación predictiva de inter-instantánea usando dos instantáneas cuyos tiempos de presentación son anteriores o posteriores al tiempo de presentación de la instantánea que las
5
10
15
20
25
30
35
40
45
50
55
60
instantáneas de referencia. En particular, una instantánea B que se usa como una instantánea de referencia para otra instantánea en la codificación predictiva de inter-instantánea se denomina como “instantánea Br (referencia B)”.
En el ejemplo mostrado en la Figura 7, las instantáneas de vista de base en los GOP 731 y 732 se comprimen en el siguiente orden. En el primer GOP 731, la instantánea de vista de base superior se comprime como la instantánea 710 I0. El número en subíndice indica el número de serie asignado a cada instantánea en el orden de tiempo de presentación. A continuación, la cuarta instantánea de vista de base se comprime como la instantánea 713 P3 usando la instantánea 710 I0 como una instantánea de referencia. Las flechas mostradas en la Figura 7 indican que la instantánea en la punta de la flecha es una instantánea de referencia para la instantánea en la cola de la flecha. A continuación, la segunda y tercera instantáneas de vista de base se comprimen respectivamente como la instantánea 711 Bn y la instantánea 712 Br2, usando tanto la instantánea 710 I0 como la instantánea 713 P3 como instantáneas de referencia. Adicionalmente, la séptima instantánea de vista de base se comprime como la instantánea 716 P6 usando la instantánea 713 P3 como una instantánea de referencia. A continuación, la cuarta y quinta instantáneas de vista de base se comprimen respectivamente como la instantánea 714 Br4 y la instantánea 715 Br5, usando tanto la instantánea 713 P3 como la instantánea 716 P6 como instantáneas de referencia. De manera similar, en el segundo GOP 732, la instantánea de vista de base superior se comprime en primer lugar como la instantánea 717 I7. A continuación, la tercera instantánea de vista de base se comprime como la instantánea 719 Pg usando la instantánea 717 I7 como una instantánea de referencia. Posteriormente, la segunda instantánea de vista de base se comprime como la instantánea 718 Bra usando tanto la instantánea 717 I7 como la instantánea 719 Pg como instantáneas de referencia.
En el flujo 701 de vídeo de vista de base, cada GOP 731 y 732 siempre contiene una instantánea 1 en la parte superior, y por lo tanto las instantáneas de vista de base pueden decodificarse GOP a GOP. Por ejemplo, en el primer gOp 731, la instantánea 710 I0 se decodifica en primer lugar de manera independiente. A continuación, la instantánea 713 P3 se decodifica usando la instantánea 710 I0 decodificada. A continuación la instantánea 711 Bn y la instantánea 712 Br2 se decodifican usando tanto la instantánea 710 I0 como la instantánea 713 P3 decodificadas. El posterior grupo 714, 715, ... de instantáneas se decodifica de manera similar. De esta manera, el flujo 701 de vídeo de vista de base puede decodificarse de manera independiente y además puede accederse de manera aleatoria en unidades de GOP.
Como se muestra adicionalmente en la Figura 7, las instantáneas 720-729 de vista derecha se comprimen mediante codificación predictiva de inter-instantánea. Sin embargo, el procedimiento de codificación se diferencia del procedimiento de codificación para las instantáneas 710-719 de vista de base, puesto que además de redundancia en la redundancia temporal de imágenes de vídeo, se usa también la redundancia entre las imágenes de vídeo izquierdo y derecho. Específicamente, como se muestra mediante las flechas en la Figura 7, la instantánea de referencia para cada una de las instantáneas 720-729 de vista derecha no se selecciona desde el flujo 702 de vídeo de la vista derecha, sino que en su lugar desde el flujo 701 de vídeo de vista de base. En particular, el tiempo de presentación es sustancialmente el mismo para cada una de las instantáneas 720-729 de vista derecha y la correspondiente instantánea de vista de base seleccionada como una instantánea de referencia. Estas instantáneas representan una vista derecha y una vista izquierda para la misma escena de una imagen de vídeo en 3D, es decir una imagen de vídeo de paralaje. Las instantáneas 720-729 de vista derecha y las instantáneas 710-719 de vista de base están, por lo tanto, en una correspondencia uno a uno. En particular, la estructura de GOP es la misma entre estas instantáneas.
En el ejemplo mostrado en la Figura 7, la instantánea de la vista derecha superior en el primer GOP 731 se comprime como la instantánea 720 P0 usando la instantánea 710 I0 en el flujo 701 de vídeo de vista de base como una instantánea de referencia. Estas instantáneas 710 y 720 representan la vista izquierda y vista derecha del fotograma superior en las imágenes de vídeo en 3D. A continuación, la cuarta instantánea de la vista derecha se comprime como la instantánea 723 P3 usando la instantánea 713 P3 en el flujo 701 de vídeo de vista de base y la instantánea 720 P0 como instantáneas de referencia. A continuación, la segunda instantánea de la vista derecha se comprime como la instantánea 721 B1, usando la instantánea 711 Bn en el flujo 701 de vídeo de vista de base además de la instantánea 720 P0 y la instantánea 723 P3 como instantáneas de referencia. De manera similar, la tercera instantánea de la vista derecha se comprime como la instantánea 722 B2, usando la instantánea 712 Br2 en el flujo 701 de vídeo de vista de base además de la instantánea 720 P0 y la instantánea 730 P3 como instantáneas de referencia. Para cada una de las instantáneas 724-729 de la vista derecha restantes, una instantánea de vista de base con un tiempo de presentación sustancialmente el mismo que el de la instantánea de la vista derecha se usa de manera similar como una instantánea de referencia.
Las normas revisadas para MPEG-4 AVC/H.264, denominadas Codificación de Vídeo de Multivista (MVC), son conocidas como un procedimiento de codificación de compresión de vídeo que hace uso de la correlación entre imágenes de vídeo izquierdo y derecho como se ha descrito anteriormente. MVC se creó en julio de 2008 por el Equipo Mixto de Vídeo (JVT), un proyecto mixto entre ISO/IEC MPEG e ITU-T VCEG, y es una norma para codificar de manera colectiva vídeo que puede verse desde una pluralidad de perspectivas. Con MVC, no únicamente se usa la similitud temporal en imágenes de vídeo para codificación predictiva inter-vídeo, sino también la similitud entre imágenes de vídeo desde diferentes perspectivas. Este tipo de codificación predictiva tiene una relación de compresión de vídeo superior que la codificación predictiva que comprime individualmente datos de imágenes de vídeo vistas desde cada perspectiva.
5
10
15
20
25
30
35
40
45
50
55
60
Como se ha descrito anteriormente, una instantánea de vista de base se usa como una instantánea de referencia para compresión de cada una de las instantáneas 720-729 de la vista derecha. Por lo tanto, a diferencia del flujo 701 de vídeo de vista de base, el flujo 702 de vídeo de la vista derecha no puede decodificarse de manera independiente. Por otra parte, sin embargo, la diferencia entre imágenes de vídeo de paralaje es en general muy pequeña; es decir, la correlación entre la vista izquierda y la vista derecha es alta. Por consiguiente, las instantáneas de vista derecha generalmente tienen una tasa de compresión significativamente superior que las instantáneas de vista de base, lo que significa que la cantidad de datos es significativamente menor.
Los mapas de profundidad incluidos en un flujo de mapa de profundidad están en una correspondencia uno a uno con las instantáneas 710-719 de vista de base y cada uno representan un mapa de profundidad para la imagen de vídeo en 2D en la instantánea de vista de base correspondiente. Los mapas de profundidad se comprimen mediante un procedimiento de codificación de compresión de vídeo, tal como MPEG-2, MPEG-4 AVC, etc., de la misma manera que las instantáneas 710-719 de vista de base. En particular, se usa codificación predictiva de interinstantánea en este procedimiento de codificación. En otras palabras, cada mapa de profundidad se comprime usando otro mapa de profundidad como una instantánea de referencia. Adicionalmente, el flujo de mapa de profundidad se divide en unidades de GOP de la misma manera que el flujo 701 de vídeo de vista de base, y cada GOP siempre contiene una instantánea I en la parte superior. Por consiguiente, los mapas de profundidad pueden decodificarse GOP a GOP. Sin embargo, puesto que un mapa de profundidad en sí mismo es únicamente información que representa la profundidad de cada parte de una imagen de vídeo en 2D píxel a píxel, el flujo de mapa de profundidad no puede usarse independientemente para reproducción de imágenes de vídeo.
Por ejemplo, como en los dos flujos 311R y 311D de vídeo primarios mostrados en la Figura 3B, el flujo de vídeo de la vista derecha y el flujo de mapa de profundidad que corresponde al mismo flujo de vídeo de vista de base se comprimen con el mismo procedimiento de codificación. Por ejemplo, si el flujo de vídeo de la vista derecha se codifica en formato MVC, el flujo de mapa de profundidad se codifica también en formato MVC. En este caso, durante la reproducción de imágenes de vídeo en 3D, el dispositivo 102 de reproducción puede conmutar suavemente entre modo L/R y modo de profundidad, mientras mantiene un procedimiento de codificación constante.
La Figura 8 es un diagrama esquemático que muestra detalles sobre una estructura de datos de un flujo 800 de vídeo. Esta estructura de datos es sustancialmente la misma para el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente. Como se muestra en la Figura 8, el flujo 800 de vídeo está compuesto en general de una pluralidad de secuencias de vídeo n.° 1, n.° 2, .... Una “secuencia de vídeo” es una combinación de instantáneas 811, 812, 813, 814, ... que constituyen un único GOP 810 y a las que se ha adjuntado individualmente información adicional, tal como un encabezamiento. La combinación de esta información adicional y una instantánea se denomina como una “unidad de acceso de vídeo (VAU)”. Es decir, en los GOP 810 y 820, se forma una única VAU n.° 1, n.° 2, ... para cada instantánea. Cada instantánea puede leerse desde el flujo 800 de vídeo en unidades de VAU.
La Figura 8 muestra adicionalmente la estructura de la VAU n.° 1 831 localizada en la parte superior de cada secuencia de vídeo en el flujo de vídeo de vista de base. La VAU n.° 1 831 incluye un código 831A de identificación de unidad de acceso (AU), encabezamiento 831B de secuencia, encabezamiento 831C de instantánea, datos 831D complementarios, y datos 831E de instantánea comprimidos. Excepto por no incluir un encabezamiento 831B de secuencia, las VAU desde la asegunda VAU n.° 2 en adelante tienen la misma estructura que la VAU n.° 1 831. El código 831A de identificación de AU es un código predeterminado que indica la parte superior de la VAU n.° 1 831. El encabezamiento 831B de secuencia, también denominado como un encabezamiento de GOP, incluye un número de identificación para la secuencia de vídeo n.° 1 que incluye la VAU n.° 1 831. El encabezamiento 831B de secuencia incluye adicionalmente información compartida por todo el GOP 810, por ejemplo resolución, velocidad de fotograma, relación de aspecto y tasa de bits. El encabezamiento 831C de instantánea indica su propio número de identificación, el número de identificación para la secuencia de vídeo n.° 1, e información necesaria para decodificar la instantánea, tal como el tipo de procedimiento de codificación. Los datos 831D complementarios incluyen información adicional con respecto a temas distintos a la decodificación de la instantánea, por ejemplo, información de subtítulos para personas con problemas de audición, información sobre la estructura de GOP, e información de código de tiempo. En particular, los datos 831D complementarios incluyen información de conmutación de decodificación (se proporcionan detalles a continuación). Una pluralidad de piezas de datos 831D complementarios pueden establecerse en una VAU dependiendo del tipo de datos contenidos en las mismas. Los datos 831E de instantánea comprimida incluyen una instantánea de vista de base. Adicionalmente, la VAU n.° 1 831 puede incluir cualquiera o todos de datos 831F de relleno, una secuencia 831G código final y un código 831H final de flujo según sea necesario. Los datos 831F de relleno son datos ficticios. Ajustando el tamaño de los datos 831F de relleno en conjunto con el tamaño de los datos 831E de instantánea comprimida, la tasa de bits de la VAU n.° 1 831 puede mantenerse a un valor predeterminado. La secuencia 831G código final indica que la VAU n.° 1 831 está localizada al final de la secuencia de vídeo n.° 1. El código 831H final de flujo indica el final del flujo 800 de vídeo de vista de base.
La Figura 8 también muestra la estructura de una VAU n.° 1 832 localizada en la parte superior de cada secuencia de vídeo en el flujo de vídeo de vista dependiente. La VAU n.° 1 832 incluye un código 832A de identificación de sub- AU, encabezamiento 832B de sub-secuencia, encabezamiento 832C de instantánea, datos 832D complementarios y datos 832E de instantánea comprimidos. Excepto por no incluir un encabezamiento 832B de sub-secuencia, las VAU
5
10
15
20
25
30
35
40
45
50
55
60
desde la segunda VAU n.° 2 en adelante tienen la misma estructura que la VAU n.° 1 832. El código 832A de identificación de sub-AU es un código predeterminado que indica la parte superior de la VAU n.° 1 832. El encabezamiento 832B de sub-secuencia incluye un número de identificación para la secuencia de vídeo n.° 1 que incluye la VAU n.° 1 832. El encabezamiento 832B de sub-secuencia incluye adicionalmente información compartida por todo el GOP 810, por ejemplo resolución, velocidad de fotograma, relación de aspecto y tasa de bits. Estos valores son los mismos que los valores establecidos para el correspondiente GOP en el flujo de vídeo de vista de base, es decir los valores mostrados por el encabezamiento 831B de secuencia en la VAU n.° 1 831. El encabezamiento 832C de instantánea indica su propio número de identificación, el número de identificación para la secuencia de vídeo n.° 1, e información necesaria para decodificar la instantánea, tal como el tipo de procedimiento de codificación. Los datos 832D complementarios incluyen únicamente metadatos de compensación (se proporcionan detalles a continuación). En este punto los datos 832D complementarios son un tipo de datos complementarios, y hay otro tipo de datos complementarios que incluyen información adicional con respecto a asuntos distintos de la decodificación de la instantánea, por ejemplo, información de subtítulos para personas con problemas de audición, información sobre la estructura de GOP, información de código de tiempo e información de conmutación de decodificación. Los datos 832E de instantánea comprimida incluyen una instantánea de vista dependiente. Adicionalmente, la VAU n.° 1 832 puede incluir cualquiera o todos de datos 832F de relleno, una secuencia 832G código final, y un código 832H final de flujo según sea necesario. Los datos 832F de relleno son datos ficticios. Ajustando el tamaño de los datos 832F de relleno en conjunto con el tamaño de los datos 832E de instantánea comprimida, la tasa de bits de la VAU n.° 1 832 puede mantenerse en un valor predeterminado. La secuencia 832G código final indica que la VAU n.° 1 832 está localizada al final de la secuencia de vídeo n.° 1. El código 832H final de flujo indica el final del flujo 800 de vídeo de vista dependiente.
El contenido específico de cada componente en una VAU se diferencia de acuerdo con el procedimiento de codificación del flujo 800 de vídeo. Por ejemplo, cuando el procedimiento de codificación es MPEG-4 AVC o MVC, los componentes en las VAU mostradas en la Figura 8 están compuestos de una única unidad de Capa de Abstracción de Red (NAL). Específicamente, el código 831A de identificación de AU, encabezamiento 831B de secuencia, encabezamiento 831C de instantánea, datos 831D complementarios, datos 831E de instantánea comprimidos, datos 831F de relleno, código final de secuencia 831G y código 831H final de flujo respectivamente corresponden a un delimitador de Unidad de Acceso (AU), Conjunto de Parámetros de Secuencia (SPS), Conjunto de Parámetros de Instantánea (PPS), Información de Mejora Complementaria (SEI), Componente de Vista, Datos de Relleno, Final de Secuencia y Final de Flujo. En particular, en la VAU n.° 1 832, los datos 832D complementarios que incluyen los metadatos de compensación están compuestos de una unidad de NAL, en el que la unidad de NAL no incluye datos distintos de los metadatos de compensación.
La Figura 9 es un diagrama esquemático que muestra detalles sobre un procedimiento para almacenar un flujo 901 de vídeo en una secuencia 902 de paquetes de PES. Este procedimiento de almacenamiento es el mismo para el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente. Como se muestra en la Figura 9, en el flujo 901 de vídeo real, se multiplexan instantáneas en el orden de codificación, no en el orden de tiempo de presentación. Por ejemplo, en las VAU en el flujo de vídeo de vista de base, como se muestra en la Figura 9, la instantánea 910 I0, instantánea 911 P3, instantánea 912 B1, instantánea 913 B2, ... se almacenan en orden desde la parte superior. El número en subíndice indica el número de serie asignado a cada instantánea en orden de tiempo de presentación. La instantánea 910 I0 se usa como una instantánea de referencia para codificar la instantánea 911 P3, y tanto la instantánea 910 I0 como la instantánea 911 P3 se usan como instantáneas de referencia para codificar la instantánea 912 B1 y la instantánea 913 B2. Cada una de estas VAU se almacena como un paquete 920, 921, 922, 923, .... de PES diferente. Cada paquete 920, ... de PES incluye una carga útil 920P de PES y un encabezamiento 920H de PES. Cada VAU se almacena en una carga útil 920P de PES. Cada encabezamiento 920H de PES incluye un tiempo de presentación, (Indicación de Tiempo de Presentación o PTS), y un tiempo de decodificación (Indicación de Tiempo de Decodificación, o DTS), para la instantánea almacenada en la carga útil 920P de PES en el mismo paquete 920 de PES.
Como con el flujo 901 de vídeo mostrado en la Figura 9, los otros flujos elementales mostrados en las Figuras 3 y 4 se almacenan en cabidas útiles de PES en una secuencia de paquetes de PES. Adicionalmente, el encabezamiento de PES en cada paquete PES incluye la PTS para los datos almacenados en la carga útil de PES para el paquete de PES.
La Figura 10 es un diagrama esquemático que muestra correspondencia entre PTS y DTS asignadas a cada instantánea en un flujo 1001 de vídeo de vista de base y un flujo 1002 de vídeo de vista dependiente. Como se muestra en la Figura 10, entre los flujos 1001 y 1002 de vídeo, las mismas PTS y DTS se asignan a un par de instantáneas que representan el mismo fotograma o campo en una imagen de vídeo en 3D. Por ejemplo, el fotograma o campo superior en la imagen de vídeo en 3D se restablece desde una combinación de la instantánea 1011 I1 en el flujo 1001 de vídeo de vista de base y la instantánea 1021 P1 en el flujo 1002 de vídeo de vista dependiente. Por consiguiente, la PTS y DTS para estas dos instantáneas 1011 y 1021 son la misma. El número en subíndice indica el número de serie asignado a cada instantánea en el orden de DTS. También, cuando el flujo 1002 de vídeo de vista dependiente es un flujo de mapa de profundidad, la instantánea 1021 P1 se sustituye por una instantánea I que representa un mapa de profundidad para la instantánea 1011 I1. De manera similar, la PTS y DTS para el par de segundas instantáneas en los flujos 1001 y 1002 de vídeo, es decir las instantáneas 1012 y 1022 P2, son las mismas. La PTS y DTS son ambas las mismas para el par de terceras instantáneas en los flujos 1001 y 1002
5
10
15
20
25
30
35
40
45
50
55
de vídeo, es decir la instantánea 1013 Br3 y la instantánea 1023 B3. Lo mismo se cumple también para el par de instantáneas 1014 Br4 y la instantánea 1024 B4.
Un par de VAU que incluyen instantáneas para las que la PTS y DTS son las mismas entre el flujo 1001 de vídeo de vista de base y el flujo 1002 de vídeo de vista dependiente se denominan una “VAU en 3D”. Usando la asignación de PTS y DTS mostrada en la Figura 10, es fácil provocar que el decodificador en el dispositivo 102 de reproducción en un modo de reproducción en 3D procese el flujo 1001 de vídeo de vista de base y el flujo 1002 de vídeo de vista dependiente en paralelo en unidades de VAU en 3D. De esta manera, el decodificador procesa de manera definitiva un par de instantáneas que representan el mismo fotograma o campo en una imagen de vídeo en 3D en paralelo. Adicionalmente, el encabezamiento de secuencia en la VAU en 3D en la parte superior de cada GOP incluye la misma resolución, la misma velocidad de fotograma y la misma relación de aspecto. En particular, esta velocidad de fotograma es igual al valor cuando el flujo 1001 de vídeo de vista de base se decodifica de manera independiente en modo de reproducción en 2D.
[Metadatos de compensación]
La Figura 11 es un diagrama esquemático que muestra una estructura de datos de metadatos 1110 de compensación incluidos en un flujo 1100 de vídeo de vista dependiente. La Figura 12 es una tabla que muestra la sintaxis de estos metadatos 1110 de compensación. Como se muestra en la Figura 11, los metadatos 1110 de compensación se almacenan en los datos 1101 complementarios de la VAU n.° 1 localizada en la parte superior de cada secuencia de vídeo (es decir, cada GOP). Como se muestra en las Figuras 11 y 12, los metadatos 1110 de compensación incluyen una PTS 1111, ID 1112 de secuencia de compensación, y secuencias 1113 de compensación. La PTS 1111 es la misma que una PTS de un fotograma representado por datos de instantánea comprimidos en la VAU n.° 1, en concreto una PTS del primer fotograma de cada GOP.
Los ID 1112 de secuencia de compensación son números de serie 0, 1, 2, ..., M asignados en orden a las secuencias 1313 de compensación. La letra M representa un número entero mayor o igual a 1 e indica el número total de secuencias 1113 de compensación (number_of_offset_sequence). Un ID 1112 de secuencia de compensación se asigna a cada plano de gráficos para combinarse en un plano de vídeo. De esta manera, una secuencia 1113 de compensación está asociada con cada plano de gráficos. En este punto un “plano de vídeo” se refiere a datos de plano generados desde una instantánea incluidos en una secuencia de vídeo, en concreto una matriz bidimensional de datos de píxeles. El tamaño de la matriz es el mismo que la resolución del fotograma de vídeo. Un conjunto de datos de píxeles se forma por una combinación de un valor de coordenada cromática (un valor de RGB o un valor de YCrCb) y un valor a.
Cada secuencia 1113 de compensación es una tabla de correspondencia entre números 1121 de fotograma e información 1122 y 1123 de compensación. Los números 1121 de fotograma son números de serie 1, 2, ..., N asignados en orden de presentación a los fotogramas n.° 1, n.° 2, ..., N representados por una única secuencia de vídeo (por ejemplo, secuencia de vídeo n.° 1). En la Figura 11, el número 1121 de fotograma se representa como una variable de número entero “i”. La letra N representa un número entero mayor o igual a uno e indica el número total de fotogramas incluidos en la secuencia de vídeo (number_of_displayed_fotogramas_in_GOP). Las piezas de información 1122 y 1123 de compensación son información de control que define el control de compensación para un único plano de gráficos.
El “control de compensación” se refiere a un procedimiento para proporcionar compensaciones izquierda y derecha para las coordenadas horizontales en un plano de gráficos y combinar los planos resultantes respectivamente con el plano de vídeo de vista de base y el plano de vídeo de vista dependiente. “Proporcionar compensaciones horizontales a un plano de gráficos” se refiere a desplazar horizontalmente cada pieza de datos de píxel en el plano de gráficos. A partir de un único plano de gráficos, esto genera un par de planos de gráficos que representan una vista izquierda y una vista derecha. La posición de presentación de cada elemento en las imágenes de gráficos en 2D reproducidas desde este par de planos se desplaza a la izquierda o a la derecha desde la posición de presentación original. Se hace que el observador perciba un par de una vista izquierda y una vista derecha como una única imagen de gráficos en 3D debido a la paralaje binocular producida por estos desplazamientos.
Una compensación se determina por una dirección y un tamaño. Por consiguiente, como se muestra en las Figuras 11 y 12, cada pieza de información de compensación incluye una dirección de compensación (Plane_offset_direction) 1122 y un valor de compensación (Plane_offset_value) 1123. La dirección 1122 de compensación indica si una imagen de gráficos en 3D está más cerca o más alejada del observador que la pantalla. Si la posición de presentación en la vista izquierda y la vista derecha está desplazada a la izquierda o a la derecha desde la posición de presentación original de la imagen de gráficos en 2D depende del valor de la dirección 1122 de compensación. El valor 1123 de compensación indica el número de píxeles horizontales de la distancia entre la posición de presentación original de la imagen de gráficos en 2D y la posición de presentación de cada una de la vista izquierda y la vista derecha.
Las Figuras 13A y 13B son diagramas esquemáticos que muestran controles de compensación para un plano 1310 de PG y plano 1320 de IG respectivamente. Mediante estos controles de compensación, dos tipos de planos de gráficos, 1310 y 1320, se combinan respectivamente con el plano 1301 de vídeo de la vista izquierda y el plano 1302
5
10
15
20
25
30
35
40
45
50
55
60
de vídeo de la vista derecha. Un “plano de vídeo de la vista izquierda/vista derecha” se refiere a un plano de vídeo que representa una vista izquierda / vista derecha y se genera desde una combinación del flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente. En la siguiente descripción, se supone que un subtítulo 1311 indicado por el plano 1310 de PG se visualiza más cerca que la pantalla, y un botón 1321 indicado por el plano 1320 de IG se visualiza más alejado que la pantalla.
Como se muestra en la Figura 13A, se proporciona una compensación derecha al plano 1310 de PG. Específicamente, la posición de cada pieza de datos de píxel en el plano 1310 de PG se desplaza en primer lugar a la derecha (virtualmente) desde la posición correspondiente de los datos de píxel en el plano 1301 de vídeo de la vista izquierda en un número de píxeles SFP igual al valor de compensación. A continuación, una banda 1512 (virtualmente) que sobresale desde el borde derecho del rango del plano 1301 de vídeo de la vista izquierda se “corta” desde el borde derecho del plano 1310 de PG. En otras palabras, se descartan los datos de píxel para esta región 1312. A la inversa, una banda 1513 transparente se añade al borde izquierdo del plano 1310 de PG. La anchura de esta banda 1513 es la anchura de la banda 1512 en el borde derecho; es decir la anchura es la misma que el valor de compensación SFP. Un plano de PG que representa la vista izquierda se genera por lo tanto a partir del plano 1310 de PG y se combina con el plano 1301 de vídeo de la vista izquierda. En particular, en este plano de PG de la vista izquierda, la posición de presentación del subtítulo 1311 se desplaza a la derecha desde la posición de presentación original en el valor de compensación SFP.
A la inversa, se proporciona una compensación izquierda al plano 1320 de IG. Específicamente, la posición de cada pieza de datos de píxel en el plano 1320 de IG se desplaza en primer lugar a la izquierda (virtualmente) desde la posición correspondiente de los datos de píxel en el plano 1301 de vídeo de la vista izquierda en un número de píxeles SFI igual al valor de compensación. A continuación, una banda 1322 (virtualmente) que sobresale desde el borde izquierdo del rango del plano 1310 de vídeo de la vista izquierda se corta desde el borde izquierdo del plano 1320 de Ig. A la inversa, una banda 1323 transparente se añade al borde derecho del plano 1320 de IG. La anchura de esta banda 1323 es la anchura de la banda 1322 en el borde izquierdo; es decir la anchura es la misma que el valor de compensación SFI. Un plano de IG que representa la vista izquierda se genera por lo tanto desde el plano 1320 de IG y se combina con el plano 1301 de vídeo de la vista izquierda. En particular, en este plano de IG de la vista izquierda, la posición de presentación del botón 1321 se desplaza a la izquierda desde la posición de presentación original en el valor de compensación SFI.
Como se muestra en la Figura 13B, se proporciona una compensación izquierda al plano 1310 de PG, y se añade una compensación derecha al plano 1320 de IG. En otras palabras, las operaciones anteriores se realizan a la inversa para el plano 1310 de PG y el plano 1320 de IG. Como resultado, los datos de plano que representan la vista derecha se generan desde los datos 1310 y 1320 de plano y se combinan con el plano 1320 de vídeo de la vista derecha. En particular, en el plano de PG de la vista derecha, la posición de presentación del subtítulo 1311 se desplaza a la izquierda desde la posición de presentación original en el valor de compensación SFP. Por otra parte, en el plano de IG de la vista derecha, la posición de presentación del botón 1321 se desplaza a la derecha desde la posición de presentación original en el valor de compensación SFI.
La Figura 13C es un diagrama esquemático que muestra imágenes de gráficos en 3D que se hace que un observador 1330 perciba desde las imágenes de gráficos en 2D representadas por planos de gráficos mostrados en las Figuras 13A y 13B. Cuando las imágenes de gráficos en 2D representadas por estos planos de gráficos se visualizan de manera alterna en la pantalla 1340, el observador 1330 percibe que el subtítulo 1331 está más cerca que la pantalla 1340 y que el botón 1332 está más alejado que la pantalla 1340, como se muestra en la Figura 13C. La distancia entre las imágenes 1331 y 1332 de gráficos en 3D y la pantalla 1340 puede ajustarse mediante los valores de compensación SFP y SFI.
Las Figuras 14A y 14B son gráficos que muestran ejemplos de secuencias de compensación. En estos gráficos, el valor de compensación es positivo cuando la dirección de compensación es hacia el observador desde la pantalla. La Figura 14A es una ampliación del gráfico para el periodo de presentación del primer GOP en la Figura 14B, es decir el GOP1. Como se muestra en la Figura 14A, la línea 1401 progresiva muestra valores de compensación para la secuencia de compensación con un ID de secuencia de compensación que equivale a 0, es decir la secuencia de compensación [0]. Por otra parte, la línea 1402 horizontal muestra valores de compensación para la secuencia de compensación con un ID de secuencia de compensación que equivale a 1, es decir la secuencia de compensación [1]. El valor 1401 de compensación de la secuencia de compensación [0] aumenta progresivamente durante el periodo de presentación GOP1 del primer GOP en el orden de fotogramas FR1, FR2, FR3, ..., FR15, .... Como se muestra en la Figura 14B, el aumento progresivo en el valor 1401 de compensación continúa de manera similar en los periodos de presentación GOP2, GOP3, ..., GOP40, ... para el segundo y posteriores GOP. La cantidad de aumento por fotograma es suficientemente pequeña para que el valor 1401 de compensación en la Figura 14B parezca que aumenta continuamente como una línea. Por otra parte, el valor 1402 de compensación en la secuencia de compensación [1] se mantiene constante durante el periodo de presentación GOP1 del primer GOP. Como se muestra en la Figura 14B, el valor 1402 de compensación aumenta a un valor positivo al final del periodo de presentación GOP40 para el GOP de orden 40. Los valores de compensación pueden por lo tanto mostrar cambio discontinuo.
La Figura 14C es un diagrama esquemático que muestra imágenes de gráficos en 3D reproducidas de acuerdo con
5
10
15
20
25
30
35
40
45
50
55
60
las secuencias de compensación mostradas en las Figuras 14A y 14B. Cuando la imagen 1403 de vídeo en 3D de subtítulo se visualiza de acuerdo con la secuencia de compensación [0], la imagen 1403 de vídeo en 3D parece que se inicia desde la derecha delante de la pantalla 1404 y se acerca gradualmente al observador. Por otra parte, cuando la imagen 1405 de vídeo de botón en 3D se visualiza de acuerdo con la secuencia de compensación [1], la imagen 1405 de vídeo en 3D parece que salta repentinamente desde una posición fijada detrás de la pantalla 1404 hacia delante de la pantalla 1404. Como se ha descrito, los patrones mediante los cuales los valores de compensación aumentan y reducen fotograma a fotograma se cambian de una diversidad de maneras desde una secuencia de compensación a otra. Los cambios individuales en la profundidad de una pluralidad de imágenes de gráficos en 3D pueden representarse de esta manera en una diversidad de maneras.
[Relación entre metadatos de compensación y prioridad de TS]
La Figura 15 es un diagrama esquemático que muestra un paquete 1510 de PES que almacena la VAU n.° 1 1500 en el flujo de vídeo de vista dependiente y una secuencia de paquetes 1520 de TS generada desde el paquete 1510 de PES. La VAU n.° 1 1500 está localizada en la parte superior de la secuencia de vídeo, como la VAU n.° 1 832 mostrada en la Figura 8. Por consiguiente, al menos una pieza de datos 1504 complementarios incluida en la VAU n.° 1 1500 consiste únicamente en metadatos 1509 de compensación. Las áreas entramadas en la Figura 15 muestran los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación. La VAU n.° 1 1500 se almacena en la carga útil 1512 de PES del paquete 1510 de PES. El encabezamiento 1511 de PES del paquete 1510 de PES incluye una DTS y una PTS asignadas a datos 1505 de instantánea comprimidos en la VAU n.° 1 1500. El paquete 5010 de PES se almacena en la secuencia 5020 de paquetes de TS en orden desde la parte superior. Con esta disposición, la secuencia 1520 del paquete de TS se divide en tres grupos 1521, 1522, y 1523 en orden desde la parte superior. El primer grupo 1521 incluye el encabezamiento 1511 de PES, código 1501 de identificación de sub-AU, encabezamiento 1502 de sub-secuencia y encabezamiento 1503 de instantánea. El segundo grupo 1522 únicamente incluye los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación. El tercer grupo 1513 incluye los datos 1505 de instantánea comprimida, datos 1506 de relleno, código 1507 final de secuencia y código 1508 final de flujo. Obsérvese que los datos complementarios distintos de los metadatos de compensación, si se incluyen en la vAu n.° 1 1500, se almacenan en el primer grupo 1521 o el tercer grupo 1513. El paquete 1530 de TS localizado al final del primer grupo 1521 incluye generalmente un campo 1532 de AD. Esto evita que los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación se mezclen en la carga útil 1533 de TS. De manera similar, el paquete 1550 de TS localizado al final del segundo grupo 1522 incluye en general un campo 1552 de AD. Esto evita que los datos 1505 de instantánea comprimida y cualquier otro dato excepto los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación se mezclen en la carga útil 1553 de TS. De esta manera, los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación se almacenan únicamente en las cargas útiles 1542, 1553 de TS de los paquetes 1540, 1550 de TS que pertenecen al segundo grupo 1522. Por otra parte, los datos 1505 de instantánea comprimida se almacenan únicamente en las cargas útiles 1562 de TS de los paquetes 1560 de TS que pertenecen al tercer grupo 1523.
Haciendo referencia adicionalmente a la Figura 15, los encabezamientos 1531 de TS de los paquetes 1530 de TS que pertenecen al primer grupo 1521 indican el valor de prioridad de TS establecido a “0”. De manera similar, los encabezamientos 1561 de TS de los paquetes 1560 de TS que pertenecen al tercer grupo 1523 indican el valor de prioridad de TS establecido a “0”. Por otra parte, los encabezamientos 1541, 1551 de TS de los paquetes 1540, 1550 de TS que pertenecen al segundo grupo 1522 indican el valor de prioridad de TS establecido a “1”. Obsérvese que estos valores pueden establecerse a la inversa. De esta manera, los paquetes de TS que pertenecen al segundo grupo 1522 tienen un valor de prioridad diferente de TS desde los paquetes de TS que pertenecen a los otros grupos 1521 y 1523. Por consiguiente, el decodificador objetivo de sistema en el dispositivo 102 de reproducción puede seleccionar fácilmente paquetes de TS que pertenecen al segundo grupo 1522 usando la prioridad de TS.
En contraste a la Figura 15, los paquetes de TS que pertenecen al primer grupo 1521 y al segundo grupo 1522 pueden indicar el mismo valor de prioridad de TS. La Figura 16 es un diagrama esquemático que muestra una secuencia de paquetes 1620 de TS en ese caso. Como la secuencia de paquetes 1520 de TS mostrada en la Figura 15, la secuencia de paquetes 1620 de TS se divide en tres grupos 1621, 1622, y 1623 en orden desde la parte superior. El primer grupo 1621 incluye el encabezamiento 1511 de PES, código 1501 de identificación de sub-AU, encabezamiento 1502 de sub-secuencia y encabezamiento 1503 de instantánea. El segundo grupo 1622 incluye los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación. El tercer grupo 1613 incluye los datos 1505 de instantánea comprimida, datos 1506 de relleno, código 1507 final de secuencia y código 1508 final de flujo. Obsérvese que datos complementarios distintos de los metadatos de compensación, si se incluyen en la VAU n.° 1 1500, se almacenan en el primer grupo 1621 o el tercer grupo 1613. Las áreas entramadas en la Figura 16 muestran los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación, y las áreas discontinuas muestran los datos 1511, 1501-1503 dispuestos antes de los datos complementarios en el paquete 1510 de PES. Los encabezamientos 1631, 1641, 1651 de TS de los paquetes 1630, 1640, 1650 de TS que pertenecen al primer grupo 1621 y al segundo grupo 1622 indican el valor de prioridad de TS establecido a “1”. Por otra parte, los encabezamientos 1661 de TS de los paquetes 1660 de TS que pertenecen al tercer grupo 1623 indican el valor de prioridad de TS establecido a “0”. Obsérvese que estos valores pueden establecerse a la inversa. Incluso en este caso, los paquetes de TS que contienen los datos 1504 complementarios
5
10
15
20
25
30
35
40
45
50
55
60
que consisten únicamente en los metadatos 1509 de compensación tienen un valor de prioridad diferente de TS de los paquetes de TS que contienen los datos 1505 de instantánea comprimida. Por consiguiente, el decodificador objetivo de sistema en el dispositivo 102 de reproducción puede separar fácilmente el grupo de paquetes de TS que contienen los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación desde el grupo de paquetes de TS que contienen los datos 1505 de instantánea comprimida usando prioridad de TS.
[Información de conmutación de decodificación]
La Figura 17A es un diagrama esquemático que muestra una estructura de datos de información 1750 de conmutación de decodificación. La información 1750 de conmutación de decodificación se incluye en los datos complementarios en cada VAU tanto en el flujo de vídeo de vista de base como el flujo de vídeo de vista dependiente mostrados en la Figura 8. Sin embargo, en la VAU n.° 1 832 localizada en la parte superior de cada vOp en el flujo de vídeo de vista dependiente, la información 1750 de conmutación de decodificación se almacena en datos complementarios que son diferentes de los datos 832D complementarios que contienen los metadatos de compensación. Los datos 831D y 832D complementarios, en particular en MPEG-4 AVC y MVC, corresponden a “SEI” que es un tipo de unidad de NAL. La información 1750 de conmutación de decodificación es información para provocar que el decodificador en el dispositivo 102 de reproducción especifique fácilmente la siguiente VAU a decodificar. Como se describe a continuación, el decodificador decodifica de manera alterna el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente en unidades de VAU. Cuando se hace esto, el decodificador especifica en general la siguiente VAU a decodificar en alienación con el tiempo mostrado por la DTS asignada a cada VAU. Sin embargo, muchos tipos de decodificadores, continúan decodificando las VAU en orden, ignorando la DTS. Para tales decodificadores, se prefiere que cada VAU incluya información 1750 de conmutación de decodificación además de una DTS.
Como se muestra en la Figura 17A, la información 1750 de conmutación de decodificación incluye un tipo 1751 de unidad de acceso posterior, tamaño 1752 de unidad de acceso posterior y contador 1753 de decodificación. El tipo 1751 de unidad de acceso posterior indica si la siguiente VAU a decodificar pertenece a un flujo de vídeo de vista de base o un flujo de vídeo de vista dependiente. Por ejemplo, cuando el valor del tipo 1751 de unidad de acceso posterior es “1”, la siguiente VAU a decodificar pertenece a un flujo de vídeo de vista de base, y cuando el valor del tipo 1751 de unidad de acceso posterior es “2”, la siguiente VAU a decodificar pertenece a un flujo de vídeo de vista dependiente. Cuando el valor del tipo 1751 de unidad de acceso posterior es “0”, la VAU actual se localiza al final del flujo dirigido para decodificación, y la siguiente VAU a decodificar no existe. El tamaño 1752 de la unidad de acceso posterior indica el tamaño de la siguiente VAU que se ha de decodificar. Haciendo referencia al tamaño 1752 de la unidad de acceso posterior, el decodificador en el dispositivo 102 de reproducción puede especificar el tamaño de una VAU sin analizar su estructura real. Por consiguiente, el decodificador puede extraer fácilmente la VAU desde la memoria intermedia. El contador 1753 de decodificación muestra el orden de decodificación de la VAU a la que pertenece. El orden se cuenta desde una VAU que incluye una instantánea I en el flujo de vídeo de vista de base.
La Figura 17B es un diagrama esquemático que muestra secuencias de contadores 1710 y 1720 de decodificación asignados a cada instantánea en un flujo 1701 de vídeo de vista de base y un flujo 1702 de vídeo de vista dependiente. Como se muestra en la Figura 17B, los contadores 1710 y 1720 de decodificación se incrementan de manera alterna entre los dos flujos 1701 y 1702 de vídeo. Por ejemplo, para la VAU 1711 que incluye una instantánea I en el flujo 1701 de vídeo de vista de base, un valor de “1” se asigna al contador 1710 de decodificación. A continuación, un valor de “2” se asigna al contador 1720 de decodificación para la VAU 1721 que incluye la siguiente instantánea P a decodificar en el flujo 1702 de vídeo de vista dependiente. Adicionalmente, un valor de “3” se asigna al contador 1710 de decodificación para la VAU 1712 que incluye la siguiente instantánea P a decodificar en el flujo 1701 de vídeo de vista de base. Asignando valores de esta manera, incluso cuando el decodificador en el dispositivo 102 de reproducción falla al leer una de las VAU debido a algún error, el decodificador puede especificar inmediatamente la instantánea ausente usando los contadores 1710 y 1720 de decodificación. Por consiguiente, el decodificador puede realizar procesamiento de error de manera apropiada y oportuna.
En el ejemplo mostrado en la Figura 17B, tiene lugar un error durante la lectura de la tercera VAU 1713 en el flujo 1701 de vídeo de vista de base, y la instantánea Br está ausente. Durante la decodificación de la instantánea P contenida en la segunda VAU 1722 en el flujo 1702 de vídeo de vista dependiente, sin embargo, el decodificador ha leído el contador 1720 de decodificación para esta VAU 1722 y ha retenido el valor. Por consiguiente, el decodificador puede predecir el contador 1710 de decodificación para la siguiente VAU a procesar. Específicamente, el contador 1720 de decodificación en la VAU 1722 que incluye la instantánea P es “4”. Por lo tanto, el contador 1710 de decodificación para la siguiente VAU a leerse puede predecirse para que sea “5”. La siguiente VAU que se lee realmente, sin embargo, es la cuarta VAU 1714 en el flujo 1701 de vídeo de vista de base, cuyo contador 1710 de decodificación es “7”. El decodificador puede detectar por lo tanto que falló al leer una VAU. Por consiguiente, el decodificador puede ejecutar el siguiente procesamiento: “omitir la decodificación de la instantánea B extraída desde la tercera VAU 1723 en el flujo 1702 de vídeo de vista dependiente, puesto que la instantánea Br a usarse como una referencia está ausente”. De esta manera, el decodificador comprueba los contadores 1710 y 1720 de decodificación durante cada procedimiento de decodificación. En consecuencia, el decodificador puede detectar de manera oportuna errores durante la lectura de las VAU y puede ejecutar de manera oportuna el procesamiento de errores apropiado. Como resultado, el decodificador puede evitar que el ruido contamine el vídeo de reproducción.
5
10
15
20
25
30
35
40
45
50
55
La Figura 17C es un diagrama esquemático que muestra otros ejemplos de los contadores 1730 y 1740 de decodificación asignados a cada instantánea en un flujo 1701 de vídeo de vista de base y un flujo 1702 de vídeo de vista dependiente. Como se muestra en la Figura 12C, los contadores 1730 y 1740 de decodificación se incrementan de manera separada en los flujos 1701 y 1702 de vídeo. Por lo tanto, los contadores 1730 y 1740 de decodificación son los mismos para un par de instantáneas en la misma VAU en 3D. En este caso, cuando el decodificador ha decodificado una VAU en el flujo 1701 de vídeo de vista de base, puede predecir que “el contador de decodificación 1230 es el mismo que el contador 1740 de decodificación para la siguiente VAU a decodificar en el flujo 1702 de vídeo de vista dependiente”. A la inversa, cuando el decodificador ha decodificado una VAU en el flujo 1702 de vídeo de vista dependiente, puede predecir que “el contador de decodificación 1730 para la siguiente VAU a decodificar en el flujo 1701 de vídeo de vista de base es el mismo que el contador 1740 de decodificación más uno”. Por consiguiente, en cualquier punto en el tiempo, el decodificador puede detectar de manera oportuna un error al leer una VAU que usa los contadores 1730 y 1740 de decodificación y puede ejecutar de manera oportuna el procesamiento de error apropiado. Como resultado, el decodificador puede evitar que el ruido contamine el vídeo de reproducción.
<<Otros paquetes de TS incluidos en el fichero de flujo de AV>>
Además de los paquetes de TS convertidos desde el flujo elemental como se muestra en la Figura 3, los tipos de paquetes de TS incluidos en un fichero de flujo de AV incluido en una Tabla de Asociación de Programa (PAT), Tabla de Mapa de Programa (PMT) y Referencia de Reloj de Programa (PCR). La PCR, PMT y la pAt se especifican mediante la Norma Europea de Difusión Digital y se pretende que regulen el flujo de transporte parcial que constituye un único programa. Usando la PCR, PMT y PAT, el fichero de flujo de AV puede regularse también de la misma manera que el flujo de transporte parcial. Específicamente, la PAT muestra el PID de una PMT incluida en el mismo fichero de flujo de AV. El PID de la misma pAt es 0. La PMT incluye los PID para los flujos elementales que representan vídeo, audio, subtítulos, etc., incluidos en el mismo fichero de flujo de AV, así como la información de atributo para los flujos elementales. La PMT incluye también diversos descriptores relacionados con el fichero de flujo de AV. Los descriptores particularmente incluyen información de control de copia que muestra si copiar el fichero de flujo de AV está permitido o no. La PCR incluye información que indica el valor de un reloj de tiempo de sistema (STC) a asociarse con la ATS asignada a la misma PCR. El STC denominado en este punto es un reloj usado como una referencia para la PTS y la DTS por un decodificador en el dispositivo 102 de reproducción. Este decodificador usa la PCR para sincronizar el STC con el ATC.
La Figura 18 es un diagrama esquemático que muestra una estructura de datos de una PMT 1810. La PMT 1810 incluye un encabezamiento 1801 de PMT, descriptores 1802 y piezas de la información 1803 de flujo. El encabezamiento 1801 de PMT indica la longitud de datos, etc., almacenados en la PMT 1810. Cada descriptor 1802 se refiere a todo el fichero de flujo de AV que incluye la PMT 1810. La información de control de copia se incluye en uno de los descriptores 1802. Cada pieza de la información 1803 de flujo se refiere a uno de los flujos elementales incluidos en el fichero de flujo de AV y se asigna a un flujo elemental diferente. Cada pieza de la información 1803 de flujo incluye un tipo 1831 de flujo, un PID 1832 y descriptores 1833 de flujo. El tipo 1831 de flujo incluye información de identificación para el códec usado para comprimir el flujo elemental. El PID 1832 indica el PID del flujo elemental. Los descriptores 1833 de flujo incluyen información de atributo del flujo elemental, tal como una velocidad de fotograma y una relación de aspecto.
Usando PCR, PMT y PAT, el decodificador en el dispositivo 102 de reproducción puede hacerse que procese el fichero de flujo de AV de la misma manera que el flujo de transporte parcial en la Norma Europea de Difusión Digital. De esta manera, es posible asegurar la compatibilidad entre un dispositivo de reproducción para el disco 101 BD- ROM y un dispositivo terminal conforme a la Norma Europea de Difusión Digital.
«Disposición intercalada de datos de flujo multiplexados>>
Para reproducción sin interrupciones de imágenes de vídeo en 3D, la disposición física del flujo de vídeo de vista de base y flujo de vídeo de vista dependiente en el disco 101 BD-ROM es importante. Esta “reproducción ininterrumpida” se refiere a reproducir vídeo y audio desde datos de flujo multiplexados sin interrupción.
La Figura 19 es un diagrama esquemático que muestra una disposición física de datos de flujo multiplexados en el disco 101 BD-ROM. Como se muestra en la Figura 19, los datos de flujo multiplexados se dividen en una pluralidad de bloques de datos D[n], B[n] (n = 0, 1, 2, 3, ...) y se disponen en el disco 101 BD-ROM. Un “bloque de datos” se refiere a una secuencia de datos registrados en un área contigua en el disco 101 BD-ROM, es decir una pluralidad de sectores físicamente contiguos. Puesto que las direcciones físicas y direcciones lógicas en el disco 101 BD-ROM son sustancialmente las mismas, los LBN dentro de cada bloque de datos también son contiguos. Por consiguiente, la unidad 121 de BD-ROM puede leer de manera continua un bloque de datos sin provocar que el cabezal óptico realice una búsqueda. En lo sucesivo, los bloques de datos B[n] que pertenecen a un TS principal se denominan como “bloques de datos de vista de base”, y los bloques de datos D[n] que pertenecen a un sub-TS se denominan como “bloques de datos de vista dependiente”. En particular, los bloques de datos que incluyen el flujo de vídeo de la vista derecha se denominan como “bloques de datos de vista derecha”, y los bloques de datos que incluyen el flujo de mapa de profundidad se denominan como “bloques de datos de mapa de profundidad”.
5
10
15
20
25
30
35
40
45
50
55
60
En el sistema de ficheros en el disco 101 BD-ROM, cada bloque de datos B[n] y D[n] puede accederse como un segmento en los ficheros 2D o los ficheros DEP. En otras palabras, la dirección lógica para cada bloque de datos puede conocerse a partir de la entrada de fichero de un fichero en 2D o un fichero DEP (véase la «explicación complementaria» para detalles).
En el ejemplo mostrado en la Figura 19, la entrada 1910 de fichero en el fichero en 2D (01000.m2ts) 241 indica los tamaños de los bloques de datos de vista de base B[n] y los LBN de sus partes superiores. Por consiguiente, los bloques de datos de vista de base B[n] pueden accederse como los segmentos EXT2D[n] en el fichero en 2D 241. En lo sucesivo, los segmentos EXT2D[n] que pertenecen al fichero en 2D 241 se denominan como “segmentos de 2D”. Por otra parte, la entrada de fichero 1920 del fichero DEP (02000.m2ts) 242 indica los tamaños de los bloques de datos de vista dependiente D[n] y los LBN de sus partes superiores. Por consiguiente, cada bloque de datos de vista dependiente D[n] puede accederse como un segmento EXT2[n] en el fichero DEP 242. En lo sucesivo, los segmentos EXT2[n] que pertenecen al fichero DEP 242 se denominan como “segmentos de vista dependiente”.
Como se muestra en la Figura 19, un grupo de bloques de datos se registra de manera continua a lo largo de una pista en el disco 101 BD-ROM. Adicionalmente, los bloques de datos de vista de base B[n] y los bloques de datos de vista dependiente D[n] están dispuestos de manera alterna uno a uno. Este tipo de disposición de un grupo de bloques de datos se denomina como una “disposición intercalada”. En particular, una serie de bloques de datos registrados en una disposición intercalada se denomina como un “bloque de segmento”. Se muestran tres bloques 1901, 1902 y 1903 de segmento en la Figura 19. Como se muestra en el primero de dos bloques 1901 y 1902 de segmento, existe un área de almacenamiento NAV para datos distintos de los datos de flujo multiplexados entre los bloques de segmento, separando por lo tanto los bloques de segmento. También, cuando el disco 101 BD-ROM es un disco multi-capa, es decir cuando el disco 101 BD-ROM incluye una pluralidad de capas de registro, los bloques de segmento pueden separarse también por un límite de capa LB entre las capas de registro, como en el tercer y segundo bloques 1902 y 1903 de segmento mostrados en la Figura 19. De esta manera, una serie de datos de flujo multiplexados están dispuestos en general para dividirse en una pluralidad de bloques de segmento. En este caso, para que el dispositivo 102 de reproducción reproduzca de manera ininterrumpida imágenes de vídeo desde los datos de flujo multiplexados, es necesario que las imágenes de vídeo se reproduzcan desde los bloques de segmento para que se conecten de manera ininterrumpida. En lo sucesivo, el procesamiento requerido por el dispositivo 102 de reproducción para ese fin se denomina como “conexión ininterrumpida entre bloques de segmento”.
Los bloques 1901-1903 de segmento tienen el mismo número de los dos tipos de bloques de datos, D[n] y B[n]. Adicionalmente, el tiempo de ATC de segmento es el mismo entre pares de bloques de datos contiguos D[n] y B[n]. En este contexto, un “Reloj de Tiempo de Llegada (ATC)” se refiere a un reloj que actúa como una norma para una ATS. También, el “tiempo de ATC de segmento” se define por el valor del aTc y representa el rango de la ATS asignada a paquetes de origen en un segmento, es decir el intervalo de tiempo desde la ATS del paquete de origen en la parte superior del segmento a la ATS del paquete de origen en la parte superior del siguiente segmento. En otras palabras, el tiempo de ATC de segmento es el mismo que el tiempo requerido para transferir todos los paquetes de origen en el segmento desde la memoria intermedia de lectura en el dispositivo 102 de reproducción al decodificador objetivo de sistema. La “memoria intermedia de lectura” es una memoria intermedia de lectura en el dispositivo 102 de reproducción donde los bloques de datos leídos desde el disco 101 BD-ROM se almacenan temporalmente antes de transmitirse al decodificador objetivo de sistema. Se proporcionan detalles sobre la memoria intermedia de lectura más tarde. En el ejemplo mostrado en la Figura 19, puesto que están conectados tres bloques 1901-1903 de segmento juntos de manera ininterrumpida, los tiempos de ATC de segmento son los mismos entre los pares de bloques de datos D[n], B[n] (n = 0, 1,2, ...).
Las VAU localizadas en la parte superior de los bloques de datos contiguos D[n] y B[n] pertenecen a la misma VAU en 3D, y en particular incluyen la instantánea de la parte superior del GOP que representa la misma imagen de vídeo en 3D. Por ejemplo, cuando el bloque de datos de vista dependiente D[n] es un bloque de datos de vista derecha D[n], la parte superior de cada bloque de datos de vista derecha D[n] incluye una instantánea P para el flujo de vídeo de la vista derecha, y la parte superior del bloque de datos de vista de base B[n] incluye una instantánea I para el flujo de vídeo de vista de base. La instantánea P para el flujo de vídeo de la vista derecha representa la vista derecha cuando la imagen de vídeo en 2D representada por la instantánea I en el flujo de vídeo de vista de base se usa como la vista izquierda. En particular, la instantánea P, como se muestra en la Figura 7, se comprime usando la instantánea I como una instantánea de referencia. Por consiguiente, el dispositivo 102 de reproducción en un modo de reproducción en 3D puede iniciar la reproducción de imágenes de vídeo en 3D desde cualquier par de bloques de datos D[n] y B[n]. Es decir, es posible el procesamiento que requiere el acceso aleatorio de los flujos de vídeo, tal como la reproducción interrumpida. Esto se cumple también en el caso donde el bloque de datos de vista dependiente D[n] es un mapa de profundidad bloque de datos.
Adicionalmente, en la disposición intercalada, entre pares contiguos de bloques de datos D[n] y B[n], los bloques de datos de vista dependiente D[n] están localizados antes de los bloques de datos de vista de base B[n]. Esto es debido a que en general la cantidad de datos es menor en el bloque de datos de vista dependiente D[n] que en el bloque de datos de vista de base B[n], es decir la tasa de bits es inferior. Por ejemplo, la instantánea incluida en el bloque de datos de vista derecha D[n] se comprime usando la instantánea incluida en el bloque de datos de vista de base B[n] como una instantánea de referencia. Por consiguiente, el tamaño SEXT2[n] del bloque de datos de vista
5
10
15
20
25
30
35
40
45
50
55
60
derecha D[n] es en general igual o menor que el tamaño SextiM del bloque de datos de vista de base B[n]: SEXT2[n] < SEXT1[n]. Por otra parte, la cantidad de datos por píxel en el mapa de profundidad, es decir el número de bits del valor de profundidad, es en general menor que la cantidad de datos por píxel de la instantánea de vista de base, es decir la suma del número de bits del valor de coordenada cromática y el valor a. Adicionalmente, como se muestra en las Figuras 3A y 3B, a diferencia del sub-TS, el TS principal incluye otros flujos elementales, tal como un flujo de audio primario, además del flujo de vídeo primario. Por lo tanto, el tamaño del bloque de datos de mapa de profundidad, SEXT3[n], es en general menor o igual que el tamaño del bloque de datos de vista de base B[n], SEXTi[n]:
SEXT3[n] < SEXTl[n].
[Significado de dividir datos de flujo multiplexados en bloques de datos]
Para reproducir imágenes de vídeo en 3D de manera ininterrumpida desde el disco 101 BD-ROM, el dispositivo 102 de reproducción tiene que procesar el TS principal y el sub-TS en paralelo. La capacidad de memoria intermedia de lectura usable en tal procesamiento, sin embargo, está en general limitada. En particular, existe un límite para la cantidad de datos que pueden leerse de manera continua en la memoria intermedia de lectura desde el disco 101 BD-ROM. Por consiguiente, el dispositivo 102 de reproducción tiene que leer secciones del TS principal y sub-TS con el mismo tiempo de ATC de segmento dividiendo las secciones.
La Figura 20A es un diagrama esquemático que muestra la disposición del TS 2001 principal y el sub-TS 2002 registrados de manera separada y consecutiva en un disco BD-ROM. Cuando el dispositivo 102 de reproducción procesa el TS 2001 principal y sub-TS 2002 en paralelo, como se muestra mediante las flechas (1)-(4) en las líneas continuas en la Figura 20A, la unidad 121 de BD-ROM lee de manera alterna las secciones del TS 2001 principal y el sub-TS 2002 que tienen el mismo tiempo de ATC de segmento. En este momento, como se muestra por las flechas en las líneas discontinuas en la Figura 20A, durante el procesamiento de lectura la unidad 121 de bD-ROM tiene que hacer un gran cambio en el área a leerse en el disco BD-ROM. Por ejemplo, después de que se lee la sección superior del TS 2001 principal mostrada por la flecha (1), la unidad 121 de bD-ROM detiene temporalmente la operación de lectura mediante el cabezal óptico y aumenta la velocidad de rotación del disco BD-ROM. De esta manera, la unidad 121 de BD-ROM mueve rápidamente el disco BD-ROM en el que se registra la sección superior del sub-TS 2002 mostrado por la flecha (2) en la posición del cabezal óptico. Esta operación para detener temporalmente la lectura por el cabezal óptico y, mientras se detiene la lectura, se sitúa el cabezal óptico por encima del siguiente área a leerse se denomina como un “salto”. Las líneas discontinuas con una flecha mostradas en la Figura 20A indican el rango de los saltos necesarios durante el procesamiento de lectura. Durante cada periodo de salto, el procesamiento de lectura por el cabezal óptico se detiene, y únicamente progresa la decodificación por el decodificador. Puesto que el salto es excesivo en el ejemplo mostrado en la Figura 20A, es difícil provocar que el procesamiento de lectura se mantenga con la decodificación. Como resultado, es difícil mantener de manera estable la reproducción ininterrumpida.
La Figura 20B es un diagrama esquemático que muestra una disposición de bloques de datos de vista dependiente D[0], D[1], D[2], ... y bloques de datos de vista de base B[0], B[1], B[2], ... registrados de manera alterna en el disco 101 BD-RoM de acuerdo con la realización 1 de la presente invención. Como se muestra en la Figura 20B, el TS principal y el sub-TS se dividen en una pluralidad de bloques de datos y están dispuestos de manera alterna. En este caso, durante la reproducción de imágenes de vídeo en 3D, el dispositivo 102 de reproducción lee los bloques de datos D[0], B[0], D[1], B[1] ... en orden desde la parte superior, como se muestra por las flechas (1)-(4) en la Figura 20B. Leyendo simplemente estos bloques de datos en orden, el dispositivo 102 de reproducción puede leer de manera suave el TS principal y sub-TS de manera alterna. En particular, puesto que no tiene lugar salto durante el procesamiento de lectura, la reproducción ininterrumpida de imágenes de vídeo en 3D puede mantenerse de manera estable.
[Significado de proporcionar bloques de datos contiguos con el mismo tiempo de ATC de segmento]
La Figura 20C es un diagrama esquemático que muestra un ejemplo de los tiempos de ATC de segmento para un grupo de bloques de datos de vista dependiente D[n] y un grupo de bloques de datos de vista de base B[n] registrados en una disposición intercalada (n = 0, 1, 2). Como se muestra en la Figura 20C, el tiempo de ATC de segmento es el mismo en cada par entre el bloque de datos de vista dependiente D[n] y el bloque de datos de vista de base inmediatamente posterior B[n]. Por ejemplo, el tiempo de ATC de segmento es igual a un segundo para cada uno de D[0] y B[0] en el par de bloque de datos superior. Por consiguiente, cuando los bloques de datos D[0] y B[0] se leen por la memoria intermedia de lectura en el dispositivo 102 de reproducción, todos los paquetes de TS en la misma se envían desde la memoria intermedia de lectura al decodificador objetivo de sistema en el mismo intervalo de un segundo. De manera similar, puesto que el tiempo de ATC de segmento es igual a 0,7 segundos para cada uno de D[1] y B[1] en el segundo par de bloque de datos, todos los paquetes de TS en cada bloque de datos se transmiten desde la memoria intermedia de lectura al decodificador objetivo de sistema en el mismo intervalo de 0,7 segundos.
La Figura 20D es un diagrama esquemático que muestra otro ejemplo de los tiempos de ATC de segmento para un grupo de bloques de datos de vista dependiente D[n] y un grupo de bloques de datos de vista de base B[n] registrados en una disposición intercalada. Como se muestra en la Figura 20D, los tiempos de ATC de segmento en todos los bloques de datos D[n] y B[n] son iguales a un segundo. Por consiguiente, en el mismo intervalo de un
5
10
15
20
25
30
35
40
45
50
55
segundo en el que cualquiera de los bloques de datos D[n] y B[n] se lee por la memoria intermedia de lectura en el dispositivo 102 de reproducción, todos los paquetes de TS en cada uno de estos bloques de datos se transmiten desde la memoria intermedia de lectura al decodificador objetivo de sistema.
Como se ha descrito anteriormente, la tasa de compresión de los bloques de datos de vista dependiente es en general más alta que la tasa de compresión de los bloques de datos de vista de base. Por consiguiente, la decodificación de los bloques de datos de vista dependiente es en general más lenta que la decodificación de los bloques de datos de vista de base. Por otra parte, cuando los tiempos de ATC de segmento son iguales, los bloques de datos de vista dependiente tienen una cantidad de datos menor que los bloques de datos de vista de base. Por lo tanto, cuando los tiempos de ATC de segmento son los mismos entre bloques de datos contiguos como en las Figuras 20C y 20D, la velocidad a la que se proporcionan los datos a decodificar al decodificador objetivo de sistema puede mantenerse fácilmente de manera uniforme con la velocidad de procesamiento por el decodificador. En otras palabras, el decodificador objetivo de sistema facilita la sincronización entre la decodificación de los bloques de datos de vista de base y la decodificación de los bloques de datos de vista dependiente, particularmente en reproducción interrumpida.
[Significado de colocar bloques de datos de menor cantidad de datos en primer lugar]
Cuando se lee un bloque de datos localizado en la parte superior o en la posición de inicio de reproducción de cada bloque de segmento, el dispositivo 102 de reproducción en un modo de reproducción en 3D le en primer lugar la
totalidad del bloque de datos en la memoria intermedia de lectura. El bloque de datos no se transfiere al
decodificador objetivo de sistema durante ese periodo. Después de finalizar la lectura del bloque de datos, el dispositivo 102 de reproducción transfiere el bloque de datos al decodificador objetivo de sistema en paralelo con el siguiente bloque de datos. Este procesamiento se denomina “precarga”.
El significado técnico de la precarga es como sigue. En primer lugar, en modo L/R, los bloques de datos de vista de base son necesarios para decodificar los bloques de datos de vista dependiente. Por lo tanto, para mantener la
memoria intermedia en la mínima capacidad necesaria para almacenar los datos decodificados hasta el
procesamiento de salida, se prefiere proporcionar simultáneamente los bloques de datos al decodificador objetivo de sistema a decodificar. Por otra parte, en modo de profundidad, el procesamiento es necesario para generar un par de planos de vídeo que representan imágenes de paralaje desde un par de una instantánea de vista de base decodificada y un mapa de profundidad decodificado. Por consiguiente, para mantener la memoria intermedia a la mínima capacidad necesaria para almacenar los datos decodificados hasta este procesamiento, se prefiere proporcionar los bloques de datos de vista de base simultáneamente con los bloques de datos de mapa de profundidad al decodificador objetivo de sistema a decodificar. Por lo tanto, la precarga provoca que la totalidad del bloque de datos en la parte superior de un bloque de segmento o en la posición de inicio de reproducción se lea en la memoria intermedia de lectura con antelación. Esto posibilita que el bloque de datos y el siguiente bloque de datos se transfieran simultáneamente desde la memoria intermedia de lectura al decodificador objetivo de sistema y se decodifiquen. Adicionalmente, los pares posteriores de bloques de datos pueden decodificarse también simultáneamente por el decodificador objetivo de sistema.
Cuando se realiza la precarga, la totalidad del bloque de datos que se lee en primer lugar se almacena en la memoria intermedia de lectura. Por consiguiente, la memoria intermedia de lectura requiere al menos una capacidad igual al tamaño del bloque de datos. Para mantener la capacidad de la memoria intermedia de lectura al mínimo, el tamaño del bloque de datos a precargar debería ser tan pequeño como sea posible. Mientras tanto, para reproducción interrumpida, etc., cualquier par de bloques de datos puede seleccionarse como la posición de inicio de reproducción. Por esta razón, el bloque de datos que tiene la cantidad de datos más pequeña se coloca en primer lugar en cada par de los bloques de datos. Esto posibilita que se mantenga la capacidad mínima en la memoria intermedia de lectura.
«Enlace cruzado de los ficheros de flujo de AV a bloques de datos>>
Para el grupo de bloques de datos mostrado en la Figura 19, los ficheros de flujo de AV se enlazan de manera cruzada como sigue. La entrada 1940 de fichero del fichero SS (01000.ssif) 244A considera cada bloque 1901-1903 de segmento para que sea un segmento, que indica el tamaño de cada uno y el LBN de la parte superior del mismo. Por consiguiente, los bloques 1901-1903 de segmento pueden accederse como los segmentos EXTSS[0], EXTSS[1], y EXTSS[2] del fichero SS 244A. En lo sucesivo, los segmentos EXTSS[0], EXTSS[1], y EXTSS[2] que pertenecen al fichero Ss 244A se denominan como los “segmentos SS”. Cada uno de los segmentos SS EXTss[0], EXTSS[1], y EXTSS[2] comparte los bloques de datos de vista de base B[n] con el fichero en 2D 241 y comparte los bloques de datos de vista dependiente D[n] con el fichero DEP 242.
<<Ruta de reproducción para el grupo de bloques de segmento»
La Figura 21 es un diagrama esquemático que muestra una ruta 2101 de reproducción en modo de reproducción en 2D para un grupo 1901-1903 de bloques de segmento. El dispositivo 102 de reproducción en modo de reproducción en 2D reproduce el fichero en 2D 241. Por consiguiente, como se indica por la ruta 2101 de reproducción en modo de reproducción en 2D, los bloques de datos de vista de base B[n] (n = 0, 1, 2, ...) se leen en orden desde los
5
10
15
20
25
30
35
40
45
50
55
60
bloques 1901-1903 de segmento como los segmentos de 2D EXT2D[0], EXT2D[1], y EXT2D[2]. Específicamente, en primer lugar, el bloque de datos de vista de base superior B[0] se lee desde el bloque 1901 de segmento superior, a continuación se omite la lectura del bloque de datos de vista dependiente inmediatamente posterior D[0] por un primer salto J2d1. A continuación, se lee el segundo bloque de datos de vista de base B[1], y a continuación se omite la lectura de la NAV de datos inmediatamente posterior y el bloque de datos de vista dependiente D[1] por un segundo salto Jnav. Posteriormente, se repite la lectura de los bloques de datos de vista de base y saltos de manera similar en el segundo y posteriores bloques 1902 y 1903 de segmento.
Un salto Jly que tiene lugar entre el segundo bloque 1902 de segmento y el tercer bloque 1903 de segmento es un salto largo a través del límite de capa LB. Un “salto largo” es una expresión colectiva para saltos con un tiempo de búsqueda largo y específicamente se refiere a una distancia de salto que supera un valor umbral predeterminado. “Distancia de salto” se refiere a la longitud del área en el disco 101 BD-ROm cuya lectura se omite durante un periodo de salto. La distancia de salto normalmente se expresa como el número de sectores de la sección correspondiente. El valor umbral usado para definir un salto largo se especifica, por ejemplo, como 40000 sectores en la norma de BD-ROM. Este valor umbral, sin embargo, depende del tipo de disco de BD-ROM y de la capacidad de procesamiento de lectura de la unidad de BD-ROM. Los saltos largos particularmente incluyen saltos de enfoque y saltos de pista. Un “salto de enfoque” es un salto provocado por la conmutación de capas de registro, e incluye el procesamiento para cambiar la distancia de enfoque del cabezal óptico. Un “salto de pista” incluye el procesamiento para mover el cabezal óptico en una dirección radial a lo largo del disco 101 BD-ROM.
La Figura 21 muestra adicionalmente una ruta 2102 de reproducción en modo L/R para el grupo de bloque 19011903 de segmento. El dispositivo 102 de reproducción en modo L/R reproduce el fichero SS 244A. Por consiguiente, como se indica por la ruta 2102 de reproducción en modo L/R, los bloques 1901-1903 de segmento se leen en orden como los segmentos SS EXTSS [0], EXTSS[1] y EXTSS[2]. Específicamente, los bloques de datos D[0], B[0], D[1] y B[1] se leen en primer lugar secuencialmente desde el bloque 1901 de segmento superior, a continuación se omite la lectura de los datos inmediatamente posteriores NAV por un primer salto Jnav. A continuación, los bloques de datos D[2], ... , B[3] se leen secuencialmente desde el segundo bloque 1902 de segmento. Inmediatamente después, tiene lugar un salto largo Jly al mismo tiempo a medida que se conmuta la capa de registro, y a continuación, los bloques de datos D[4], B[4], ... se leen secuencialmente desde el tercer bloque 1903 de segmento.
Cuando se leen los bloques 1901-1903 de segmento como los segmentos del fichero SS 244A, el dispositivo 102 de reproducción lee los lBn superiores de los segmentos SS EXTSS[0], EXTSS[1], ... y el tamaño de los mismos, desde la entrada 1940 de fichero en el fichero SS 244A y a continuación emite los LBN y tamaños a la unidad 121 de BD-ROM. La unidad 121 de BD-ROM lee continuamente datos que tienen el tamaño de entrada desde el LBN de entrada. En tal procesamiento, el control de la unidad 121 de BD-ROM es más fácil que el procesamiento para leer los grupos de bloque de datos como los segmentos en el primer fichero DEP 242 y el fichero en 2D 241 por las siguientes razones (A) y (B): (A) el dispositivo 102 de reproducción puede hacer referencia en orden a segmentos usando una entrada de fichero en una localización, y (B) puesto que el número total de segmentos a leerse sustancialmente se hace la mitad, el número total de pares de un LBN y un tamaño que necesita emitirse a la unidad 121 de BD-ROM se hace a la mitad. Sin embargo, después de que el dispositivo 102 de reproducción ha leído los segmentos SS EXTSS[0], EXTSS[1], ..., necesita separar cada uno en un bloque de datos de vista dependiente y un bloque de datos de vista de base y los emite al decodificador. El fichero de información de clip se usa para este procesamiento de separación. Se proporcionan detalles a continuación.
Como se muestra en la Figura 19, cuando se leen realmente los bloques 1901-1903 de segmento, la unidad 121 de BD-ROM realiza una transición de sector cero J0 en el tiempo desde la parte superior de un bloque de datos a la parte superior del siguiente bloque de datos. Una “transición de sector cero” es un movimiento del cabezal óptico entre dos bloques de datos consecutivos. Durante un periodo en el que se realiza una transición de sector cero (en lo sucesivo denominado como un “periodo de transición de sector cero”), el cabezal óptico suspende temporalmente su operación de lectura y espera. En este sentido, la transición de sector cero se considera “un salto en el que la distancia de salto es igual a 0 sectores”. La longitud del periodo de transición de sector cero, es decir, el periodo de tiempo de transición de sector cero, puede incluir, además del tiempo para desplazar la posición del cabezal óptico mediante la revolución del disco 101 BD-ROM, la sobrecarga producida por el procesamiento de corrección de errores. “La sobrecarga producida por el procesamiento de corrección de errores” se refiere al exceso de tiempo producido realizando procesamiento de corrección de errores dos veces usando un bloque de ECC cuando el límite entre bloques de ECC no coincide con el límite entre dos bloques de datos. Un bloque de ECC total es necesario para el procesamiento de corrección de errores. Por consiguiente, cuando dos bloques de datos consecutivos comparten un único bloque de ECC, la totalidad el bloque de ECC se lee y usa para procesamiento de corrección de errores durante la lectura de cualquier bloque de datos. Como resultado, cada vez que se lee uno de estos bloques de datos, se lee adicionalmente un máximo de 32 sectores de exceso de datos. La sobrecarga producida por el procesamiento de corrección de errores se evalúa como el tiempo total para leer el exceso de datos, es decir 32 sectores x 2048 bytes x 8 bits/byte x 2 instancias / tasa de lectura. Obsérvese que configurando cada bloque de datos en unidades de bloque de ECC, la sobrecarga provocada por el procesamiento de corrección de errores puede eliminarse del tiempo de transición de sector cero.
«Fichero de información de clip>>
5
10
15
20
25
30
35
40
45
50
55
60
La Figura 22 es un diagrama esquemático que muestra una estructura de datos de un primer fichero de información de clip (01000.clpi), es decir el fichero 231 de información de clip en 2D. El fichero de información de clip de vista dependiente (02000.clip) 232 y el fichero de información de clip (03000.clpi) 233 tienen la misma estructura de datos. A continuación, se describe la estructura de datos común a todos los ficheros de información de clip, usando en primer lugar la estructura de datos del fichero 231 de información de clip en 2D como un ejemplo. Posteriormente, se describen las diferencias en estructura de datos entre un fichero de información de clip en 2D y un fichero de información de clip de vista dependiente.
Como se muestra en la Figura 22, el fichero 231 de información de clip en 2D incluye información 2210 de clip, información 2220 de atributo de flujo, un mapa 2230 de entrada y metadatos 2240 en 3D. Los metadatos 2240 en 3D incluyen puntos 2242 de inicio de segmento.
La información 2210 de clip incluye una tasa 2211 de sistema, un tiempo 2212 de inicio de reproducción y un tiempo 2213 de fin de reproducción. La tasa 2211 de sistema especifica una tasa de sistema para el fichero en 2d (01000.m2ts) 241. El dispositivo 102 de reproducción en modo de reproducción en 2D transfiere paquetes de TS que pertenecen al fichero en 2D 241 desde la memoria intermedia de lectura al decodificador objetivo de sistema. La “tasa de sistema” se refiere al límite superior de la tasa de transferencia. El intervalo entre las ATS de los paquetes de origen en el fichero en 2D 241 se establece de modo que la velocidad de transferencia está limitada a la tasa de sistema o inferior. El tiempo 2212 de inicio de reproducción indica la PTS de la VAU localizada en la parte superior del fichero en 2D 241, por ejemplo la PTS del fotograma de vídeo superior. El tiempo 2212 de fin de reproducción indica el valor del STC retardado un tiempo predeterminado desde la PTS de la VAU localizada al final del fichero en 2D 241, por ejemplo la suma de la PTS del último fotograma de vídeo y el tiempo de reproducción de un fotograma.
La información 2220 de atributo de flujo es una tabla de correspondencia entre el PID 2221 para cada flujo elemental incluido en el fichero en 2D 241 y piezas de información 2222 de atributo. Cada pieza de información 2222 de atributo es diferente para un flujo de vídeo, flujo de audio, flujo de PG y flujo de IG. Por ejemplo, la información de atributo que corresponde al PID 0x1011 para el flujo de vídeo principal incluye un tipo de códec usado para la compresión del flujo de vídeo, así como una resolución, relación de aspecto y velocidad de fotograma para cada instantánea que constituye el flujo de vídeo. Por otra parte, la información de atributo que corresponde al PID 0x1100 para el flujo de audio principal incluye un tipo de códec usado para comprimir el flujo de audio, un número de canales incluido en el flujo de audio, idioma y frecuencia de muestreo. El dispositivo 102 de reproducción usa esta información 2222 de atributo para inicializar el decodificador.
[Mapa de entrada]
La Figura 23A es un diagrama esquemático que muestra una estructura de datos de un mapa 2230 de entrada. Como se muestra en la Figura 23A, el mapa 2230 de entrada incluye las tablas 2300. Existe el mismo número de tablas 2300 que el que hay de flujos de vídeo multiplexados en el TS principal, y las tablas se asignan una a una a cada flujo de vídeo. En la Figura 23A, cada tabla 2300 se distingue por el PID del flujo de vídeo al que está asignado. Cada tabla 2300 incluye un encabezamiento 2301 de mapa de entrada y un punto 2302 de entrada. El encabezamiento 2301 de mapa de entrada incluye el PID que corresponde a la tabla 2300 y el número total de puntos 2302 de entrada incluido en la tabla 2300. Un punto 2302 de entrada asocia cada par de una PTS 2303 y número de paquete de origen (SPN) 2304 con uno de los ID de puntos de entrada individualmente diferentes (EP_ID) 2305. La PTS 2303 es equivalente a la PTS para una de la instantánea que se incluye en el flujo de vídeo para el PID indicado por el encabezamiento 2301 de mapa de entrada. El SPN 2304 es equivalente al SPN para la parte superior del grupo de paquetes de origen almacenado en la correspondiente instantánea I. Un “SPN” se refiere al número de serie asignado de manera consecutiva desde la parte superior a un grupo de paquetes de origen que pertenecen a un fichero de flujo de AV. El SPN se usa como la dirección para cada paquete de origen en el fichero de flujo de AV. En el mapa 2230 de entrada en el fichero 231 de información de clip en 2D, el SPN se refiere al número asignado al grupo de paquetes de origen que pertenecen al fichero en 2D 241, es decir el grupo de paquetes de origen que constituyen el TS principal. Por consiguiente, el punto 2302 de entrada expresa la correspondencia entre la PTS y la dirección, es decir el SPN, de cada instantánea I incluida en el fichero en 2d 241.
Un punto 2302 de entrada no necesita establecerse para todas las instantáneas I en el fichero en 2D 241. Sin embargo, cuando una instantánea I está localizada en la parte superior de un GOP, y el paquete de TS que incluye la parte superior de esa instantánea I está localizado en la parte superior de un segmento de 2D, un punto 2302 de entrada ha de establecerse para esa instantánea I.
La Figura 23B es un diagrama esquemático que muestra paquetes de origen en un grupo 2310 de paquetes de origen que pertenecen a un fichero en 2D 241 que están asociados con cada EP_ID 2305 por el mapa 2230 de entrada. La Figura 23C es un diagrama esquemático que muestra un grupo de bloques de datos D[n], B[n] (n = 0, 1, 2, 3, ...) en un disco 101 BD-ROM que corresponde al grupo 2310 de paquetes de origen. Cuando el dispositivo 102 de reproducción reproduce imágenes de vídeo en 2D desde el fichero en 2D 241, hace referencia al mapa 2230 de entrada para especificar el SPN para el paquete de origen que incluye un fotograma que representa una escena arbitraria desde la PTS para ese fotograma. Específicamente, cuando por ejemplo se indica una PTS = 360000 como la PTS para un punto de entrada específico para la posición de inicio de reproducción, el dispositivo 102 de reproducción recupera en primer lugar el SPN = 3200 asignado a esta PTS en el mapa 2230 de entrada. A
5
10
15
20
25
30
35
40
45
50
55
60
continuación, el dispositivo 102 de reproducción busca el cociente SPNx192/2048, es decir el valor del SPN multiplicado por 192 bytes, la cantidad de datos por paquete de origen, y dividido por 2048 bytes, la cantidad de datos por sector. Como puede entenderse fácilmente a partir de las Figuras 5B y 5C, este valor es el mismo que el número total de sectores registrados en el TS principal antes del paquete de origen al que se asigna el SPN. En el ejemplo mostrado en la Figura 23B, este valor es 3200 x 192 / 2048 = 300, y es igual al número total de sectores en los que se registran los grupos 2311 de paquetes de origen desde el SPN 0 a 3199. A continuación, el dispositivo 102 de reproducción hace referencia a la entrada de fichero en el fichero en 2D 241 y especifica el LBN del sector de orden (número total + I), continuando desde la parte superior de los grupos de sectores en los que se registran los grupos de segmento en 2D. En el ejemplo mostrado en la Figura 23C, dentro de los grupos de sectores en los que se registran los bloques de datos de vista de base B[0], B[1], B[2], ... que pueden accederse como segmentos de 2D EXT2D[0], EXT2D[1], EXT2D[2], ..., se especifica el LBN del sector de orden 301 contando desde la parte superior. El dispositivo 102 de reproducción indica este LBN a la unidad 121 de BD-ROM. De esta manera, los grupos de bloques de datos de vista de base se leen como unidades alineadas en orden desde el sector para este LBN. Adicionalmente, desde la primera unidad alineada que se lee, el dispositivo 102 de reproducción selecciona el paquete de origen indicado por el punto de entrada para la posición de inicio de reproducción y a continuación extrae y decodifica una instantánea I. A partir de ahí, las instantáneas posteriores se decodifican en orden haciendo referencia a instantáneas ya decodificadas. De esta manera, el dispositivo 102 de reproducción puede reproducir imágenes de vídeo en 2D desde el fichero en 2D 241 desde una PTS especificada hacia delante.
Adicionalmente, el mapa 2230 de entrada es útil para procesamiento eficaz durante los modos de reproducción tales como avance rápido, retroceso, etc. Por ejemplo, el dispositivo 102 de reproducción en modo de reproducción en 2D hace referencia en primer lugar al mapa 2230 de entrada para leer los SPN empezando en la posición de inicio de reproducción, por ejemplo para leer el SPN = 3200, 4800, ... en orden desde los puntos de entrada EP_ID = 2, 3, ... que incluyen las PTS empezando en la PTS = 360000. A continuación, el dispositivo 102 de reproducción hace referencia a la entrada de fichero en el fichero en 2D 241 para especificar el LBN de los sectores que corresponden a cada SPN. El dispositivo 102 de reproducción a continuación indica cada LBN a la unidad 121 de BD-ROm. Las unidades alineadas por lo tanto se leen desde el sector para cada LBN. Adicionalmente, desde cada unidad alineada, el dispositivo 102 de reproducción selecciona el paquete de origen indicado por cada punto de entrada y a continuación extrae y decodifica una instantánea I. El dispositivo 102 de reproducción puede reproducir por lo tanto de manera selectiva una instantánea I desde el fichero en 2D 241 sin analizar el mismo grupo de segmento de 2D EXT2D[n].
[Punto de inicio de segmento]
La Figura 24A es un diagrama esquemático que muestra una estructura de datos de puntos 2242 de inicio de segmento. Como se muestra en la Figura 24A, un “punto de inicio de segmento” 2242 incluye los ID de segmento de vista base (EXT1_ID) 2411 y los SPN 2412. Los eXt1_ID 2411 son números de serie asignados consecutivamente desde la parte superior a los bloques de datos de vista de base que pertenecen al fichero SS (01000.ssif) 244A. Un SPN 2412 se asigna a cada EXT1_ID 2411 y es el mismo que el SPN para el paquete de origen localizado en la parte superior del bloque de datos de vista de base identificado por el EXT1_ID 2411. Este SPN es un número de serie asignado desde la parte superior a los paquetes de origen incluidos en el grupo de bloques de datos de vista de base que pertenecen al fichero SS 244A.
En los bloques 1901-1903 de segmento mostrados en la Figura 19, el fichero en 2D 241 y el fichero SS 244A comparten los bloques de datos de vista de base B[0], B[1], B[2], ... en común. Sin embargo, los grupos de bloques de datos colocados en localizaciones que requieren un salto largo, tal como en límites entre capas de registro, incluyen en general bloques de datos de vista de base que pertenecen a únicamente uno del fichero en 2D 241 o el fichero SS 244A (véase «explicación complementaria» para detalles). Por consiguiente, el SPN 2412 que indica el punto 2242 de inicio de segmento se diferencia en general del SPN para el paquete de origen localizado en la parte superior del segmento de 2D que pertenecen al fichero en 2D 241.
La Figura 24B es un diagrama esquemático que muestra una estructura de datos de puntos 2420 de inicio de segmento incluidos en un segundo fichero de información de clip (02000.clpi), es decir el fichero 232 de información de clip de vista dependiente. Como se muestra en la Figura 24B, el punto 2420 de inicio de segmento incluye los ID de segmento de vista dependiente (EXT2_ID) 2421 y los SPN 2422. Los EXT2_ID 2421 son números de serie asignados desde la parte superior a los bloques de datos de vista dependiente que pertenecen al fichero SS 244A. Un SPN 2422 se asigna a cada EXT2_ID 2421 y es el mismo que el SPN para el paquete de origen localizado en la parte superior del bloque de datos de vista dependiente identificado por el EXT2_ID 2421. Este SPN es un número de serie asignado en orden desde la parte superior a los paquetes de origen incluidos en el grupo de bloque de datos de vista dependiente que pertenecen al fichero SS 244a.
La Figura 24D es un diagrama esquemático que representa correspondencia entre segmentos de vista dependiente EXT2[0], EXT2[1], ... que pertenecen al fichero dEp (02000.m2ts) 242 y los SPN 2422 mostrados por los puntos 2420 de inicio de segmento. Como se muestra en la Figura 19, el fichero DEP 242 y el fichero SS 244A comparten bloques de datos de vista dependiente en común. Por consiguiente, como se muestra en la Figura 24D, cada SPN 2422 mostrado por los puntos 2420 de inicio de segmento es el mismo que el SPN para el paquete de origen localizado en la parte superior de cada segmento de vista dependiente EXT2[0], EXT2[1], ....
5
10
15
20
25
30
35
40
45
50
55
60
Como se describe a continuación, el punto 2242 de inicio de segmento en el fichero 231 de información de clip en 2D y el punto 2420 de inicio de segmento en el fichero 232 de información de clip de vista dependiente se usan para detectar el límite de bloques de datos incluidos en cada segmento SS durante la reproducción de imágenes de vídeo en 3D desde el fichero SS 244A.
La Figura 24E es un diagrama esquemático que muestra un ejemplo de correspondencia entre un segmento SS EXTSS[0] que pertenece al fichero SS 244A y un bloque de segmento en el disco 101 BD-ROM. Como se muestra en la Figura 24E, el bloque de segmento incluye los grupos de bloques de datos D[n] y B[n] (n = 0, 1,2, ...) en una disposición intercalada. Obsérvese que la siguiente descripción se cumple también para otras disposiciones. El bloque de segmento puede accederse como un único segmento SS EXTSS[0]. Adicionalmente, en el segmento SS EXTSS[0], el número de paquetes de origen incluidos en el bloque de datos de vista de base B[n] es, en el punto 2242 de inicio de segmento, el mismo que la diferencia A(n + 1)-An entre los SPN que corresponden a EXT1_ID = n + 1 y n. En este caso, A0 = 0. Por otra parte, el número de paquetes de origen incluidos en el bloque de datos de vista dependiente D[n + 1] es, en el punto 2420 de inicio de segmento, el mismo que la diferencia B(n + 1) - Bn entre los SPN que corresponden a EXT2_ID = n + 1 y n. En este caso, B0 = 0.
Cuando el dispositivo 102 de reproducción en un modo de reproducción en 3D reproduce imágenes de vídeo en 3D desde el fichero SS 244A, el dispositivo 102 de reproducción hace referencia a los mapas de entrada y los puntos 2242 y 2420 de inicio de segmento respectivamente hallados en los ficheros 231 y 232 de información de clip. Haciendo esto, el dispositivo 102 de reproducción especifica, desde la PTS para un fotograma que representa la vista derecha de una escena arbitraria, el LBN para el sector en el que se requiere un bloque de datos de vista dependiente como un constituyente del fotograma que se registra. Específicamente, el dispositivo 102 de reproducción, por ejemplo, recupera en primer lugar el SPN asociado con la PTS desde el mapa de entrada en el fichero 232 de información de clip de vista dependiente. Se asume que el paquete de origen indicado por el SPN se incluye en el tercer segmento de vista dependiente EXT2[2] en el primer fichero DEP 242, es decir el bloque de datos de vista dependiente D[2]. A continuación, el dispositivo 102 de reproducción recupera “B2”, el SPN más largo antes del SPN objetivo, de entre los SPN 2422 mostrados por los puntos 2420 de inicio de segmento en el fichero 232 de información de clip de vista dependiente. El dispositivo 102 de reproducción también recupera el correspondiente EXT2_ID “2”. A continuación el dispositivo 102 de reproducción recupera el valor “A2” para el SPN 2412 que corresponde al EXT1_ID, que es el mismo que el EXT2_ID “2”, desde los puntos 2242 de inicio de segmento en el fichero 231 de información de clip en 2D. El dispositivo 102 de reproducción busca adicionalmente la suma B2 + A2 de los SPN recuperados. Como puede observarse a partir de la Figura 24E, esta suma B2 + A2 es el misma que el número total de paquetes de origen incluidos en los bloques de datos localizados antes del tercer bloque de datos de vista dependiente D[2] entre los bloques de datos incluidos en el segmento SS EXTSS[0]. Por consiguiente, esta suma B2 + A2 multiplicada por 192 bytes, la cantidad de datos por paquete de origen, y dividido por 2048 bytes, la cantidad de datos por sector, es decir (B2+A2)x 192/2048, es la misma que el número de sectores desde la parte superior del segmento SS EXTSS[0] hasta inmediatamente antes del tercer bloque de datos de vista dependiente D[2]. Usando este cociente, el LBN para el sector en el que se registra la parte superior del bloque de datos de vista dependiente D[2] puede especificarse haciendo referencia a la entrada de fichero para el fichero SS 244A.
Después de especificar el LBN mediante el procedimiento anteriormente descrito, el dispositivo 102 de reproducción indica el LBN a la unidad 121 de BD-ROM. De esta manera, la porción del segmento SS EXTSS[0] registrado iniciando con el sector para este LBN, es decir el grupo de bloques de datos D[2], B[2], D[3], B[3], ... iniciado desde el tercer bloque de datos de vista dependiente D[2], se lee como unidades alineadas.
El dispositivo 102 de reproducción hace referencia adicionalmente a los puntos 2242 y 2420 de inicio de segmento para extraer bloques de datos de vista dependiente y bloques de datos de vista de base de manera alterna desde los segmentos leídos SS. Por ejemplo, suponiendo que el grupo de bloques de datos D[n], B[n] (n = 0, 1,2, ...) se lee en orden desde el segmento sS eXtSS[0] mostrado en la Figura 24E. El dispositivo 102 de reproducción extrae en primer lugar B1 paquetes de origen desde la parte superior del segmento SS EXTSS[0] como el bloque de datos de vista dependiente D[0]. A continuación, el dispositivo 102 de reproducción extrae el paquete de origen de orden B1 y los posteriores (A I - 1) paquetes de origen, un total de A1 paquetes de origen, como el primer bloque de datos de vista de base B[0]. El dispositivo 102 de reproducción a continuación extrae el paquete de origen de orden (B1 + A1) y los posteriores (B2 - B1 -1) paquetes de origen, un total de (B2 - B1) paquetes de origen, como el segundo bloque de datos de vista dependiente D[1]. El dispositivo 102 de reproducción extrae adicionalmente el paquete de origen de orden (A1 + B2) y los posteriores (A2 - A1 -1) paquetes de origen, un total de (A2 - A I) paquetes de origen, como el segundo bloque de datos de vista de base B[1]. Posteriormente, el dispositivo 102 de reproducción continúa por lo tanto para detectar el límite entre los bloques de datos en el segmento Ss basándose en el número de paquetes de origen leídos, extrayendo de esta manera de manera alterna bloques de datos de vista dependiente y de vista de base. Los bloques de datos de vista de base y de vista dependiente extraídos se transmiten al decodificador objetivo de sistema a decodificar en paralelo.
De esta manera, el dispositivo 102 de reproducción en un modo de reproducción en 3D puede reproducir imágenes de vídeo en 3D desde el fichero SS 244A iniciando en una PTS específica. Como resultado, el dispositivo 102 de reproducción puede de hecho beneficiarse de las ventajas anteriormente descritas (A) y (B) con respecto al control de la unidad 121 de BD-ROM.
5
10
15
20
25
30
35
40
45
50
55
60
«Fichero base>>
La Figura 24C es un diagrama esquemático que representa los bloques de datos de vista de base B[0], B[1], B[2], ... extraídos desde el fichero SS 244A por el dispositivo 102 de reproducción en un modo de reproducción en 3D. Como se muestra en la Figura 24C, cuando se asignan SPN en orden desde la parte superior a un grupo de paquetes de origen incluidos en el bloque de datos de vista de base B[n] (n = 0, 1, 2, ...), el SPN del paquete de origen localizado en la parte superior del bloque de datos B[n] es igual al SPN 2412 que indica el punto 2242 de inicio de segmento. El grupo de bloques de datos de vista de base extraídos desde un único fichero SS que hace referencia a puntos de inicio de segmento, como el grupo de bloques de datos de vista de base B[n], se denomina como un “fichero base”. Adicionalmente, los bloques de datos de vista de base incluidos en una base de fichero se denominan como “segmentos de vista de base”. Como se muestra en la Figura 24E, cada segmento de vista base EXT1[0], EXT1[1] ... se hace referencia mediante un punto 2242 o 2420 de inicio de segmento en un fichero de información de clip.
Un segmento de vista de base EXT1[n] comparte el mismo bloque de datos de vista de base B[n] con un segmento de 2D EXT2D[n]. Por consiguiente, el fichero base incluye el mismo TS principal que el fichero en 2D. A diferencia del segmento de 2D EXT2D[n], sin embargo, el segmento de vista de base EXT1[n] no se hace referencia por ninguna entrada de fichero. Como se ha descrito anteriormente, el segmento de vista de base EXT1[n] se extrae desde el segmento SS EXTSS [■] en el fichero SS con uso del punto de inicio de segmento en el fichero de información de clip. El fichero base por lo tanto se diferencia de un fichero convencional no incluyendo una entrada de fichero y necesitando un punto de inicio de segmento como una referencia para un segmento de vista de base. En este sentido, el fichero base es un “fichero virtual”. En particular, el fichero base no se reconoce por el sistema de ficheros y no aparece en la estructura de directorio/fichero mostrada en la Figura 2.
La Figura 25 es un diagrama esquemático que muestra correspondencia entre un único bloque 2500 de segmento registrado en el disco 101 BD-ROM y cada uno de los grupos de bloques de segmento en un fichero en 2D 2510, fichero base 2511, fichero DEP 2512 y fichero SS 2520. Como se muestra en la Figura 25, el bloque 2500 de segmento incluye los bloques de datos de vista dependiente D[n] y los bloques de datos de vista de base B[n] (n = ..., 0, 1, 2, 3, ...). El bloque de datos de vista de base B[n] pertenece al fichero en 2D 2510 como el segmento de 2D EXT2D[n]. El bloque de datos de vista dependiente D[n] pertenece al fichero DEP 2512 como el segmento de vista dependiente EXT2[n]. La totalidad del bloque 2500 de segmento pertenece al fichero SS 2520 como un segmento SS EXTSS[0]. Por consiguiente, el segmento SS EXTSS[0] comparte el bloque de datos de vista de base B[n] en común con el segmento de 2D EXT2D[n] y comparte el bloque de datos de vista dependiente D[n] con el segmento de vista dependiente EXT2[n]. Después de leerse en el dispositivo 102 de reproducción, el segmento SS EXTSS[0] se separa en el bloque de datos de vista dependiente D[n] y el bloque de datos de vista de base B[n]. Estos bloques de datos de vista de base B[n] pertenecen al fichero base 2511 como los segmentos de vista de base EXT1[n]. Él límite en el segmento SS EXTSs [0] entre el segmento de vista de base EXT1[n] y el segmento de vista dependiente EXT2[n] se especifica con uso del punto de inicio de segmento en el fichero de información de clip que corresponde a cada uno del fichero en 2D 2510 y del fichero DEP 2512.
«Fichero de información de clip de vista dependiente»
El fichero de información de clip de vista dependiente tiene la misma estructura de datos que el fichero de información de clip en 2D mostrado en las Figuras 22-24. Por consiguiente, la siguiente descripción cubre las diferencias entre el fichero de información de clip de vista dependiente y el fichero de información de clip en 2D. Detalles sobre las similitudes pueden hallarse en la descripción anterior.
Un fichero de información de clip de vista dependiente se diferencia de un fichero de información de clip en 2D principalmente en los siguientes dos puntos: (i) se ponen condiciones en la información de atributo de flujo, y (ii) se ponen condiciones en los puntos de entrada.
(i) Cuando el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente se han de usar para reproducción de imágenes de vídeo en 3D por el dispositivo 102 de reproducción en modo L/R, como se muestra en la Figura 7, el flujo de vídeo de vista dependiente se comprime usando el flujo de vídeo de vista de base. En este punto, los atributos de flujo de vídeo del flujo de vídeo de vista dependiente se hacen equivalentes al flujo de vídeo de vista de base. La información de atributo de flujo de vídeo para el flujo de vídeo de vista de base está asociada con el PID = 0x1011 en la información 2220 de atributo de flujo en el fichero de información de clip en 2D. Por otra parte, la información de atributo de flujo de vídeo para el flujo de vídeo de vista dependiente está asociada con el PID = 0x1012 o 0x1013 en la información de atributo de flujo en el fichero de información de clip de vista dependiente. Por consiguiente, los elementos mostrados en la Figura 22, es decir el códec, resolución, relación de aspecto y velocidad de fotograma, tienen que coincidir entre estas dos piezas de información de atributo de flujo de vídeo. Si el tipo de códec coincide, entonces se establece una relación de referencia entre las instantáneas en el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente durante la codificación, y por lo tanto cada instantánea puede decodificarse. Si la resolución, relación de aspecto, y la velocidad de fotograma todas coinciden, entonces la visualización en pantalla de los vídeos izquierdo y derecho puede sincronizarse. Por lo tanto, estos vídeos pueden mostrarse como imágenes de vídeo en 3D sin hacer que el observador se sienta incómodo.
5
10
15
20
25
30
35
40
45
50
55
60
(ii) El mapa de entrada en el fichero de información de clip de vista dependiente incluye una tabla asignada al flujo de vídeo de vista dependiente. Como la tabla 2300 mostrada en la Figura 23A, esta tabla incluye un encabezamiento de mapa de entrada y puntos de entrada. El encabezamiento de mapa de entrada indica el PID para el flujo de vídeo de vista dependiente asignado a la tabla, es decir cualquiera de 0x1012 o 0x1013. En cada punto de entrada, un par de una PTS y un SPN están asociados con un único EP_ID. La PTS para cada punto de entrada es la misma que la PTS para la instantánea superior en uno de los GOP incluidos en el flujo de vídeo de vista dependiente. El SPN para cada punto de entrada es el mismo que el SPN superior del grupo de paquetes de origen almacenado en la instantánea indicado por la PTS que pertenece al mismo punto de entrada. Este SPN se refiere a un número de serie asignado consecutivamente desde la parte superior al grupo de paquetes de origen que pertenecen al fichero DEP, es decir el grupo de paquetes de origen que constituyen el sub-TS. La PTS para cada punto de entrada tiene que coincidir con la PTS, en el mapa de entrada en el fichero de información de clip en 2D, para el punto de entrada en la tabla asignada al flujo de vídeo de vista de base. En otras palabras, cada vez que se establece un punto de entrada en la parte superior de un grupo de paquetes de origen que incluye una de un conjunto de instantáneas incluidas en la misma VAU en 3D, un punto de entrada siempre tiene que establecerse en la parte superior del grupo de paquetes de origen que incluye la otra instantánea.
La Figura 26 es un diagrama esquemático que muestra un ejemplo de puntos de entrada establecidos en un flujo 2610 de vídeo de vista de base y un flujo 2620 de vídeo de vista dependiente. En los dos flujos 2610 y 2620 de vídeo, los GOP que son el mismo número desde el vídeo de representación superior para el mismo periodo de reproducción. Como se muestra en la Figura 26, en el flujo 2610 de vídeo de vista de base, los puntos 2601B, 2603B y 2605B de entrada se establecen en la parte superior de los GOP con número impar según se cuentan desde la parte superior, es decir el GOP n.° 1, GOP n.° 3 y GOP n.° 5. Por consiguiente, en el flujo 2620 de vídeo de vista dependiente así como, los puntos 2601D, 2603D y 2605D de entrada se establecen en la parte superior de los GOP con número impar según se cuentan desde la parte superior, es decir el GOP n.° 1, GOP n.° 3 y GOP n.° 5. En este caso, cuando el dispositivo 102 de reproducción comienza la reproducción de imágenes de vídeo en 3D desde el GOP n.° 3, por ejemplo, puede calcular inmediatamente la dirección de la posición de inicio de reproducción en el fichero SS desde el SPN de los correspondientes puntos 2603B y 2603D de entrada. En particular, cuando ambos puntos 2603B y 2603D de entrada se establecen en la parte superior de un bloque de datos, entonces puede entenderse a partir de la Figura 24E, la suma de los SPN de los puntos 2603B y 2603D de entrada equivale al SPN de la posición de inicio de reproducción dentro el fichero SS. Según se describe con referencia a la Figura 24E, a partir de este número de paquetes de origen, es posible calcular el LBN del sector sobre el que se registra la parte del fichero SS para la posición de inicio de reproducción. De esta manera, incluso durante la reproducción de imágenes de vídeo en 3D, es posible mejorar la velocidad de respuesta para procesamiento que requiere el acceso aleatorio al flujo de vídeo, tal como la reproducción interrumpida o similar.
«Fichero de lista de reproducción en 2D>>
La Figura 27 es un diagrama esquemático que muestra una estructura de datos de un fichero de lista de reproducción en 2D. El primer fichero de lista de reproducción (00001.mpls) 221 mostrado en la Figura 2 tiene esta estructura de datos. Como se muestra en la Figura 27, el fichero 221 de lista de reproducción en 2D incluye una ruta 2701 principal y dos sub-rutas 2702 y 2703.
La ruta 2701 principal es una secuencia de piezas de información de elemento de reproducción (PI) que define la ruta de reproducción principal para el fichero en 2D 241, es decir la sección para reproducción y el orden de reproducción de la sección. Cada PI se identifica con un único ID de elemento de reproducción = n.° N (N = 1,2, 3, ...). Cada PI n.° N define una sección de reproducción diferente junto con la ruta de reproducción principal con un par de PTS. Una de la PTS en el par representa el tiempo de inicio (tiempo de entrada) de la sección de reproducción, y la otra representa el tiempo de finalización (tiempo de salida). Adicionalmente, el orden de las PI en la ruta 2701 principal representa el orden de secciones de reproducción correspondientes en la ruta de reproducción.
Cada una de las sub-rutas 2702 y 2703 es una secuencia de piezas de información de sub-elemento de reproducción (SUB_PI) que define una ruta de reproducción que puede asociarse en paralelo con la ruta de reproducción principal para el fichero en 2D 241. Una ruta de reproducción de este tipo es una sección diferente del fichero en 2D 241 que se representa por la ruta 2701 principal, o es una sección de los datos de flujo multiplexados en otro fichero en 2D, junto con el correspondiente orden de reproducción. La ruta de reproducción puede indicar también datos de flujo multiplexados en un fichero en 2D diferente que el fichero en 2D 241 como una sección para reproducción, junto con el correspondiente orden de reproducción. Los datos de flujo indicados por la ruta de reproducción representan otras imágenes de vídeo en 2D a reproducirse de manera simultánea con imágenes de vídeo en 2D reproducidas desde el fichero en 2D 241 de acuerdo con la ruta 2701 principal. Estas otras imágenes de vídeo en 2D incluyen, por ejemplo, sub-vídeo en un formato de imagen superpuesta, una ventana de explorador, un menú emergente o subtítulos. Los números de serie “0” y “1” se asignan a las sub-rutas 2702 y 2703 en el orden de registro en el fichero 221 de lista de reproducción en 2D. Estos números de serie se usan como los ID de subruta para identificar las sub-rutas 2702 y 2703. En las sub-rutas 2702 y 2703, cada SUB_PI se identifica por un ID de sub-elemento de reproducción único = n.° M (M = 1, 2, 3, ...). Cada SUB_PI n.° M define una sección de reproducción diferente junto con la ruta de reproducción con un par de PTS. Una de las PTS en el par representa el tiempo de inicio de reproducción de la sección de reproducción, y la otra representa el tiempo de final de
5
10
15
20
25
30
35
40
45
50
55
60
reproducción. Adicionalmente, el orden de los SUB_PI en las sub-rutas 2702 y 2703 representa el orden de secciones de reproducción correspondientes en la ruta de reproducción.
La Figura 28 es un diagrama esquemático que muestra una estructura de datos de PI n.° N. Como se muestra en la Figura 28, una PI n.° N incluye una pieza de información 2801 de clip de referencia, tiempo de inicio de reproducción (In_Time) 2802, tiempo de fin de reproducción (Out_Time) 2803, condición 2804 de conexión y tabla de selección de flujo (en lo sucesivo denominada como “tabla de STN” (tabla de número de flujo)) 2805. La información 2801 de clip de referencia es información para identificar el fichero 231 de información de clip en 2D. El tiempo 2802 de inicio de reproducción y tiempo 2803 de fin de reproducción respectivamente indican las PTS para el comienzo y el fin de la sección para reproducción del fichero en 2D 241. La condición 2804 de conexión especifica una condición para conectar vídeo en la sección de reproducción especificada por un tiempo 2802 de inicio de reproducción y un tiempo 2803 de fin de reproducción al vídeo en la sección de reproducción especificado por la PI n.° (N -1) anterior. La tabla 2805 de STN es una lista de flujos elementales que puede seleccionarse desde el fichero en 2D 241 por el decodificador en el dispositivo 102 de reproducción desde el tiempo 2802 de inicio de reproducción hasta el tiempo 2803 de final de reproducción.
La estructura de datos de un SUB_PI es la misma que la estructura de datos de la PI mostrada en la Figura 28 hasta ahora ya que incluye información de clip de referencia, un tiempo de inicio de reproducción y un tiempo de fin de reproducción. En particular, el tiempo de inicio de reproducción y el tiempo de fin de reproducción de un SUB_PI se expresan como valores a lo largo del mismo eje temporal como una PI. El SUB_PI incluye adicionalmente un campo de “condición de conexión de SP”. La condición de conexión de SP tiene el mismo significado que una condición de conexión de PI.
[Condición de conexión]
La condición de conexión (en lo sucesivo abreviada como “CC”) 2804 puede asignarse por ejemplo tres tipos de valores, “1”, “5” y “6”. Cuando la CC 2804 es “1”, el vídeo a reproducirse desde la sección del fichero en 2d 241 especificado por la PI n.° N no necesita estar conectado de manera ininterrumpida al vídeo reproducido desde la sección del fichero en 2D 241 especificado por la PI n.° (N - 1) inmediatamente posterior. Por otra parte, cuando la CC 2804 indica “5” o “6”, ambas imágenes de vídeo necesitan estar conectadas de manera ininterrumpida.
Las Figuras 29A y 29B son diagramas esquemáticos que muestran correspondencia entre dos secciones 2901 y 2902 de reproducción que han de conectarse cuando la CC es “5” o “6”. En este caso, la PI n.° (N -1) especifica una primera sección 2901 en el fichero en 2D 241, y la PI n.° N especifica una segunda sección 2902 en el fichero en 2D 241. Como se muestra en la Figura 29A, cuando la CC indica “5”, los STC de las dos PI, PI n.° (N - 1) y PI n.° N, pueden ser no consecutivos. Es decir, la PTS n.° 1 al final de la primera sección 2901 y la PTS n.° 2 en la parte superior de la segunda sección 2902 pueden ser no consecutivas. Sin embargo, varias condiciones de restricción necesitan satisfacerse. Por ejemplo, la primera sección 2901 y la segunda sección 2902 necesitan crearse de modo que el decodificador pueda continuar decodificando de manera suave datos incluso cuando se le suministra la segunda sección 2902 al decodificador de manera consecutiva después de la primera sección 2901. Adicionalmente, el último fotograma del flujo de audio contenido en la primera sección 2901 necesita solapar el fotograma superior del flujo de audio contenido en la segunda sección 2902. Por otra parte, como se muestra en la Figura 29B, cuando la CC indica “6”, la primera sección 2901 y la segunda sección 2902 necesitan poder manejarse como secciones sucesivas para el decodificador para la debida decodificación. Es decir, los STC y ATC necesitan estar contiguos entre la primera sección 2901 y la segunda sección 2902. De manera similar, cuando la condición de conexión de SP es “5” o “6”, los STC y ATC ambos necesitan estar contiguos entre las secciones del fichero en 2D especificadas por dos SUB_PI contiguos.
[Tabla de STN]
Haciendo referencia de nuevo a la Figura 28, la tabla 2805 de STN es un conjunto de la información de registro de flujo. “Información de registro de flujo” es información que enumera individualmente los flujos elementales que pueden seleccionarse para reproducción desde el TS principal entre el tiempo 2802 de inicio de reproducción y tiempo 2803 de fin de reproducción. El número de flujo (STN) 2806 es un número de serie asignado individualmente a la información de registro de flujo y se usa por el dispositivo 102 de reproducción para identificar cada flujo elemental. El STN 2806 indica adicionalmente prioridad para la selección entre flujos elementales del mismo tipo. La información de registro de flujo incluye una entrada 2809 de flujo e información 2810 de atributo de flujo. La entrada 2809 de flujo incluye información 2807 de trayectoria de flujo e información 2808 de identificación de flujo. La información 2807 de ruta de flujo es información que indica el fichero en 2D al que pertenece el flujo elemental seleccionado. Por ejemplo, si la información 2807 de ruta de flujo indica “ruta principal”, el fichero en 2D corresponde al fichero de información de clip en 2D indicado que es información 2801 de clip de referencia. Por otra parte, si la información 2807 de ruta de flujo indica el “ID de sub-ruta = 1”, el fichero en 2D al que pertenece el flujo elemental seleccionado corresponde al fichero de información de clip en 2D indicado por la información de clip de referencia del SUB_PI incluido en la sub-ruta con un ID de sub-ruta = 1. El tiempo de inicio de reproducción y tiempo de fin de reproducción especificados por este SUB_PI están ambos incluidos en el intervalo desde el tiempo 2802 de inicio de reproducción hasta el tiempo 2803 de final de reproducción especificado por la PI incluida en la tabla 2805 de STN. La información 2808 de identificación de flujo indica el PID para el flujo elemental multiplexado en el fichero en 2D
5
10
15
20
25
30
35
40
45
50
55
especificado por la información 2807 de ruta de flujo. El flujo elemental indicado por este PID puede seleccionarse desde el tiempo 2802 de inicio de reproducción hasta el tiempo 2803 de final de reproducción. La información 2810 de atributo de flujo indica información de atributo para cada flujo elemental. Por ejemplo, la información de atributo para cada uno de un flujo de audio, flujo de PG y flujo de IG indica un tipo de idioma del flujo.
[Reproducción de imágenes de vídeo en 2D de acuerdo con un fichero de lista de reproducción en 2D]
La Figura 30 es un diagrama esquemático que muestra la correspondencia entre las PTS indicada por el fichero de lista de reproducción en 2D (00001.mpls) 221 y las secciones reproducidas desde el fichero en 2D (01000.m2ts) 241. Como se muestra en la Figura 30, en la ruta 2701 principal en el fichero 221 de lista de reproducción en 2D, la PI n.° 1 especifica una PTS n.° 1, que indica un tiempo de inicio de reproducción IN1, y una PTS n.° 2, que indica un tiempo de fin de reproducción OUT1. La información de clip de referencia para la PI n.° 1 indica el fichero de información de clip en 2D (01000.clpi) 231. Cuando se reproducen imágenes de vídeo en 2D de acuerdo con el fichero 221 de lista de reproducción en 2D, el dispositivo 102 de reproducción lee en primer lugar la PTS n.° 1 y la PTS n.° 2 desde la PI n.° 1. A continuación, el dispositivo 102 de reproducción hace referencia al mapa de entrada en el fichero 231 de información de clip en 2D para recuperar desde el fichero en 2D 241 el SPN n.° 1 y el SPN n.° 2 que corresponden a la PTS n.° 1 y la PTS n.° 2. El dispositivo 102 de reproducción a continuación calcula los correspondientes números de sectores desde el SPN n.° 1 y el SPN n.° 2. Adicionalmente, el dispositivo 102 de reproducción hace referencia a estos números de sectores y a la entrada de fichero para el fichero en 2D 241 para especificar el LBN n.° 1 y el LBN n.° 2 en el comienzo y final, respectivamente, del grupo de sectores P1 sobre los que se registra el grupo de segmentos en 2D EXT2D[0], ..., EXT2D[n] a reproducirse. El cálculo de los números de sectores y la especificación de los LBN se encuentran de conformidad con la descripción sobre las Figuras 23B y 23C. Finalmente, el dispositivo 102 de reproducción indica el intervalo desde LBN n.° 1 al LBN n.° 2 a la unidad 121 de BD-ROM. El grupo de paquetes de origen que pertenecen al grupo de segmentos en 2D EXT2D[0], ..., EXT2D[n] se lee por lo tanto desde el grupo de sectores P1 en este intervalo. De manera similar, el par PTS n.° 3 y PTS n.° 4 indicado por la PI n.° 2 se convierte en primer lugar en un par de SPN n.° 3 y SPN n.° 4 haciendo referencia al mapa de entrada en el fichero 231 de información de clip en 2D. A continuación, haciendo referencia a la entrada de fichero para el fichero en 2D 241, el par de SPN n.° 3 y SPN n.° 4 se convierte en un par de LBN n.° 3 y LBN n.° 4. Adicionalmente, un grupo de paquetes de origen que pertenece al grupo de segmentos en 2D se lee desde el grupo de sectores P2 en un rango desde el LBN n.° 3 al LBN n.° 4. La conversión de un par de PTS n.° 5 y PTS n.° 6 indicada por la PI n.° 3 a un par de SPN n.° 5 y SPN n.° 6, la conversión del par de SPN n.° 5 y SPN n.° 6 a un par de LBN n.° 5 y LBN n.° 6, y la lectura de un grupo de paquetes de origen desde el grupo de sectores P3 en un rango desde el LBN n.° 5 al LBN n.° 6 se realizan de manera similar. El dispositivo 102 de reproducción reproduce por lo tanto imágenes de vídeo en 2D desde el fichero en 2D 241 de acuerdo con la ruta 2701 principal en el fichero 221 de lista de reproducción en 2D.
El fichero 221 de lista de reproducción en 2D puede incluir una marca 3001 de entrada. La marca 3001 de entrada indica un punto temporal en la ruta 2701 principal en el que la reproducción va a iniciar realmente. Por ejemplo, como se muestra en la Figura 30, una pluralidad de marcas 3001 de entrada puede establecerse para la PI n.° 1. La marca 3001 de entrada se usa particularmente para buscar una posición de inicio de reproducción durante acceso aleatorio. Por ejemplo, cuando el fichero 221 de lista de reproducción en 2D especifica una ruta de reproducción para un título de película, las marcas 3001 de entrada se asignan a la parte superior de cada capítulo. En consecuencia, el dispositivo 102 de reproducción puede reproducir el título de película por capítulos.
«Fichero de lista de reproducción en 3D>>
La Figura 31 es un diagrama esquemático que muestra una estructura de datos de un fichero de lista de reproducción en 3D. El segundo fichero de lista de reproducción (00002.mpls) 222 mostrado en la Figura 2 tiene esta estructura de datos, como la del tercer fichero de lista de reproducción (00003.mpls) 223. Como se muestra en la Figura 31, el fichero 222 de lista de reproducción en 3D incluye una ruta 3101 principal, sub-ruta 3102 y datos 3103 de extensión.
La ruta 3101 principal especifica la ruta de reproducción del TS principal mostrada en la Figura 3A. Por consiguiente, la ruta 3101 principal es sustancialmente la misma que la ruta 2701 principal para el fichero 221 de lista de reproducción en 2D mostrado en la Figura 27. En otras palabras, el dispositivo 102 de reproducción en modo de reproducción en 2D puede reproducir imágenes de vídeo en 2D desde el fichero en 2D 241 de acuerdo con la ruta 3101 principal en el fichero 222 de lista de reproducción en 3D. La ruta 3101 principal se diferencia de la ruta 2701 principal mostrada en la Figura 27 en que, cuando un STN está asociado con un PID en un flujo de gráficos, la tabla de STN para cada PI asigna un ID de secuencia de compensación al STN.
La sub-ruta 3102 especifica la ruta de reproducción para el sub-TS mostrado en la Figura 3B, es decir la ruta de reproducción para el fichero DEP 242 o 243. La estructura de datos de la sub-ruta 3102 es el misma que la estructura de datos de las sub-rutas 2702 y 2703 en el fichero de lista de reproducción en 2D 241 mostrado en la Figura 27. Por consiguiente, los detalles de esta estructura de datos similar pueden hallarse en la descripción en la Figura 27, en particular los detalles de la estructura de datos del SUB_PI.
Los SUB_PI n.° N (N = 1, 2, 3, ...) en la sub-ruta 3102 están en una correspondencia uno a uno con la PI n.° N en la
5
10
15
20
25
30
35
40
45
50
55
ruta 3101 principal. Adicionalmente, el tiempo de inicio de reproducción y tiempo de fin de reproducción especificados por cada SUB_PI n.° N es el mismo que el tiempo de inicio de reproducción y tiempo de fin de reproducción especificados por la correspondiente PI n.° N. La sub-ruta 3102 incluye adicionalmente un tipo 3110 de sub-ruta. El “tipo de sub-ruta” generalmente indica si el procesamiento de reproducción debería sincronizarse entre la ruta principal y la sub-ruta. En el fichero 222 de lista de reproducción en 3D, el tipo 3110 de sub-ruta en particular indica el tipo del modo de reproducción en 3D, es decir el tipo del flujo de vídeo de vista dependiente a reproducirse de acuerdo con la sub-ruta 3102. En la Figura 31, el valor del tipo 3110 de sub-ruta es “3D L/R”, indicando por lo tanto que el modo de reproducción en 3D es el modo L/R, es decir que el flujo de vídeo de la vista derecha se ha de reproducir. Por otra parte, un valor de “profundidad en 3D” para el tipo 3110 de sub-ruta indica que el modo de reproducción en 3D es el modo de profundidad, es decir que el flujo de mapa de profundidad se ha de reproducir. Cuando el dispositivo 102 de reproducción en un modo de reproducción en 3d detecta que el valor del tipo 3110 de sub-ruta es “3d L/R” o “profundidad en 3D”, el dispositivo 102 de reproducción sincroniza el procesamiento de reproducción que se ajusta a la ruta 3101 principal con el procesamiento de reproducción que se ajusta a la sub-ruta 3102.
Los datos 3103 de extensión se interpretan únicamente por el dispositivo 102 de reproducción en un modo de reproducción en 3D; el dispositivo 102 de reproducción en modo de reproducción en 2D ignora los datos 3103 de extensión. En particular, los datos 3103 de extensión incluyen una tabla 3130 de selección de flujo de extensión. La “tabla de selección de flujo de extensión (STN_table_SS)” (en lo sucesivo abreviado como “tabla de STN SS”) es un conjunto de la información de registro de flujo a añadirse a las tablas de STN indicado por cada PI en la ruta 3101 principal durante el modo de reproducción en 3D. Esta información de registro de flujo indica flujos elementales que pueden seleccionarse para reproducción desde el sub TS.
[Tabla de STN]
La Figura 32 es un diagrama esquemático que muestra una tabla 3205 de STN incluida en una ruta 3101 principal del fichero 222 de lista de reproducción en 3D. Como se muestra en la Figura 32, la información 3208 de identificación de flujo asignada al STN 3206 = 5, 6, ..., 11 indica los PID para un flujo de PG o flujo de IG. En este caso, la información 3210 de atributo de flujo asignada al STN 3206 = 5, 6, ..., 11 incluye adicionalmente un ID 3201 de compensación de referencia y valor 3202 de ajuste de compensación.
En el fichero DEP 242, como se muestra en la Figura 11, los metadatos 1110 de compensación se ponen en la VAU n.° 1 de cada secuencia de vídeo. El ID de compensación de referencia (stream_ref_offset_id) 3201 es el mismo que uno de los ID 1111 de secuencia de compensación incluidos en los metadatos 1110 de compensación. En otras palabras, el ID 3201 de desplazamiento de referencia define la secuencia de compensación que debería asociarse con cada uno de los STN 3206 = 5, 6, ..., 11 de entre la pluralidad de secuencias de compensación incluidas en los metadatos 1110 de compensación.
El valor de ajuste de compensación (stream_offset_adjustment) 3202 indica el valor que debería añadirse a cada valor de compensación incluido en la secuencia de compensación definida por el ID 3201 de desplazamiento de referencia. El valor 3202 de ajuste de compensación se añade, por ejemplo, por el dispositivo 102 de reproducción a cada valor de compensación cuando el tamaño de la pantalla del dispositivo 103 de visualización se diferencia del tamaño que se supone durante la creación del contenido de vídeo en 3D. De esta manera, la paralaje binocular entre imágenes de gráficos en 2D para una vista izquierda y una vista derecha puede mantenerse en un intervalo apropiado.
[Tabla de STN SS]
La Figura 33 es un diagrama esquemático que muestra una estructura de datos de la tabla de STN SS 3130. Como se muestra en la Figura 33, una tabla de sTn SS 3130 incluye secuencias 3301, 3302, 3303, ... de información de registro de flujo. Las secuencias 3301, 3302, 3303, ..., de información de registro de flujo corresponden individualmente a la PI n.° 1, PI n.° 2, PI n.° 3, ... en la ruta 3101 principal y se usan por el dispositivo 102 de reproducción en un modo de reproducción en 3D en combinación con las secuencias de información de registro de flujo incluidas en las tablas de STN en los correspondientes PI. La secuencia 3301 de información de registro de flujo que corresponde a cada PI incluye una compensación durante la ventana emergente (Fixed_offset_during_Popup) 3311 y la secuencia 3312 de información de registro de flujo para los flujos de vídeo de vista dependiente.
La compensación durante el elemento emergente 3311 indica si un menú emergente se reproduce desde el flujo de IG. El dispositivo 102 de reproducción en un modo de reproducción en 3D cambia el modo de presentación del plano de vídeo y el plano de gráficos de acuerdo con el valor de la compensación 3311. Hay dos tipos de modos de presentación para el plano de vídeo: modo de presentación de vista de base (B) - vista dependiente (D) y modo de presentación B-B. Hay dos tipos de modos de presentación para el plano de gráficos: modo de 1 plano + compensación y modo de 1 plano + compensación cero. Por ejemplo, cuando el valor del desplazamiento durante el elemento emergente 3311 es “0”, un menú emergente no se reproduce desde el flujo de IG. En este punto, se selecciona el modo de presentación B-D como el modo de presentación de plano de vídeo, y se selecciona el modo de 1 plano + compensación como el modo de presentación para el plano de gráficos. Por otra parte, cuando el valor
5
10
15
20
25
30
35
40
45
50
55
60
del desplazamiento durante el elemento emergente 3311 es “1”, un menú emergente se reproduce desde el flujo de IG. En este punto, se selecciona el modo de presentación B-B como el modo de presentación de plano de vídeo, y se selecciona el modo de 1 plano + compensación cero como el modo de presentación para el plano de gráficos.
En el “modo de presentación B-D”, el dispositivo 102 de reproducción emite de manera alterna el plano de vídeo de la vista izquierda y de la vista derecha. Por consiguiente, puesto que los fotogramas de la vista izquierda y la vista derecha se visualizan de manera alterna en la pantalla del dispositivo 103 de visualización, el observador percibe estos fotogramas como imágenes de vídeo en 3D. En el “modo de presentación B-B”, el dispositivo 102 de reproducción emite datos de plano decodificados únicamente desde el flujo de vídeo de vista de base dos veces para un fotogramas mientras mantiene el modo de operación en un modo de reproducción en 3D (en particular, manteniendo la velocidad de fotograma en el valor para reproducción en 3D, por ejemplo 48 fotogramas/segundo). Por consiguiente, únicamente se visualiza cualquiera del plano de vídeo de la vista izquierda o de la vista derecha en la pantalla del dispositivo 103 de visualización, y por lo tanto el observador percibe planos de vídeo simplemente como imágenes de vídeo en 2D.
En “modo de 1 plano + compensación”, el dispositivo 102 de reproducción genera, mediante control de compensación, un par de planos de gráficos de la vista izquierda y de la vista derecha desde el flujo de gráficos en el TS principal y emite como alternativa estos planos de gráficos. Por consiguiente, los planos de gráficos de la vista izquierda y de la vista derecha se visualizan de manera alterna en la pantalla del dispositivo 103 de visualización, y por lo tanto el observador percibe estos fotogramas como imágenes de gráficos en 3D. En el “modo de 1 plano + compensación cero”, el dispositivo 102 de reproducción detiene temporalmente el control de compensación y emite un plano de gráficos decodificado desde el flujo de gráficos en el TS principal dos veces para un fotograma mientras mantiene el modo de operación en un modo de reproducción en 3d. Por consiguiente, únicamente se visualiza cualquiera de los planos de gráficos de la vista izquierda o vista derecha en la pantalla del dispositivo 103 de visualización, y por lo tanto el observador percibe estos planos simplemente como imágenes de gráficos en 2D.
El dispositivo 102 de reproducción en un modo de reproducción en 3D hace referencia a la compensación durante el elemento emergente 3311 para cada PI y selecciona el modo de presentación B-B y el modo de 1 plano + compensación cero cuando se reproduce un menú emergente desde un flujo de IG. Mientras se visualiza un menú emergente, otras imágenes de vídeo en 3D se cambian temporalmente a imágenes de vídeo en 2D. Esto mejora la visibilidad y usabilidad del menú emergente.
La secuencia 3312 de información de registro de flujo para el flujo de vídeo de vista dependiente incluye información de registro de flujo que indica los flujos de vídeo de vista dependiente que pueden seleccionarse para reproducción desde el sub-TS. Esta secuencia 3312 de información de registro de flujo se usa en combinación con una de las secuencias de información de registro de flujo incluidas en la tabla de sTn en la correspondiente PI, que indica el flujo de vídeo de vista de base. Cuando se lee una pieza de la información de registro de flujo desde una tabla de STN, el dispositivo 102 de reproducción en un modo de reproducción en 3D también lee automáticamente la secuencia de información de registro de flujo, localizada en la tabla de STN SS, que se ha combinado con la pieza de la información de registro de flujo. Cuando simplemente se conmuta desde modo de reproducción en 2D al modo de reproducción en 3D, el dispositivo 102 de reproducción puede mantener por lo tanto los STN ya reconocidos y atributos de flujo tales como el idioma.
Como se muestra en la Figura 33, la secuencia 3312 de información de registro de flujo en el flujo de vídeo de vista dependiente incluye en general una pluralidad de piezas de la información de registro de flujo (SS_dependent_view_block) 3320. Estas son iguales en número que las piezas de la información de registro de flujo en la correspondiente PI que indica el flujo de vídeo de vista de base. Cada pieza de la información 3320 de registro de flujo incluye un STN 3321, entrada 3322 de flujo e información 3323 de atributo de flujo. El STN 3321 es un número de serie asignado individualmente a piezas de la información 3320 de registro de flujo y es el mismo que el STN de la pieza de la información de registro de flujo, localizada en la correspondiente PI, con la que se combina la pieza de la información 3320 de registro de flujo. La entrada 3322 de flujo incluye información de referencia de ID de sub-ruta (ref_to_Subpath_id) 3331, información de referencia de fichero de flujo (ref_to_subClip_entry_id) 3332, y un PID (ref_to_stream_ PID_subclip) 3333. La información 3331 de referencia de ID de sub-ruta indica el ID de sub-ruta de la sub-ruta que especifica la ruta de reproducción del flujo de vídeo de vista dependiente. La información 3332 de referencia de fichero de flujo es información para identificar el fichero DEP que almacena este flujo de vídeo de vista dependiente. El PID 3333 es el PID para este flujo de vídeo de vista dependiente. La información 3323 de atributo de flujo incluye atributos para este flujo de vídeo de vista dependiente, tal como velocidad de fotograma, resolución y formato de vídeo. En particular, estos atributos son los mismos que los atributos para el flujo de vídeo de vista de base mostrado mediante la pieza de la información de registro de flujo, incluida en la correspondiente PI, con la que se combina cada pieza de la información de registro de flujo.
[Reproducción de imágenes de vídeo en 3D de acuerdo con un fichero de lista de reproducción en 3D]
La Figura 34 es un diagrama esquemático que muestra correspondencia entre las PTS indicadas por el fichero de lista de reproducción en 3D (00002.mpls) 222 y secciones reproducidas desde el fichero SS (01000.ssif) 244A. Como se muestra en la Figura 34, en la ruta 3401 principal en el fichero 222 de lista de reproducción en 3D, la PI n.° 1 especifica una PTS n.° 1, que indica un tiempo de inicio de reproducción IN1, y una PTS n.° 2, que indica un
5
10
15
20
25
30
35
40
45
50
55
60
tiempo de fin de reproducción OUT1. La información de clip de referencia para la PI n.° 1 indica el fichero de información de clip en 2D (01000.clpi) 231. En la sub-ruta 3402, que indica que el tipo de sub-ruta es “3D L/R”, el SUB_PI n.° 1 especifica la misma PTS n.° 1 y PTS n.° 2 que la PI n.° 1. La información de clip de referencia para el SUB_PI n.° 1 indica el fichero de información de clip de vista dependiente (02000.clpi) 232.
Cuando se reproducen imágenes de vídeo en 3D de acuerdo con el fichero 222 de lista de reproducción en 3D, el dispositivo 102 de reproducción lee en primer lugar la PTS n.° 1 y la PTS n.° 2 desde la PI n.° 1 y SUB_PI n.° 1. A continuación, el dispositivo 102 de reproducción hace referencia al mapa de entrada en el fichero 231 de información de clip en 2D para recuperar desde el fichero en 2D 241 el SPN n.° 1 y el SPN n.° 2 que corresponden a la PTS n.° 1 y la PTS n.° 2. En paralelo, el dispositivo 102 de reproducción hace referencia al mapa de entrada en el fichero 232 de información de clip de vista dependiente para recuperar desde el primer fichero DEP 242 el SPN n.° 11 y el SPN n.° 12 que corresponden a la PTS n.° 1 y la PTS n.° 2. Como se describe con referencia a la Figura 24E, el dispositivo 102 de reproducción a continuación usa los puntos 2242 y 2420 de inicio de segmento en los ficheros 231 y 232 de información de clip para calcular, desde el SPN n.° 1 y el SPN n.° 11, el número de paquetes de origen SPN n.° 21 desde la parte superior del fichero SS 244A a la posición de inicio de reproducción. De manera similar, el dispositivo 102 de reproducción calcula, desde el SPN n.° 2 y el SPN n.° 12, el número de paquetes de origen SPN n.° 22 desde la parte superior del fichero SS 244A a la posición de inicio de reproducción. El dispositivo 102 de reproducción calcula adicionalmente los números de sectores que corresponden al SPN n.° 21 y SPN n.° 22. A continuación, el dispositivo 102 de reproducción hace referencia a estos números de sectores y a la entrada de fichero del fichero SS 244A para especificar el LBN n.° 1 y el LBN n.° 2 en el comienzo y final, respectivamente, del grupo de sectores P11 sobre los que se registra el grupo de segmentos SS EXTSS[0], ..., EXTSS[n] a reproducirse. El cálculo de los números de sectores y la especificación de los LBN están de conformidad con la descripción en la Figura 24E. Finalmente, el dispositivo 102 de reproducción indica el intervalo desde LBN n.° al LBN n.° 2 para la unidad 121 de BD-ROM. El grupo de paquetes de origen que pertenece al grupo de segmentos SS EXTSS[0], ..., EXTSS[n] se lee por lo tanto desde el grupo de sectores P11 en este intervalo. De manera similar, el par PTS n.° 3 y PTS n.° 4 indicado por la PI n.° 2 y SUB_PI n.° 2 se convierten en primer lugar en un par de SPN n.° 3 y SPN n.° 4 y un par de SPN n.° 13 y SPN n.° 14 que hacen referencia a los mapas de entrada en los ficheros 231 y 232 de información de clip. A continuación, se calcula el número de paquetes de origen SPN n.° 23 desde la parte superior del fichero SS 244a a la posición de inicio de reproducción desde el SPN n.° 3 y SPN n.° 13, y se calcula el número de paquetes de origen SPN n.° 24 desde la parte superior del fichero SS 244A a la posición de fin de reproducción desde el SPN n.° 4 y SPN n.° 14. A continuación, haciendo referencia a la entrada de fichero para el fichero SS 244A, el par de SPN n.° 23 y SPN n.° 24 se convierte en un par de LBN n.° 3 y LBN n.° 4. Adicionalmente, un grupo de paquetes de origen que pertenece al grupo de segmentos SS se lee desde el grupo de sectores P12 en un rango desde el LBN n.° 3 al LBN n.° 4.
En paralelo con el procesamiento de lectura anteriormente descrito, como se describe con referencia a la Figura 24E, el dispositivo 102 de reproducción hace referencia a los puntos 2242 y 2420 de inicio de segmento en los ficheros 231 y 232 de información de clip para extraer segmentos de vista de base desde cada segmento SS y decodifica los segmentos de vista de base en paralelo con los restantes segmentos de vista dependiente. El dispositivo 102 de reproducción puede por lo tanto reproducir imágenes de vídeo en 3D desde el fichero SS 244A de acuerdo con el fichero 222 de lista de reproducción en 3D.
«Fichero de índice»
La Figura 35 es un diagrama esquemático que muestra una estructura de datos de un fichero de índice (index.bdmv) 211 mostrado en la Figura 2. Como se muestra en la Figura 35, el fichero 211 de índice incluye una tabla 3510 de índice, bandera 3520 de existencia 3D y bandera 3530 de preferencia 2D/3D.
La tabla 3510 de índice almacena los elementos “primera reproducción” 3501, “menú superior” 3502 y “título k” 3503 (k = 1, 2, ..., n; la letra n representa un número entero mayor o igual a 1). Cada elemento está asociado con cualquiera de un objeto de película MVO-2D, MVO-3D, ..., o un objeto de bD-J BDJO-2D, BDJO-3D,.... Cada vez que se solicita un título o un menú en respuesta a una operación de usuario o un programa de aplicación, una unidad de control en el dispositivo 102 de reproducción hace referencia a un elemento correspondiente en la tabla 3510 de índice. Adicionalmente, la unidad de control solicita un objeto asociado con el elemento desde el disco 101 BD-ROM y en consecuencia ejecuta una diversidad de procedimientos. Específicamente, el elemento “primera reproducción” 3501 especifica un objeto a solicitarse cuando se carga el disco 101 en la unidad 121 de BD-ROM. El elemento “menú superior” 3502 especifica un objeto para visualizar un menú en el dispositivo 103 de visualización cuando se introduce un comando “volver a menú”, por ejemplo, por operación de usuario. En los elementos “título k” 3503, los títulos que constituyen el contenido en el disco 101 se asignan individualmente. Por ejemplo, cuando un título para reproducción se especifica por la operación de usuario, en el elemento “título k” en el que se asigna el título, se especifica el objeto para reproducir imágenes de vídeo desde el fichero de flujo de AV que corresponde al título.
En el ejemplo mostrado en la Figura 35, los elementos “título 1” y “título 2” se asignan a los títulos de imágenes de vídeo en 2D. El objeto de película asociado con el elemento “título 1”, MVO-2D, incluye un grupo de comandos relacionados con procedimientos de reproducción para imágenes de vídeo en 2D usando el fichero de lista de reproducción en 2D (0001.mpls) 221. Cuando el dispositivo 102 de reproducción hace referencia al elemento “título
5
10
15
20
25
30
35
40
45
50
55
60
1”, entonces de acuerdo con el objeto de película MVO-2D, el fichero 221 de lista de reproducción en 2D se lee desde el disco 101, y se ejecutan los procedimientos de reproducción para imágenes de vídeo en 2D de acuerdo con la ruta de reproducción especificada en el mismo. El objeto BD-J asociado con el elemento “título 2”, BDJO-2D, incluye una tabla de gestión de aplicación relacionada con procedimientos de reproducción para imágenes de vídeo en 2D que usan el fichero 221 de lista de reproducción en 2D. Cuando el dispositivo 102 de reproducción hace referencia al elemento “título 2”, a continuación de acuerdo con la tabla de gestión de aplicación en el objeto BD-J BDJO-2D, se solicita un programa de aplicación Java desde el fichero 261 JAR y se ejecuta. De esta manera, el fichero 221 de lista de reproducción en 2D se lee desde el disco 101, y se ejecutan los procedimientos de reproducción para imágenes de vídeo en 2D de acuerdo con la ruta de reproducción especificada en el mismo.
Adicionalmente, en el ejemplo mostrado en la Figura 35, los elementos “título 3” y “título 4” se asignan a títulos de las imágenes de vídeo en 3D. El objeto de película asociado con el elemento “título 3”, MVO-3D, incluye, además de un grupo de comandos relacionados con procedimientos de reproducción para imágenes de vídeo en 2D que usan el fichero 221 de lista de reproducción en 2D, un grupo de comandos relacionados con procedimientos de reproducción para imágenes de vídeo en 3D usando cualquiera del fichero de lista de reproducción en 3D (00002.mpls) 222 o (00003.mpls) 223. En el objeto BD-J asociado con el elemento “título 4”, BDJO-3D, la tabla de gestión de aplicación especifica, además de un programa de aplicación Java relacionado con procedimientos de reproducción para imágenes de vídeo en 2D que usan el fichero 221 de lista de reproducción en 2D, un programa de aplicación Java relacionado con procedimientos de reproducción para imágenes de vídeo en 3D que usan cualquiera del fichero 222 o 223 de lista de reproducción en 3D.
La bandera 3520 de existencia en 3D muestra si el contenido de vídeo en 3D se registra o no en el disco 101 BD- ROM. Cuando el disco 101 BD-ROM se inserta en la unidad 121 de BD-ROM, el dispositivo 102 de reproducción comprueba en primer lugar la bandera 3520 de existencia en 3D. Cuando la bandera 3520 de existencia en 3D está desactivada, el dispositivo 102 de reproducción no necesita seleccionar el modo de reproducción en 3D. Por consiguiente, el dispositivo 102 de reproducción puede continuar rápidamente en modo de reproducción en 2D sin realizar autenticación de HDMI en el dispositivo 103 de visualización. La “autenticación de HDMI” hace referencia procesamiento mediante el cual el dispositivo 102 de reproducción intercambia mensajes de CEC con el dispositivo 103 de visualización mediante el cable 122 de HDMI para comprobar con el dispositivo 103 de visualización en cuanto a si soporta reproducción de imágenes de vídeo en 3D. Omitiendo la autenticación de HDMI, se acorta el tiempo entre inserción del disco 101 BD-ROM y el inicio de reproducción de imágenes de vídeo en 2D.
La bandera 3530 de preferencia de 2D/3D indica si la reproducción de imágenes de vídeo en 3D debiera priorizarse cuando tanto el dispositivo de reproducción como el dispositivo de visualización soportan reproducción de tanto imágenes de vídeo en 2D como imágenes de vídeo en 3D. La bandera 3530 de preferencia de 2D/3D se establece por el proveedor de contenido. Cuando la bandera 3520 de existencia en 3D en el disco 101 BD-ROM está activada, el dispositivo 102 de reproducción a continuación comprueba adicionalmente la bandera 3530 de preferencia de 2D/3D. Cuando la bandera 3530 de preferencia de 2D/3D está activada, el dispositivo 102 de reproducción no hace que el usuario seleccione el modo de reproducción, sino que en su lugar realiza autenticación de HDMI. Basándose en los resultados de la misma, el dispositivo 102 de reproducción opera en cualquiera del modo de reproducción en 2D o modo de reproducción en 3D. Es decir, el dispositivo 102 de reproducción no visualiza una pantalla de selección de modo de reproducción. Por consiguiente, si los resultados de la autenticación de HDMI indican que el dispositivo 103 de visualización soporta reproducción de imágenes de vídeo en 3D, el dispositivo 102 de reproducción opera en un modo de reproducción en 3D. Esto hace posible evitar retardos en el arranque provocados por el procesamiento para conmutar desde el modo de reproducción en 2D al modo de reproducción en 3D, tal como conmutar la velocidad de fotogramas, etc.
[Selección de fichero de lista de reproducción cuando se selecciona un título de vídeo en 3D]
En el ejemplo mostrado en la Figura 35, cuando el dispositivo 102 de reproducción hace referencia al elemento “título 3” en la tabla 3510 de índice, se realizan los siguientes procedimientos de determinación de acuerdo con el objeto de película MVO-3D: (1) ¿Está la bandera 3520 de existencia en 3D activada o desactivada? (2) ¿Soporta el mismo dispositivo 102 de reproducción de imágenes de vídeo en 3D? (3) ¿Está la bandera 3530 de preferencia de 2D/3D activada o desactivada? (4) ¿Ha seleccionado el usuario el modo de reproducción en 3D? (5) ¿Soporta el dispositivo 103 de visualización reproducción de imágenes de vídeo en 3D? y (6) ¿Está el modo de reproducción en 3D del dispositivo 102 de reproducción en modo L/R o modo de profundidad? A continuación, de acuerdo con los resultados de estas determinaciones, el dispositivo 102 de reproducción selecciona uno de los ficheros 221-223 de lista de reproducción para su reproducción. Por otra parte, cuando el dispositivo 102 de reproducción hace referencia al elemento “título 4”, se solicita un programa de aplicación Java desde el fichero 261 JAR, de acuerdo con la tabla de gestión de aplicación en el objeto BD-J BDJO-3D, y se ejecuta. Los procedimientos de determinación anteriormente descritos (1)-(6), por lo tanto, se realizan, y a continuación se selecciona un fichero de lista de reproducción de acuerdo con los resultados de la determinación.
La Figura 36 es un procesamiento de selección de diagrama de flujo para un fichero de lista de reproducción a reproducirse usando los procedimientos de determinación (1)-(6) anteriores. Para este procesamiento de selección, se supone que el dispositivo 102 de reproducción incluye una primera bandera y una segunda bandera. La primera bandera indica si el dispositivo 102 de reproducción soporta reproducción de imágenes de vídeo en 3D. Por ejemplo,
5
10
15
20
25
30
35
40
45
50
55
un valor de “0” para la primera bandera indica que el dispositivo 102 de reproducción únicamente soporta reproducción de imágenes de vídeo en 2D, mientras que “1” indica soporte de las imágenes de vídeo en 3D también. La segunda bandera indica si el modo de reproducción en 3D es modo L/R o modo de profundidad. Por ejemplo, un valor de “0” para la segunda bandera indica que el modo de reproducción en 3D es modo L/R, mientras que “1” indica modo de profundidad. Adicionalmente, los respectivos valores de la bandera 3520 de existencia en 3D y bandera 3530 de preferencia 2D/3D se establecen a “1” cuando estas banderas están activadas, y a “0” cuando estas banderas están desactivadas.
En la etapa S3601, el dispositivo 102 de reproducción comprueba el valor de la bandera 3520 de existencia en 3D. Si el valor es “1”, el procesamiento continúa a la etapa S3602. Si el valor es “0”, el procesamiento continúa a la etapa S3607.
En la etapa S3602, el dispositivo 102 de reproducción comprueba el valor de la primera bandera. Si el valor es “1”, el procesamiento continúa a la etapa S3603. Si el valor es “0”, el procesamiento continúa a la etapa S3607.
En la etapa S3603, el dispositivo 102 de reproducción comprueba el valor de la bandera 3530 de preferencia de 2D/3D. Si el valor es “0”, el procesamiento continúa a la etapa S3604. Si el valor es “1”, el procesamiento continúa a la etapa S3605.
En la etapa S3604, el dispositivo 102 de reproducción visualiza un menú en el dispositivo 103 de visualización para que el usuario seleccione cualquiera del modo de reproducción en 2D o modo de reproducción en 3D. Si el usuario selecciona el modo de reproducción en 3D mediante la operación de un control 105 remoto o similares, el procesamiento continúa a la etapa S3605, mientras que si el usuario selecciona el modo de reproducción en 2D, el procesamiento continúa a la etapa S3607.
En la etapa S3605, el dispositivo 102 de reproducción realiza autenticación de HDMI para comprobar si el dispositivo 103 de visualización soporta reproducción de imágenes de vídeo en 3D. Específicamente, el dispositivo 102 de reproducción intercambia mensajes de CEC con el dispositivo 103 de visualización mediante el cable 122 de HDMI para comprobar con el dispositivo 103 de visualización en cuanto a si soporta la reproducción de imágenes de vídeo en 3D. Si el dispositivo 103 de visualización soporta reproducción de imágenes de vídeo en 3D, el procesamiento continúa a la etapa S3606. Si el dispositivo 103 de visualización no soporta reproducción de imágenes de vídeo en 3D, el procesamiento continúa a la etapa S3607.
En la etapa S3606, el dispositivo 102 de reproducción comprueba el valor de la segunda bandera. Si el valor es “0”, el procesamiento continúa a la etapa S3608. Si el valor es “1”, el procesamiento continúa a la etapa S3609.
En la etapa S3607, el dispositivo 102 de reproducción selecciona para reproducción el fichero 221 de lista de reproducción en 2D. Obsérvese que, en este momento, el dispositivo 102 de reproducción puede provocar que el dispositivo 103 de visualización visualice la razón por la que no se seleccionó la reproducción de imágenes de vídeo en 3D. El procesamiento a continuación termina.
En la etapa S3608, el dispositivo 102 de reproducción selecciona para reproducción el fichero 222 de lista de reproducción en 3D usado en modo L/R. El procesamiento a continuación termina.
En la etapa S3609, el dispositivo 102 de reproducción selecciona para reproducción el fichero 222 de lista de reproducción en 3D usado en modo de profundidad. El procesamiento a continuación termina.
<Estructura de dispositivo de reproducción en 2D>
Cuando se reproduce contenido de vídeo en 2D desde el disco 101 BD-ROM en modo de reproducción en 2D, el dispositivo 102 de reproducción opera como un dispositivo de reproducción en 2D. La Figura 37 es un diagrama de bloques funcional de un dispositivo 3700 de reproducción en 2D. Como se muestra en la Figura 37, el dispositivo 3700 de reproducción en 2D incluye una unidad 3701 de BD-ROM, unidad 3702 de reproducción y unidad 3703 de control. La unidad 3702 de reproducción incluye una memoria intermedia 3721 de lectura, decodificador 3725 objetivo de sistema y sumador 3726 de planos. La unidad 3703 de control incluye una memoria 3731 de escenario dinámico, memoria 3732 de escenario estático, unidad 3733 de procesamiento de evento de usuario, unidad 3734 de ejecución de programa, unidad 3735 de control de reproducción y unidad 3736 de almacenamiento variable de reproductor. La unidad 3702 de reproducción y la unidad 3703 de control se implementan cada una en un circuito integrado diferente, aunque pueden implementarse como alternativa en un único circuito integrado.
Cuando el disco 101 BD-ROM se carga en la unidad 3701 de BD-ROM, la unidad 3701 de BD-ROM irradia luz láser en el disco 101 y detecta el cambio en la luz reflejada. Adicionalmente, usando el cambio en la cantidad de luz reflejada, la unidad 3701 de BD-ROM lee datos registrados en el disco 101. Específicamente, la unidad 3701 de BD- ROM tiene un cabezal óptico, es decir una cabeza óptica. La cabeza óptica tiene un láser de semiconductores, lente de colimador, divisor de haz, lente de objetivo, lente de recogida y detector óptico. Un haz de luz irradiado desde el láser de semiconductor pasa secuencialmente a través de la lente de colimador, divisor de haz y lente de objetivo para ser recogido en una capa de registro del disco 101. El haz recogido se refleja y difracta por la capa de registro. La luz reflejada y difractada pasa a través de la lente de objetivo, el divisor de haz y la lente de recogida, y se recoge
5
10
15
20
25
30
35
40
45
50
55
60
en el detector óptico. El detector óptico genera una señal de reproducción a un nivel de acuerdo con la cantidad de luz recogida. Adicionalmente, se decodifican datos desde la señal de reproducción.
La unidad 3701 de BD-ROM lee datos desde el disco 101 BD-ROM basándose en una solicitud desde la unidad 3735 de control de reproducción. De los datos leídos, los segmentos en el fichero en 2D, es decir los segmentos de 2D, se transfieren a la memoria intermedia 3721 de lectura; la información de escenario dinámico se transfiere a la memoria 3731 de escenario dinámico; y la información de escenario estático se transfiere a la memoria 3732 de escenario estático. “Información de escenario dinámico” incluye un fichero de índice, fichero de objeto de película y fichero de objeto BD-J. “Información de escenario estático” incluye un fichero de lista de reproducción en 2D y un fichero de información de clip en 2D.
La memoria intermedia 3721 de lectura, memoria 3731 de escenario dinámico y memoria 3732 de escenario estático son cada una una memoria intermedia de lectura. Los elementos de memoria en la unidad 3702 de reproducción se usan como la memoria intermedia 3721 de lectura. Los elementos de memoria en la unidad 3703 de control se usan como la memoria 3731 de escenario dinámico y la memoria 3732 de escenario estático. Como alternativa, pueden usarse diferentes áreas en un único elemento de memoria como parte o todas estas memorias 3721, 3731 y 3732 de memoria intermedia.
El decodificador 3725 objetivo de sistema lee segmentos de 2D desde la memoria intermedia 3721 de lectura en unidades de paquetes de origen y demultiplexa los segmentos de 2D. El decodificador 3725 objetivo de sistema a continuación decodifica cada uno de los flujos elementales obtenidos mediante la demultiplexación. En este punto, la información necesaria para decodificar cada flujo elemental, tal como el tipo de códec y atributos del flujo, se transfiere desde la unidad 3735 de control de reproducción al decodificador 3725 objetivo de sistema. El decodificador 3725 objetivo de sistema emite un flujo de vídeo principal, flujo de vídeo secundario, flujo de IG y flujo de PG después de decodificar respectivamente como datos de plano de vídeo primario, datos de plano de vídeo secundario, datos de plano de IG y datos de plano de PG, en unidades de VAU. Por otra parte, el decodificador 3725 objetivo de sistema mezcla el flujo de audio primario y el flujo de audio secundario decodificados y transmite los datos resultantes a un dispositivo de salida de audio, tal como un altavoz 103A interno del dispositivo 103 de visualización. Además, el decodificador 3725 objetivo de sistema recibe datos de gráficos desde la unidad 3734 de ejecución de programa. Los datos de gráficos se usan para restablecer elementos gráficos para una GUI, tal como un menú, en la pantalla y están en un formato de datos por puntos tal como JPEG y PNG. El decodificador 3725 objetivo de sistema procesa los datos de gráficos y emite los datos procesados como datos de plano de imagen. Se proporcionan a continuación detalles sobre el decodificador 3725 objetivo de sistema.
El sumador 3726 de planos recibe datos de plano de vídeo primario, datos de plano de vídeo secundario, datos de plano de IG, datos de plano de PG y datos de plano de imagen desde el decodificador 3725 objetivo de sistema y superpone estas piezas de datos de plano para generar un fotograma o campo de vídeo combinado. Los datos de vídeo combinados se transfieren al dispositivo 103 de visualización para visualización en la pantalla.
La unidad 3733 de procesamiento de evento de usuario detecta una operación de usuario mediante el control 105 remoto o el panel frontal del dispositivo 102 de reproducción. Basándose en la operación del usuario, la unidad 3733 de procesamiento de evento de usuario solicita a la unidad 3734 de ejecución de programa o a la unidad 3735 de control de reproducción realizar el procesamiento. Por ejemplo, cuando un usuario ordena visualizar un menú emergente presionando un botón en el control 105 remoto, la unidad 3733 de procesamiento de evento de usuario detecta la presión e identifica el botón. La unidad 3733 de procesamiento de evento de usuario solicita adicionalmente que la unidad 3734 de ejecución de programa ejecute un comando que corresponde al botón, es decir un comando para visualizar el menú emergente. Por otra parte, cuando un usuario presiona un botón de avance rápido o rebobinado en el control 105 remoto, por ejemplo, la unidad 3733 de procesamiento de evento de usuario detecta la presión e identifica el botón. La unidad 3733 de procesamiento de evento de usuario a continuación solicita que la unidad 3735 de control de reproducción avance rápidamente o rebobine la lista de reproducción que se está reproduciendo actualmente.
La unidad 3734 de ejecución de programa es un procesador que lee programas desde los ficheros de objeto de película y ficheros de objeto BD-J almacenados en la memoria 3731 de escenario dinámico y ejecuta estos programas. Adicionalmente, la unidad 3734 de ejecución de programa realiza las siguientes operaciones de acuerdo con los programas: (1) La unidad 3734 de ejecución de programa ordena que la unidad 3735 de control de reproducción realice procesamiento de reproducción de lista de reproducción; (2) La unidad 3734 de ejecución de programa genera datos de gráficos para un menú o juego como datos por puntos de PNG o JPEG y transfiere los datos generados al decodificador 3725 objetivo de sistema para que se combinen con otros datos de vídeo. Mediante diseño de programa, los detalles específicos sobre estos procedimientos pueden diseñarse de manera relativamente flexible. En otras palabras, durante el procedimiento de autoría del disco 101 BD-ROM, la naturaleza de estos procedimientos se determina mientras se programan los ficheros de objeto de película y ficheros de objeto BD-J.
La unidad 3735 de control de reproducción controla la transferencia de diferentes tipos de datos, tal como segmentos de 2D, un fichero de índice, etc., desde el disco 101 BD-ROM a la memoria intermedia 3721 de lectura, memoria 3731 de escenario dinámico y memoria 3732 de escenario estático. Un sistema de ficheros que gestiona la
5
10
15
20
25
30
35
40
45
50
55
60
estructura de fichero de directorio mostrada en la Figura 2 se usa para este control. Es decir, la unidad 3735 de control de reproducción provoca que la unidad 3701 de BD-ROM transfiera los ficheros a cada una de las memorias 3721, 3731 y 3732 de memoria intermedia usando una solicitud de sistema para abrir ficheros. La “apertura de ficheros” está compuesta de una secuencia de los siguientes procedimientos. En primer lugar, se proporciona un nombre de fichero a detectarse al sistema de ficheros por una llamada sistema, y se realiza un intento para detectar el nombre de fichero desde la estructura de directorio/fichero. Cuando la detección es satisfactoria, la entrada de fichero para el fichero objetivo a transferirse se transfiere en primer lugar a memoria en la unidad 3735 de control de reproducción, y se genera un Bloque de Control de Fichero (FCB) en la memoria. Posteriormente, un manejador de fichero para el fichero objetivo se devuelve desde el sistema de ficheros a la unidad 3735 de control de reproducción. Posteriormente, la unidad 3735 de control de reproducción puede provocar que la unidad 3701 de BD- rOm transfiera el fichero objetivo desde el disco de BD-ROM 101 a cada una de las memorias 3721, 3731 y 3732 de memoria intermedia mediante las que muestra el manejador de fichero a la unidad 3701 de BD-ROM.
La unidad 3735 de control de reproducción decodifica el fichero en 2D para emitir datos de vídeo y datos de audio controlando la unidad de BD-rOm 3701 y el decodificador 3725 objetivo de sistema. Específicamente, la unidad 3735 de control de reproducción lee en primer lugar un fichero de lista de reproducción en 2D desde la memoria 3732 de escenario estático, en respuesta a una instrucción desde la unidad 3734 de ejecución de programa o una solicitud desde la unidad 3733 de procesamiento de evento de usuario, e interpreta el contenido del fichero. De acuerdo con el contenido interpretado, particularmente con la ruta de reproducción, la unidad 3735 de control de reproducción a continuación especifica un fichero en 2D a reproducirse y ordena a la unidad 3701 de BD-ROM y al decodificador 3725 objetivo de sistema que lean y decodifiquen este fichero. Tal procesamiento de reproducción basándose en un fichero de lista de reproducción se denomina como “procesamiento de reproducción de lista de reproducción”.
Además, la unidad 3735 de control de reproducción establece diversos tipos de variables de reproductor en la unidad 3736 de almacenamiento variable de reproductor usando la información de escenario estático. Con referencia a las variables de reproductor, la unidad 3735 de control de reproducción especifica adicionalmente al decodificador 3725 objetivo de sistema flujos elementales a decodificar y proporciona la información necesaria para decodificar los flujos elementales.
La unidad 3736 de almacenamiento variable de reproductor está compuesta de un grupo de registros para almacenar variables de reproductor. Los tipos de variables de reproductor incluyen parámetros de sistema (SPRM) y parámetros generales (GPRM). Un SPRM indica el estado del dispositivo 102 de reproducción. La Figura 38 es una lista de SPRM. Como se muestra en la Figura 38, cada SPRM tiene asignado un número 3801 de serie, y cada número 3801 de serie está asociado con un valor 3802 de variable único. Se proporcionan, por ejemplo, 64 SPRM. Los contenidos de los SPRM se muestran a continuación. En este punto, los números en paréntesis indican los números 3801 de serie.
SPRM(0): código de idioma
SPRM(1): número de flujo de audio primario
SPRM(2): número de flujo de subtítulo
SPRM(3): número de ángulo
SPRM(4): número de título
SPRM(5): número de capítulo
SPRM(6): número de programa
SPRM(7): número de celda
SPRM(8): número de clave
SPRM(9): temporizador de navegación
SPRM(10): tiempo de reproducción actual
SPRM(11): modo de mezcla de audio de reproductor para karaoke SPRM(12): código de país para control parental SPRM(13): nivel parental
SPRM(14): configuración de reproductor para vídeo
SPRM(15): configuración de reproductor para audio
SPRM(16): código de idioma para flujo de audio
SPRM(17): extensión de código de idioma para flujo de audio
SPRM(18): código de idioma para flujo de subtítulo
SPRM(19): extensión de código de idioma para flujo de subtítulo
SPRM(20): código de región de reproductor
SPRM(21): número de flujo de vídeo secundario
SPRM(22): número de flujo de audio secundario
SPRM(23): estado de reproductor
SPRM(24)-SPRM(63): reservado
El SPRM(10) indica la PTS de la instantánea que se está decodificando actualmente y se actualiza cada vez que se decodifica una instantánea y se escribe en la memoria de plano de vídeo primario. Por consiguiente, el punto de reproducción actual puede conocerse haciendo referencia al SPRM(10).
5
10
15
20
25
30
35
40
45
50
55
El nivel parental en el SPRM(13) indica una edad restringida predeterminada y se usa para control parental de visualización de títulos registrados en el disco 101 BD-ROM. Un usuario del dispositivo 102 de reproducción establece el valor del SPRM(13) mediante, por ejemplo, una OSD del dispositivo 102 de reproducción. “Control parental” hace referencia a restringir la visualización de un título de acuerdo con la edad del observador. Lo siguiente es un ejemplo de cómo el dispositivo 102 de reproducción realiza control parental. El dispositivo 102 de reproducción lee en primer lugar la edad para la que está permitida la visualización de un título desde el disco 101 BD-ROM, y a continuación compara esta edad con el valor del SPRM(13). Si esta edad es igual a o menor que el valor del SPRM(13), el dispositivo 102 de reproducción continúa con la reproducción del título. Si esta edad es mayor que el valor del SPRM(13), el dispositivo 102 de reproducción detiene la reproducción del título.
El código de idioma para flujo de audio en el SPRM(16) y el código de idioma para el flujo de subtítulo en el SPRM(18) muestran códigos de idioma del dispositivo 102 de reproducción por defecto. Estos códigos pueden cambiarse por un usuario con el uso del OSD o similares del dispositivo 102 de reproducción, o los códigos pueden cambiarse por un programa de aplicación mediante la unidad 3734 de ejecución de programa. Por ejemplo, si el SPRM(16) muestra “Inglés”, entonces durante el procesamiento de reproducción de una lista de reproducción, la unidad 3735 de control de reproducción busca en primer lugar la tabla de STN en la que PI muestra la sección de reproducción actual, es decir la PI actual, para una entrada de flujo que tiene el código de idioma para “Inglés”. La unidad 3735 de control de reproducción a continuación extrae el PID desde la información de identificación de flujo de la entrada de flujo y transmite el PID extraído al decodificador 3725 objetivo de sistema. Como resultado, se selecciona un flujo de audio que tiene el PID y se decodifica por el decodificador 3725 objetivo de sistema. Estos procedimientos pueden ejecutarse por la unidad 3735 de control de reproducción con uso del fichero de objeto de película o el fichero de objeto BD-J.
Durante el procesamiento de reproducción, la unidad 3735 de control de reproducción actualiza las variables de reproductor de acuerdo con el estado de la reproducción. La unidad 3735 de control de reproducción actualiza el SPRM(1), SPRM(2), SPRM(21) y SPRM(22) en particular. Estos SPRM respectivamente muestran, en el orden establecido, el STN del flujo de audio, flujo de subtítulo, flujo de vídeo secundario y flujo de audio secundario que se están procesando actualmente. Por ejemplo, supóngase que el SPRM(1) se ha cambiado por la unidad 3734 de ejecución de programa. En este caso, la unidad 3735 de control de reproducción hace referencia en primer lugar al STN mostrado por el nuevo SPRM(1) y recupera la entrada de flujo que incluye este STN desde la tabla de STN en la PI actual. La unidad 3735 de control de reproducción a continuación extrae el PID desde la información de identificación de flujo de la entrada de flujo y transmite el PID extraído al decodificador 3725 objetivo de sistema. Como resultado, se selecciona un flujo de audio que tiene el PID y se decodifica por el decodificador 3725 objetivo de sistema. Esto es cómo se conmuta el flujo de audio a reproducirse. El flujo de subtítulo y el flujo de vídeo secundario a reproducirse pueden conmutarse de manera similar.
«Procesamiento de reproducción de lista de reproducción en 2D>>
La Figura 39 es un diagrama de flujo procesamiento de reproducción de lista de reproducción en 2D mediante una unidad 3735 de control de reproducción. El procesamiento de reproducción de lista de reproducción en 2D se realiza de acuerdo con un fichero de lista de reproducción en 2D y se inicia por la unidad 3735 de control de reproducción que lee un fichero de lista de reproducción en 2D desde la memoria 3732 de escenario estático.
En la etapa S3901, la unidad 3735 de control de reproducción lee en primer lugar una única PI desde una ruta principal en el fichero de lista de reproducción en 2D y a continuación establece la PI como la PI actual. A continuación, desde la tabla de STN de la PI actual, la unidad 3735 de control de reproducción selecciona los PID de flujos elementales a reproducirse y especifica información de atributo necesaria para decodificar los flujos elementales. Los PID seleccionados y la información de atributo se indican al decodificador 3725 objetivo de sistema. La unidad 3735 de control de reproducción especifica adicionalmente un SUB_PI asociado con la PI actual desde las sub-rutas en el fichero de lista de reproducción en 2D. Posteriormente, el procesamiento continúa a la etapa S3902.
En la etapa S3902, la unidad 3735 de control de reproducción lee información de clip de referencia, una PTS n.° 1 que indica un tiempo de inicio de reproducción IN1, y una PTS n.° 2 que indica un tiempo de fin de reproducción OUT1 desde la PI actual. A partir de esta información de clip de referencia, se especifica un fichero de información de clip en 2D que corresponde al fichero en 2D a reproducirse. Adicionalmente, cuando existe un SUB_PI que está asociado con la PI actual, se lee también información similar desde el SUB_PI. Posteriormente, el procesamiento continúa a la etapa S3903.
En la etapa S3903, con referencia al mapa de entrada del fichero de información de clip en 2D, la unidad 3735 de control de reproducción recupera el SPN n.° 1 y el SPN n.° 2 en el fichero en 2D que corresponden a la PTS n.° 1 y la PTS n.° 2. El par de PTS indicado por el SUB_PI también se convierte a un par de SPN. Posteriormente, el procesamiento continúa a la etapa S3904.
En la etapa S3904, desde el SPN n.° 1 y el SPN n.° 2, la unidad 3735 de control de reproducción calcula un número de sectores que corresponden a cada uno del SPN n.° 1 y el SPN n.° 2. Específicamente, la unidad 3735 de control de reproducción obtiene en primer lugar el producto de cada uno del SPN n.° 1 y el SPN n.° 2 multiplicado por la
5
10
15
20
25
30
35
40
45
50
55
cantidad de datos por paquete de origen, es decir 192 bytes. A continuación, la unidad 3735 de control de reproducción obtiene un cociente dividiendo cada producto por la cantidad de datos por sector, es decir 2048 bytes: N1 = SPN n.° 1 x 192 / 2048, N2 = SPN n.° 2 x 192 / 2048. Los cocientes N1 y N2 son los mismos que el número total de sectores, en el TS principal, registrados en porciones previas a los paquetes de origen a los que están asignado el SPN n.° 1 y SPN n.° 2, respectivamente. El par de SpN convertidos desde el par de PTS indicado por el SUB_PI se convierten de manera similar a un par de números de sectores. Posteriormente, el procesamiento continúa a la etapa S3905.
En la etapa S3905, la unidad 3735 de control de reproducción especifica, desde los números de sectores N1 y N2 obtenidos en la etapa S3904, los LBN de la parte superior e inferior del grupo de segmentos en 2D a reproducirse. Específicamente, con referencia a la entrada de fichero del fichero en 2D a reproducirse, la unidad 3735 de control de reproducción cuenta desde la parte superior del grupo de sectores en los que se registra el grupo de segmentos en 2D de modo que el LBN del sector de orden (N1 + 1) = LBN n.° 1, y el LBN del sector de orden (N2 + 1) = LBN n.° 2. La unidad 3735 de control de reproducción especifica adicionalmente un rango desde el LBN n.° 1 al LBN n.° 2 a la unidad 121 de BD-ROM. El par de números de sectores convertidos desde el par de PTS indicado por el SUB_PI se convierten de manera similar a un par de LBN y se especifican a la unidad 121 de BD-ROM. Como resultado, desde el grupo de sectores en el intervalo especificado, un grupo de paquetes de origen que pertenecen a un grupo de segmentos en 2D se leen en unidades alineadas. Posteriormente, el procesamiento continúa a la etapa S3906.
En la etapa S3906, la unidad 3735 de control de reproducción comprueba si queda una PI sin procesar en la ruta principal. Cuando queda una PI sin procesar, el procesamiento se repite desde la etapa S3901. Cuando no quedan PI sin procesar, el procesamiento finaliza.
<<Decodificador objetivo de sistema»
La Figura 40 es un diagrama de bloques funcional del decodificador 3725 objetivo de sistema. Como se muestra en la Figura 40, el decodificador 3725 objetivo de sistema incluye un desempaquetador 4010 de origen, contador 4020 de ATC, primer reloj 4030 de 27 MHz, filtro 4040 de PID, contador de STC (STC1) 4050, segundo reloj 4060 de 27 MHz, decodificador 4070 de vídeo primario, decodificador 4071 de vídeo secundario, decodificador 4072 de PG, decodificador 4073 de IG, decodificador 4074 de audio primario, decodificador 4075 de audio secundario, decodificador 4076 de subtítulo de texto, procesador 4080 de imagen, memoria 4090 de plano de vídeo primario, memoria 4091 de plano de vídeo secundario, memoria 4092 de plano de PG, memoria 4093 de plano de IG, memoria 4094 de plano de imagen y mezclador 4095 de audio.
El desempaquetador 4010 de origen lee paquetes de origen desde la memoria intermedia 3721 de lectura, extrae los paquetes de TS desde los paquetes de origen leídos, y transfiere los paquetes de TS al filtro 4040 de PID. Adicionalmente, el desempaquetador 4010 de origen sincroniza el tiempo de la transferencia con el tiempo mostrado por la ATS de cada paquete de origen. Específicamente, el desempaquetador 4010 de origen monitoriza en primer lugar el valor del ATC generado por el contador 4020 de ATC. En este caso, el valor del ATC depende del contador 4020 de ATC y se incrementa de acuerdo con una señal de reloj desde el primer reloj 4030 de 27 MHz. Posteriormente, en el instante en el que el valor del ATC coincide con la ATS de un paquete de origen, el desempaquetador 4010 de origen transfiere los paquetes de TS extraídos desde el paquete de origen al filtro 4040 de PID. Ajustando el tiempo de transferencia de esta manera, la tasa de transferencia media de paquetes de TS desde el desempaquetador 4010 de origen al filtro 4040 de PID no sobrepasa el valor Rts especificado por la tasa 2211 de sistema en el fichero 231 de información de clip en 2D mostrado en la Figura 22.
El filtro 4040 de PID monitoriza en primer lugar un PID que incluye cada paquete de TS emitido por el desempaquetador 4010 de origen. Cuando el PID coincide con un PID especificado previamente por la unidad 3735 de control de reproducción, el filtro 4040 de PID selecciona el paquete de TS y lo transfiere al decodificador 40704075 apropiado para decodificación del flujo elemental indicado por el PID (sin embargo, se excluye el decodificador 4076 de subtítulo de texto). Por ejemplo, si un PID es 0x1011, los paquetes de TS se transfieren al decodificador 4070 de vídeo primario. Los paquetes de TS con PID que varían de 0x1B00-0x1B1F, 0x1100-0x111F, 0x1A00- 0x1A1F, 0x1200-0x121F y 0x1400-0x141F se transfieren al decodificador 4071 de vídeo secundario, decodificador 4074 de audio primario, decodificador 4075 de audio secundario, decodificador 4072 de PG, y decodificador 4073 de IG, respectivamente.
El filtro 4040 de PID detecta adicionalmente una PCR desde paquetes de TS que usan los PID de los paquetes de TS. En cada detección, el filtro 4040 de PID establece el valor del contador 4050 de STC a un valor predeterminado. A continuación, el valor del contador 4050 de STC se incrementa de acuerdo con un pulso de la señal de reloj del segundo reloj 4060 de 27 MHz. Además, el valor al que se establece el contador 4050 de STC se indica al filtro 4040 de PID desde la unidad 3735 de control de reproducción con antelación. Los decodificadores 4070-4076 cada uno usan el valor del contador 4050 de STC en el STC. Específicamente, los decodificadores 4070-4076 reconstruyen en primer lugar los paquetes de TS recibidos desde el filtro 4040 de PID en paquetes de PES. A continuación, los decodificadores 4070-4076 ajustan la temporización de la decodificación de datos incluidos en las cargas útiles de PES de acuerdo con los tiempos indicados por las PTS o las DTS incluidas en los encabezamientos de PES.
El decodificador 4070 de vídeo primario, como se muestra en la Figura 40, incluye una memoria intermedia de flujo
5
10
15
20
25
30
35
40
45
50
55
de transporte (TB) 4001, memoria intermedia de multiplexación (MB) 4002, memoria intermedia de flujo elemental (EB) 4003, decodificador de vídeo comprimido (DEC) 4004 y memoria intermedia de instantánea decodificada (DPB) 4005.
La TB 4001, MB 4002 y EB 4003 son cada una una memoria intermedia de lectura y usan un área de un elemento de memoria proporcionado internamente en el decodificador 4070 de vídeo primario. Como alternativa, algunas o todas las memorias de memoria intermedia pueden separarse en elementos de memoria discretos. La TB4001 almacena los paquetes de TS recibidos desde el filtro 4040 de PID como están. La MB 4002 almacena paquetes de PES reconstruidos desde los paquetes de TS almacenados en la TB4001. Obsérvese que cuando los paquetes de TS se transfieren desde la TB4001 a la MB 4002, el encabezamiento de TS se elimina desde cada paquete de TS. La EB 4003 extrae las VAU codificadas desde los paquetes de PES y almacena las VAU en los mismos. Una VAU incluye una instantánea comprimida, es decir, una instantánea I, instantánea B o instantánea P. Obsérvese que cuando se transfieren datos desde la MB 4002 a la EB 4003, el encabezamiento de PES se elimina desde cada paquete PES.
El DEC 4004 es un decodificador de hardware específicamente para decodificación de instantáneas comprimidas y está compuesto de un LSI que incluye, en particular, una función para acelerar la decodificación. El DEC 4004 decodifica una instantánea desde cada VAU en la EB 4003 en el tiempo mostrado por la DTS incluida en el paquete de PES original. El DEC 4004 puede hacer referencia también a la información de conmutación de decodificación 1250 mostrada en la Figura 12 para decodificar instantáneas desde las VAU de manera secuencial, independientemente de las DTS. Durante la decodificación, el DEC 4004 analiza en primer lugar el encabezamiento de la VAU para especificar la instantánea comprimida, procedimiento de codificación de compresión y atributo de flujo almacenado en la VAU, selecciona un modo de decodificación de acuerdo con esta información. Procedimientos de codificación de compresión incluyen, por ejemplo, MPEG-2, MPEG-4 AVC y VC1. Adicionalmente, el DEC 4004 transmite la instantánea descomprimida decodificada a la DPB 4005.
Como la TB4001, MB 4002 y EB 4003, la DPB 4005 es una memoria intermedia de lectura que usa un área de un elemento de memoria integrado en el decodificador 4070 de vídeo primario. Como alternativa, la DPB 4005 puede localizarse en un elemento de memoria separado de las otras memorias 4001, 4002 y 4003 de memoria intermedia. La DPB 4005 almacena temporalmente las instantáneas decodificadas. Cuando una instantánea P o instantánea B se ha de decodificar por el DEC 4004, la DPB 4005 recupera instantáneas de referencia, en respuesta a una instrucción desde el DEC 4004, de entre las instantáneas decodificadas almacenadas. La DPB 4005 a continuación proporciona las instantáneas de referencia al DEC 4004. Adicionalmente, la DPB 4005 escribe las instantáneas almacenadas en el memoria 4090 de plano de vídeo primario en el tiempo mostrado por las PTS incluidas en los paquetes de PES originales.
El decodificador 4071 de vídeo secundario incluye la misma estructura que el decodificador 4070 de vídeo primario. El decodificador 4071 de vídeo secundario decodifica en primer lugar los paquetes de TS del flujo de vídeo secundario recibidos desde el filtro 4040 de PID en instantáneas descomprimidas. Posteriormente, el decodificador
4071 de vídeo secundario escribe las instantáneas descomprimidas en la memoria 4091 de plano de vídeo secundario en el tiempo mostrado por las PTS incluidas en los paquetes de PES.
El decodificador 4072 de PG decodifica los paquetes de TS recibidos desde el filtro 4040 de PID en datos de gráficos descomprimidos y escribe los datos de gráficos descomprimidos en la memoria 4092 de plano de PG en el tiempo mostrado por las PTS incluidas en los paquetes de PES.
La Figura 41A es un diagrama de flujo de procesamiento mediante el cual el decodificador 4072 de PG decodifica un objeto de gráficos desde una entrada de datos en el flujo de PG. El procesamiento se inicia cuando el decodificador
4072 de PG recibe un grupo de paquetes de TS que constituyen una entrada de datos mostrada en la Figura 6, desde el filtro 4040 de PID. Las Figuras 41B-41E son diagramas esquemáticos que muestran el objeto de gráficos que cambian a medida que el procesamiento continúa.
En la etapa S4101, el decodificador 4072 de PG identifica en primer lugar una ODS que tiene el mismo ID de objeto que el ID 605 de objeto de referencia en la PCS. A continuación, el decodificador 4072 de PG decodifica un objeto de gráficos desde la ODS identifica, y escribe el objeto de gráficos decodificado en la memoria intermedia de objeto. En este punto, el “memoria intermedia de objeto” es una memoria intermedia de lectura embebida en el decodificador de PG 4072. La “marca de sonrisa” FOB mostrada en la Figura 41B es un ejemplo del objeto de gráficos escrito en la memoria intermedia de objeto.
En la etapa S4102, el decodificador 4072 de PG realiza el procesamiento de recorte de acuerdo con la información 602 de recorte en la PCS, extrae una parte del objeto de gráficos desde el objeto de gráficos, y escribe la parte extraída en la memoria intermedia de objeto. La Figura 41C muestra que las bandas LST y RST se eliminan desde los extremos a la izquierda y a la derecha de la marca de sonrisa fOb, y la parte restante OBJ se escribe en la memoria intermedia de objeto.
En la etapa S4103, el decodificador 4072 de PG identifica en primer lugar una WDS que tiene el mismo ID de ventana que el ID 603 de ventana de referencia en la PCS. A continuación, el decodificador 4072 de PG determina
5
10
15
20
25
30
35
40
45
50
55
una posición de visualización del objeto de gráficos en el plano de gráficos desde una posición 612 de ventana indicada por la WDS identificada y una posición 601 de visualización de objeto en la pCs. En la Figura 41D, se determina la posición superior izquierda de la ventana WIN en el plano de gráficos GPL y una posición superior izquierda DSP del objeto de gráficos OBJ.
En la etapa S4104, el decodificador 4072 de PG escribe el objeto de gráficos en la memoria intermedia de objeto en la posición de visualización determinada en la etapa S4103. Cuando se hace esto, el decodificador 4072 de PG determina un rango en el que se restablece el objeto de gráficos usando un tamaño 613 de ventana indicado por la WDS. En la Figura 41D, el objeto de gráficos OBJ se escribe en el plano de gráficos GPL en el intervalo de la ventana WIN que se inicia desde la posición superior izquierda DSP.
En la etapa S4105, el decodificador 4072 de PG identifica en primer lugar una PDS que tiene el mismo ID de paleta que el ID 604 de paleta de referencia en la PCS. A continuación, el decodificador 4072 de PG, usando la CLUT 622 en el PDS, determina el valor de coordenada de colores a indicarse por cada dato de píxel en el objeto de gráficos OBJ. En la Figura 41E, se ha determinado el color de cada píxel en el objeto de gráficos OBJ. De esta manera, se completa el procesamiento de restablecimiento de un objeto de gráficos incluido en una entrada de datos. Las etapas S4101-S4105 se excluyen por el tiempo indicado por la PTS incluida en el mismo paquete de PES que el objeto de gráficos.
El decodificador 4073 de IG decodifica los paquetes de TS recibidos desde el filtro 4040 de PID en el objeto de gráficos descomprimidos. El decodificador 4073 de IG escribe adicionalmente el objeto de gráficos descomprimido en la memoria 4093 de plano de IG en el tiempo mostrado por las PTS incluidas en los paquetes de PES restaurados desde los paquetes de TS. Los detalles sobre estos procedimientos son los mismos que en el decodificador 4072 de pG.
El decodificador 4074 de audio primario almacena en primer lugar los paquetes de TS recibidos desde el filtro 4040 de PID en una memoria intermedia proporcionada en el mismo. Posteriormente, el decodificador 4074 de audio primario elimina el encabezamiento de TS y el encabezamiento de PES desde cada paquete de TS en la memoria intermedia, y decodifica los datos restantes en datos de audio de LPCM descomprimidos. Adicionalmente, el decodificador 4074 de audio primario transmite los datos de audio resultantes al mezclador 4095 de audio en el tiempo mostrado por la PTS incluida en el paquete de PES original. El decodificador 4074 de audio primario selecciona el procedimiento de decodificación para datos de audio comprimidos de acuerdo con el procedimiento de codificación de compresión y los atributos de flujo para el flujo de audio principal incluido en los paquetes de TS. Los procedimientos de codificación de compresión incluyen, por ejemplo, AC-3 y DTS.
El decodificador 4075 de audio secundario tiene la misma estructura que el decodificador 4074 de audio primario. El decodificador 4075 de audio secundario reconstruye en primer lugar paquetes de PES desde los paquetes de TS del flujo de audio secundario recibidos desde el filtro 4040 de PID y a continuación decodifica los datos incluidos en las cargas útiles de PES en datos de audio de LPCM descomprimidos. Posteriormente, el decodificador 4075 de audio secundario transmite los datos de audio descomprimidos de LPCM al mezclador 4095 de audio en los tiempos mostrados por las PTS incluidas en los encabezamientos de PES. El decodificador 4075 de audio secundario selecciona el procedimiento de decodificación para datos de audio comprimidos de acuerdo con el procedimiento de codificación de compresión y los atributos de flujo para el flujo de audio secundario incluido en los paquetes de TS. Procedimientos de codificación de compresión incluyen, por ejemplo, Dolby Digital Plus y DTS-HD LBR.
El mezclador 4095 de audio recibe datos de audio descomprimidos tanto desde el decodificador 4074 de audio primario como del decodificador 4075 de audio secundario y a continuación mezcla los datos recibidos. El mezclador 4095 de audio también transmite el sonido sintetizado producido mezclando datos de audio en, por ejemplo, un altavoz 103A interno del dispositivo 103 de visualización.
El procesador 4080 de imagen recibe datos de gráficos, es decir, datos por puntos PNG o JPEG, desde la unidad 3734 de ejecución de programa. Tras recibir los datos de gráficos, el procesador 4080 de imagen restablece los datos de gráficos y escribe los datos de gráficos en la memoria 4094 de plano de imagen.
<Estructura del dispositivo de reproducción en 3D>
Cuando se reproduce contenido de vídeo en 3D desde el disco 101 BD-ROM en un modo de reproducción en 3D, el dispositivo 102 de reproducción opera como un dispositivo de reproducción en 3D. La parte fundamental de la estructura del dispositivo es idéntica al dispositivo de reproducción en 2D mostrado en las Figuras 37 y 40. Por lo tanto, lo siguiente es una descripción sobre las secciones de la estructura del dispositivo de reproducción en 2D que están ampliadas o modificadas. Detalles sobre las partes fundamentales del dispositivo de reproducción en 3D pueden hallarse en la descripción anterior sobre el dispositivo de reproducción en 2D. El dispositivo de reproducción en 3D también utiliza la misma estructura que el dispositivo de reproducción en 2D para procesamiento de reproducción de lista de reproducción en 2D. Por consiguiente, los detalles sobre esta estructura pueden hallarse en la descripción sobre el dispositivo de reproducción en 2D. La siguiente descripción supone procesamiento de reproducción de las imágenes de vídeo en 3D de acuerdo con ficheros de lista de reproducción en 3D, es decir procesamiento de reproducción de lista de reproducción en 3D.
5
10
15
20
25
30
35
40
45
50
55
60
La Figura 42 es un diagrama de bloques funcional de un dispositivo 4200 de reproducción en 3D. El dispositivo 4200 de reproducción en 3D incluye una unidad 4201 de BD-ROM, unidad 4202 de reproducción y unidad 4203 de control. La unidad 4202 de reproducción incluye un conmutador 4220, primera memoria intermedia de lectura (en lo sucesivo, abreviado como RB1) 4221, segunda memoria intermedia de lectura (en lo sucesivo, abreviado como RB2) 4222, decodificador 4225 objetivo de sistema, sumador 4226 de planos y unidad 4227 de comunicación de HDMI. La unidad 4203 de control incluye una memoria 4231 de escenario dinámico, memoria 4232 de escenario estático, unidad 4233 de procesamiento de evento de usuario, unidad 4234 de ejecución de programa, unidad 4235 de control de reproducción, y unidad 4236 de almacenamiento variable de reproductor. La unidad 4202 de reproducción y la unidad 4203 de control se implementan cada una en un circuito integrado diferente, aunque pueden implementarse como alternativa en un único circuito integrado. En particular, la memoria 4231 de escenario dinámico, memoria 4232 de escenario estático, unidad 4233 de procesamiento de evento de usuario, y unidad 4234 de ejecución de programa tienen una estructura idéntica con el dispositivo de reproducción en 2D mostrado en la Figura 37. Por consiguiente, pueden hallarse detalles del mismo en la descripción anterior sobre el dispositivo de reproducción en 2D.
Cuando se ordena por la unidad 4234 de ejecución de programa u otra unidad realizar el procesamiento de reproducción de lista de reproducción en 3D, la unidad 4235 de control de reproducción lee una Pi desde el fichero de lista de reproducción en 3D almacenado en la memoria 4232 de escenario estático para, establecer la PI leída como la PI actual. Cada vez que la unidad 4235 de control de reproducción establece una PI actual, establece condiciones de operación en el decodificador 4225 objetivo de sistema y el sumador 4226 de planos de acuerdo con la tabla de STN del PI y la tabla de STN SS en el fichero de lista de reproducción en 3D. Específicamente, la unidad 4235 de control de reproducción selecciona el PID del flujo elemental para decodificar y transmitir el PID, junto con la información de atributo necesaria para decodificar el flujo elemental, al decodificador 4225 objetivo de sistema. Si un flujo de PG o flujo de IG está incluido en el flujo elemental indicado por el PID seleccionado, la unidad 4235 de control de reproducción especifica el ID 3201 de desplazamiento de referencia y valor 3202 de ajuste de compensación asignado a los datos de flujo, ajustando el ID 3201 de desplazamiento de referencia y valor 3202 de ajuste de compensación al SPRM(27) y SPRM(28) en la unidad 4236 de almacenamiento variable de reproductor. La unidad 4235 de control de reproducción también selecciona el modo de presentación de cada pieza de datos de plano de acuerdo con la compensación durante el elemento emergente 3311 indicado por la tabla de STN SS, que indica el modo de presentación seleccionado al decodificador 4225 objetivo de sistema y al sumador 4226 de planos.
A continuación, de acuerdo con la PI actual, la unidad 4235 de control de reproducción indica el intervalo de los LBN en el grupo de sectores registrados en el segmento SS para leerse en la unidad 4201 de BD-ROM mediante los procedimientos en la descripción en la Figura 24E. Mientras tanto, la unidad 4235 de control de reproducción hace referencia a los puntos de inicio de segmento en el fichero de información de clip almacenados en la memoria 4232 de escenario estático para generar información que indica el límite de los bloques de datos en cada segmento SS. Esta información indica, por ejemplo, el número de paquetes de origen desde la parte superior del segmento SS a cada límite. La unidad 4235 de control de reproducción a continuación transmite esta información al conmutador 4220.
La unidad 4236 de almacenamiento variable de reproductor incluye los SPRM mostrados en la Figura 38, como la unidad 3736 de almacenamiento variable de reproductor en el dispositivo de reproducción en 2D. Sin embargo, a diferencia de la Figura 38, el SPRM(24) incluye la primera bandera, y el SPRM(25) incluye la segunda bandera, como se muestra en la Figura 36. En este caso, cuando el SPRM(24) es “0”, el dispositivo 102 de reproducción únicamente soporta reproducción de imágenes de vídeo en 2D, y cuando el SPRM(24) es “1”, el dispositivo 102 de reproducción también soporta reproducción de imágenes de vídeo en 3D. El dispositivo 102 de reproducción está en modo L/R cuando el SPRM(25) es “0” y está en modo de profundidad cuando el SPRM(25) es “1”. Adicionalmente, el dispositivo 102 de reproducción está en modo de reproducción en 2D cuando el SPRM(25) es “2”.
Adicionalmente, en la unidad 4236 de almacenamiento variable de reproductor, a diferencia de la Figura 38, el SPRM(27) incluye un área de almacenamiento para un ID de compensación de referencia para cada plano de gráficos, y el SPRM(28) incluye un área de almacenamiento para un valor de ajuste de compensación para cada plano de gráficos. La Figura 43 es una tabla que muestra una estructura de datos de SPRM(27) y SPRM(28). Como se muestra en la Figura 43, el SPRM(27) incluye un área para almacenar cuatro tipos de ID 4310-4313 de compensación de referencia. Estos ID 4310, 4311, 4312 y 4313 de compensación de referencia son respectivamente para un plano de PG (PG_ref_offset_id), plano de IG (IG_ref_offset_id), plano de vídeo secundario (SV_ref_offset_id) y plano de imagen (IM_ref_offset_id). El SPRM(28) incluye un área para almacenar cuatro tipos de valores 4320-4323 de ajuste de compensación. Estos valores 4320, 4321, 4322 y 4323 de ajuste de compensación son respectivamente para un plano de PG (PG_offset_adjustment), plano de IG (IG_offset_adjustment), plano de vídeo secundario (SV_offset_adjustment) y plano de imagen
(IM_offset_adjustment).
La unidad 4201 de BD-ROM incluye los mismos componentes que la unidad 3701 de BD-ROM en el dispositivo de reproducción en 2D mostrado en la Figura 37. Tras recibir una indicación desde la unidad 4235 de control de reproducción de un intervalo de LBN, la unidad 4201 de BD-ROM lee datos desde los sectores en el disco 101 BD- rOm como se indica por el intervalo. En particular, un grupo de paquetes de origen que pertenecen a un segmento
5
10
15
20
25
30
35
40
45
50
55
60
en el fichero SS, es decir que pertenecen a un segmento SS, se transmite desde la unidad 4201 de BD-ROM al conmutador 4220. Cada segmento SS incluye uno o más pares de un bloque de datos de vista de base y de vista dependiente, como se muestra en la Figura 19. Estos bloques de datos tienen que transferirse en paralelo a diferentes RB1 4221 y RB2 4222. Por consiguiente, la unidad 4201 de BD-ROM se requiere que al menos tenga la misma velocidad de acceso que la unidad 3701 de BD-ROM en el dispositivo de reproducción en 2D.
El conmutador 4220 recibe un segmento SS desde la unidad 4201 de BD-ROM. Por otra parte, el conmutador 4220 recibe, desde la unidad 4235 de control de reproducción, información que indica el límite en cada bloque de datos incluido en el segmento SS, es decir el número de paquetes de origen desde la parte superior del segmento SS a cada límite. El conmutador 4220 a continuación hace referencia a esta información (i) para extraer segmentos de vista de base desde cada segmento SS y transmite los segmentos a la RB1 4221, y (ii) para extraer segmentos de vista dependiente y transmitir los segmentos a la RB2 4222.
La RB1 4221 y RB2 4222 son memorias de memoria intermedia que usan un elemento de memoria en la unidad 4202 de reproducción. En particular, se usan diferentes áreas en un único elemento de memoria como la RB1 4221 y RB2 4222. Como alternativa, pueden usarse diferentes elementos de memoria como la RB1 4221 y RB2 4222. La RB1 4221 recibe segmentos de vista de base desde el conmutador 4220 y almacena estos segmentos. La RB2 4222 recibe segmentos de vista dependiente desde el conmutador 4220 y almacena estos segmentos.
En el procesamiento de reproducción de lista de reproducción en 3D, el decodificador 4225 objetivo de sistema recibe en primer lugar los PID para datos de flujo a decodificar, así como información de atributo necesaria para decodificar los datos de flujo, desde la unidad 4235 de control de reproducción. El decodificador 4225 objetivo de sistema a continuación lee paquetes de origen de manera alterna desde segmentos de vista de base almacenados en la RB1 4221 y segmentos de vista dependiente almacenados en la RB2 4222. A continuación, el decodificador 4225 objetivo de sistema separa, de cada paquete de origen, flujos elementales indicado por los PID recibidos desde la unidad 4235 de control de reproducción y decodifica los flujos elementales. El decodificador 4225 objetivo de sistema a continuación escribe los flujos elementales decodificados en la memoria de plano interno de acuerdo con el tipo de los mismos. El flujo de vídeo de vista de base se escribe en la memoria de plano de vídeo izquierdo, y el flujo de vídeo de vista dependiente se escribe en la memoria de plano de vídeo derecho. Por otra parte, el flujo de vídeo secundario se escribe en la memoria de plano de vídeo secundario, el flujo de IG en la memoria de plano de IG y el flujo de PG en la memoria de plano de PG. Cuando el flujo de vídeo secundario está compuesto de un par de un flujo de vídeo de vista de base y de vista dependiente, se preparan memorias de plano de vídeo secundario separadas para tanto las piezas de datos de plano de la vista izquierda como de la vista derecha. El decodificador 4225 objetivo de sistema restablece adicionalmente datos de gráficos desde la unidad 4234 de ejecución de programa, tal como JPEG, PNG, etc., datos por puntos, y escribe estos datos en la memoria de plano de imagen.
El decodificador 4225 objetivo de sistema asocia el modo de salida de datos de plano desde las memorias de plano de vídeo izquierdo y derecho con modo de presentación B-D y modo de presentación B-B como sigue. Cuando la unidad 4235 de control de reproducción indica modo de presentación B-D, el decodificador 4225 objetivo de sistema emite de manera alterna datos de plano desde las memorias de plano de vídeo izquierdo y de vídeo derecho. Por otra parte, cuando la unidad 4235 de control de reproducción indica modo de presentación B-B, el decodificador
4225 objetivo de sistema emite datos de plano desde únicamente la memoria de plano de vídeo izquierdo o de vídeo derecho dos veces por fotograma mientras mantiene el modo de operación en un modo de reproducción en 3D.
Cuando la unidad 4235 de control de reproducción indica modo de 1 plano + compensación, a continuación cada vez que el decodificador 4225 objetivo de sistema lee la VAU en la parte superior de cada secuencia de vídeo desde el flujo de vídeo de vista dependiente, el decodificador 4225 objetivo de sistema lee los metadatos 1110 de compensación desde la VAU. En la sección de reproducción de la secuencia de vídeo, el decodificador 4225 objetivo de sistema especifica en primer lugar la PTS almacenada en el mismo paquete de PES junto con cada VAU y especifica el número del fotograma representado por los datos de instantánea comprimida de la VAU. El decodificador 4225 objetivo de sistema a continuación lee la información de compensación asociada con el número de fotograma desde los metadatos de compensación y transmite la información de compensación al sumador 4226 de planos en el tiempo indicado por la PTS especificada.
El sumador 4226 de planos recibe cada tipo de datos de plano desde el decodificador 4225 objetivo de sistema y superpone estas piezas de datos de plano unas con las otras para crear un fotograma o campo combinados. En particular, en modo L/R, los datos de plano de vídeo izquierdo representan un plano de vídeo de la vista izquierda, y los datos de plano de vídeo derecho representan un plano de vídeo de vista derecha. Por consiguiente, el sumador
4226 de planos superpone otros datos de plano que representan la vista izquierda en los datos de plano de vídeo izquierdo y superpone otros datos de plano que representan la vista derecha en los datos de plano de vídeo derecho. Por otra parte, en modo de profundidad, los datos de plano de vídeo derecho representan un mapa de profundidad para el plano de vídeo que representa los datos de plano de vídeo izquierdo. Por consiguiente, el sumador 4226 de planos genera en primer lugar un par de piezas de datos de plano de vídeo de la vista izquierda y de la vista derecha desde las correspondientes piezas de datos de plano de vídeo. Posteriormente, el sumador 4226 de planos realiza el mismo procesamiento de combinación que en modo L/R.
Cuando se recibe una indicación de modo de 1 plano + compensación o modo de 1 plano + compensación cero
5
10
15
20
25
30
35
40
45
50
55
desde la unidad 4235 de control de reproducción como el modo de presentación para el plano de vídeo secundario, plano de PG, plano de IG o plano de imagen, el sumador 4226 de planos realiza control de compensación en los datos de plano recibidos desde el decodificador 4225 objetivo de sistema. Un par de datos de plano de vista izquierda y datos de plano de vista derecha se genera de esta manera.
En particular, cuando se indica modo de 1 plano + compensación, el sumador 4226 de planos lee en primer lugar uno de los ID 4310-4313 de compensación de referencia que corresponde a cada plano de gráficos desde el SPRM(27) en la unidad 4236 de almacenamiento variable de reproductor. A continuación, el sumador 4226 de planos hace referencia a la información de compensación recibida desde el decodificador 4225 objetivo de sistema para recuperar información de compensación, en concreto una dirección 1122 de compensación y valor 1123 de compensación, que pertenecen a la secuencia 1113 de compensación indicado por cada ID 4310-4313 de compensación de referencia. Posteriormente, el sumador 4226 de planos lee uno de los valores 4320-4323 de ajuste de compensación que corresponde a cada plano de gráficos desde el SPRM(28) en la unidad 4236 de almacenamiento variable de reproductor y añade cada valor de ajuste de compensación al correspondiente valor de compensación. El sumador 4226 de planos a continuación usa cada valor de compensación para realizar control de compensación en el correspondiente plano de gráficos.
Por otra parte, cuando se indica modo de 1 plano + compensación cero, el sumador 4226 de planos no hace referencia a cualquiera del SPRM(27) o el SPRM(28), sino que en su lugar realiza control de compensación en cada plano de gráficos con un valor de compensación de “0”. Por consiguiente, se usan los mismos datos de plano para tanto el plano de gráficos de la vista izquierda como de vista derecha y se combinan con otras piezas de datos de plano.
La unidad 4227 de comunicación de HDMI, conectada con el dispositivo 103 de visualización mediante un cable 122 de HDMI, intercambia mensajes de CEC con el dispositivo 103 de visualización mediante el cable 122 de HDMI. Esto provoca que la unidad 4227 de comunicación de HDMI realice una autenticación de HDMI del dispositivo 103 de visualización y solicite el dispositivo 103 de visualización si se soporta o no la reproducción de imágenes de vídeo en 3D.
«Procesamiento de reproducción de lista de reproducción en 3D>>
La Figura 44 es un diagrama de flujo procesamiento de reproducción de lista de reproducción en 3D mediante una unidad 4235 de control de reproducción. El procesamiento de reproducción de lista de reproducción en 3D se inicia por la unidad 4235 de control de reproducción que lee un fichero de lista de reproducción en 3D desde la memoria 4232 de escenario estático.
En la etapa S4401, la unidad 4235 de control de reproducción lee en primer lugar una única PI desde una ruta principal en el fichero de lista de reproducción en 3D y a continuación establece la PI como la PI actual. A continuación, desde la tabla de STN de la PI actual, la unidad 4235 de control de reproducción selecciona los PID de flujos elementales a reproducirse y especifica información de atributo necesaria para decodificar los flujos elementales. La unidad 4235 de control de reproducción selecciona adicionalmente, de entre los flujos elementales que corresponden a la PI actual en la tabla de STN SS en el fichero de lista de reproducción en 3D, un PID de flujos elementales que se han de añadir a los flujos elementales a reproducirse, y la unidad 4235 de control de reproducción especifica información de atributo necesaria para decodificar estos flujos elementales. Los PID seleccionados y la información de atributo se indican al decodificador 4225 objetivo de sistema. La unidad 4235 de control de reproducción especifica adicionalmente, de entre las sub-rutas en el fichero de lista de reproducción en 3D, un SUB_PI a hacerse referencia al mismo tiempo como la PI actual, que especifica este SUB_PI como el SUB_PI actual. Posteriormente, el procesamiento continúa a la etapa S4402.
En la etapa S4402, la unidad 4235 de control de reproducción selecciona el modo de visualización para cada pieza de datos de plano basándose en el desplazamiento durante el elemento emergente indicado por la tabla de STN SS e indica el modo de visualización al decodificador 4225 objetivo de sistema y al sumador 4226 de planos. En particular, cuando el valor del desplazamiento durante el elemento emergente es “0”, se selecciona el modo de presentación B-D como el modo de presentación de plano de vídeo, y se selecciona el modo de 1 plano + compensación como el modo de presentación para el plano de gráficos. Por otra parte, cuando el valor del desplazamiento durante el elemento emergente es “1”, se selecciona el modo de presentación B-B como el modo de presentación de plano de vídeo, y se selecciona el modo de 1 plano + compensación como el modo de presentación para el plano de gráficos. Posteriormente, el procesamiento continúa a la etapa S4403.
En la etapa S4403, la unidad 4235 de control de reproducción comprueba si se ha seleccionado el modo de 1 plano + compensación o modo de 1 plano + compensación cero como el modo de presentación del plano de gráficos. Si se ha seleccionado el modo de 1 plano + compensación, el procesamiento continúa a la etapa S4404. Si se ha seleccionado el modo de 1 plano + compensación cero, el procesamiento continúa a la etapa S4405.
En la etapa S4404, la unidad 4235 de control de reproducción hace referencia a la tabla de STN de la PI actual y recupera el flujo de IG, flujo de IG, o flujo de subtítulo de texto de entre los flujos elementales indicados por los PID seleccionados. Adicionalmente, la unidad 4235 de control de reproducción especifica el ID de compensación de
5
10
15
20
25
30
35
40
45
50
55
60
referencia y valor de ajuste de compensación asignados a las piezas de los datos de flujo, ajusta el ID de compensación de referencia y el valor de ajuste de compensación al SPRM(27) y SPRM(28) en la unidad 4236 de almacenamiento variable de reproductor. Posteriormente, el procesamiento continúa a la etapa S4405.
En la etapa S4405, la unidad 4235 de control de reproducción lee información de clip de referencia, una PTS n.° 1 que indica un tiempo de inicio de reproducción IN1, y una PTS n.° 2 que indica un tiempo de fin de reproducción OUT1 desde la PI actual y el SUB_PI. A partir de esta información de clip de referencia, se especifica un fichero de información de clip que corresponde a cada uno del fichero en 2D y el fichero DEP a reproducirse. Posteriormente, el procesamiento continúa a la etapa S4406.
En la etapa S4406, con referencia al mapa de entrada en cada uno de los ficheros de información de clip especificados en la etapa S4405, la unidad 4235 de control de reproducción recupera el SPN n.° 1 y SPN n.° 2 en el fichero en 2D, y el SPN n.° 11 y SPN n.° 12 en el fichero DEP, que corresponde a la PTS n.° 1 y a la PTS n.° 2. Como se describe con referencia a la Figura 24, haciendo referencia a puntos de inicio de segmento de cada fichero de información de clip, la unidad 4235 de control de reproducción calcula adicionalmente, desde el SPN n.° 1 y el SPN n.° 11, el número de paquetes de origen SPN n.° 21 desde la parte superior del fichero SS a la posición de inicio de reproducción. La unidad 4235 de control de reproducción también calcula, desde el SPN n.° 2 y el SPN n.° 12, el número de paquetes de origen SPN n.° 22 desde la parte superior del fichero SS a la posición de fin de reproducción. Específicamente, la unidad 4235 de control de reproducción recupera en primer lugar, de entre los SPN mostrados por los puntos de inicio de segmento de los ficheros de información de clip en 2D, un valor “Am” que es el valor más grande menor o igual que el SPN n.° 1, y recupera, de entre los SPN mostrados por los puntos de inicio de segmento de los ficheros de información de clip de vista dependiente, un valor “Bm” que es el valor más grande menor o igual que el SPN n.° 11. A continuación, la unidad 4235 de control de reproducción obtiene la suma de los SPN recuperados Am + Bm y establece la suma como el SPN n.° 21. A continuación, la unidad 4235 de control de reproducción recupera, de entre los SPN mostrados por los puntos de inicio de segmento de los ficheros de información de clip en 2D, un valor “An” que es el valor más pequeño que es mayor que el SPN n.° 2. La unidad 4235 de control de reproducción también recupera, desde los SPN de los puntos de inicio de segmento de los ficheros de información de clip de vista dependiente, un valor “Bn” que es el valor más pequeño que es mayor que el SPN n.° 12. A continuación, la unidad 4235 de control de reproducción obtiene la suma de los SPN recuperados An + Bn y establece la suma como SPN n.° 22. Posteriormente, el procesamiento continúa a la etapa S4407.
En la etapa S4407, la unidad 4235 de control de reproducción convierte el SPN n.° 21 y el SPN n.° 22, determinados en la etapa S4406, en un par de números de sectores N1 y N2. Específicamente, la unidad 4235 de control de reproducción obtiene en primer lugar el producto de SPN n.° 21 y la cantidad de datos por paquete de origen, es decir 192 bytes. A continuación, la unidad 4235 de control de reproducción divide este producto de la cantidad de datos por sector, es decir 2048 bytes: SPN n.° 21 x 192 / 2048. El cociente resultante es el mismo que el número de sectores N1 desde la parte superior del fichero SS a inmediatamente antes de la posición de inicio de reproducción. De manera similar, desde el SPN n.° 22, la unidad 4235 de control de reproducción calcula los SPN n.° 22 x 192 / 2048. El cociente resultante es el mismo que el número de sectores N2 desde la parte superior del fichero SS a inmediatamente antes de la posición de fin de reproducción. Posteriormente, el procesamiento continúa a la etapa S4408.
En la etapa S4408, la unidad 4235 de control de reproducción especifica, desde los números de sectores N 1 y N2 obtenidos en la etapa S4407, los LBN del grupo de segmentos SS superior e inferior a reproducirse. Específicamente, con referencia a la entrada de fichero del fichero SS a reproducirse, la unidad 4235 de control de reproducción cuenta desde la parte superior del grupo de sectores en los que se registra el grupo de segmentos SS de modo que el LBN del sector de orden (N1 + 1) = LBN n.° 1, y el LBN del sector de orden (N2 + 1) = LBN n.° 2. La unidad 4235 de control de reproducción especifica adicionalmente un intervalo desde el LBN n.° 1 al LBN n.° 2 a la unidad 4201 de BD-ROM. Como resultado, desde el grupo de sectores en el intervalo especificado, un grupo de paquetes de origen que pertenecen a un grupo de segmentos SS se lee en unidades alineadas. Posteriormente, el procesamiento continúa a la etapa S4409.
En la etapa S4409, haciendo referencia a los puntos de inicio de segmento del fichero de información de clip usados en la etapa S4406, la unidad 4235 de control de reproducción genera información (en lo sucesivo denominada como “información de límite de bloque de datos”) que indica un límite entre bloques de vista dependiente y bloques de datos de vista de base incluidos en el grupo de segmentos SS, que transmiten la información de límite de bloque de datos al conmutador 4220. Como un ejemplo específico, supóngase que el SPN n.° 21 que indica la posición de inicio de reproducción es el mismo que la suma de los SPN que indican los puntos de inicio de segmento, An + Bn, y que el SPN n.° 22 que indica la posición de fin de reproducción es el mismo que la suma de los SPN que indican los puntos de inicio de segmento, Am + Bm. En este caso, la unidad 4235 de control de reproducción obtiene una secuencia de diferencias entre los SPN desde los respectivos puntos de inicio de segmento, A(n + 1) - An, B(n + 1) - Bn, A(n + 2) - A(n + 1), B(n + 2) - B(n + 1), ..., Am - A(m -1), y Bm - B(m -1), y transmite la secuencia al conmutador 4220 como la información de límite de bloque de datos. Como se muestra en la Figura 24E, esta secuencia indica el número de paquetes de origen de bloques de datos incluidos en el segmento SS. El conmutador 4220 cuenta, desde cero, el número de paquetes de origen de los segmentos SS recibidos desde la unidad 4201 de BD-ROM. Cada vez que el recuento es el mismo que la diferencia entre los SPN indicada por la información de límite de bloque de datos, el conmutador 4220 conmuta el destino de salida de los paquetes de origen entre la RB1 4221 y la RB2 4222 y
5
10
15
20
25
30
35
40
45
50
55
resetea el contador a cero. Como resultado, se emiten {B(n + 1) - Bn} paquetes de origen desde la parte superior del segmento SS a la RB2 4222 como el primer segmento de vista dependiente, y los siguientes {A(n + 1) - An} paquetes de origen se transmiten a la RB1 4221 como el primer segmento de vista base. Posteriormente, se extraen segmentos de vista dependiente y segmentos de vista de base desde el segmento SS de manera alterna de la misma manera, alternando cada vez el número de paquetes de origen recibidos por el conmutador 4220 que es el mismo que la diferencia entre los SPN indicada por la información de límite de bloque de datos.
En la etapa S4410, la unidad 4235 de control de reproducción comprueba si queda una PI no procesada en la ruta principal. Cuando queda una PI no procesada, el procesamiento se repite desde la etapa S4401. Cuando no quedan PI sin procesar, el procesamiento finaliza.
<<Decodificador objetivo de sistema»
Los siguientes dos medios son concebibles como medios específicos usados por el decodificador 4225 objetivo de sistema para implementar la función para extraer metadatos de compensación desde el flujo de vídeo de vista dependiente. El primer medio incorpora un filtro de prioridad de TS y una unidad de procesamiento de metadatos en el decodificador 4225 objetivo de sistema como módulos separados del decodificador de vídeo principal. El filtro de prioridad de TS selecciona paquetes de TS que contienen metadatos de compensación y paquetes de TS que contienen instantáneas de vista dependiente, que dependen de los valores de banderas de prioridad de TS. La unidad de procesamiento de metadatos de compensación extrae información de compensación desde los paquetes de TS que contienen metadatos de compensación. El segundo medio provoca que los paquetes de TS que contienen un flujo de vídeo de vista dependiente se envíen al decodificador de vídeo principal en el decodificador 4225 objetivo de sistema, independientemente de los valores de banderas de prioridad de Ts. El decodificador de vídeo principal extrae información de compensación desde el flujo de vídeo de vista dependiente en paralelo con el procedimiento de la decodificación el flujo de vídeo de vista dependiente.
(Primer medio)
La Figura 45 es un diagrama de bloques funcional del decodificador 4225 objetivo de sistema usando el primer medio. Los componentes mostrados en la Figura 45 se diferencian de los componentes del decodificador objetivo de sistema 3724 en el dispositivo de reproducción en 2D mostrado en la Figura 40 como sigue: (A) el sistema de entrada desde las memorias intermedias de lectura a los decodificadores tiene una configuración dúplex; y (B) se proporciona el filtro de prioridad de TS y la unidad de procesamiento de metadatos de compensación. El decodificador de audio primario, decodificador de audio secundario, mezclador de audio, procesador de imagen y memorias de plano tienen estructuras similares a aquellas en el dispositivo de reproducción en 2D mostrado en la Figura 40. Por consiguiente, entre los componentes mostrados en la Figura 45, se describen a continuación unos diferentes de los componentes mostrados en la Figura 40. Por otra parte, los detalles de componentes similares pueden hallarse en la descripción en la Figura 40. Adicionalmente, puesto que cada uno de los decodificadores de vídeo tiene una estructura similar, la estructura del decodificador 4515 de vídeo primario se describe a continuación. Esta descripción también es válida para las estructuras de otros decodificadores de vídeo.
El primer desempaquetador 4511 de origen lee paquetes de origen desde la primera memoria intermedia 4221 de lectura. El primer desempaquetador 4511 de origen recupera adicionalmente paquetes de TS incluidos en los paquetes de origen y transmite los paquetes de TS al primer filtro 4513 de PID. El segundo desempaquetador 4512 de origen lee paquetes de origen desde la segunda memoria intermedia 4222 de lectura, recuperando adicionalmente los paquetes de TS incluidos en los paquetes de origen y transmitiendo los paquetes de TS al segundo filtro 4514 de PID. Cada uno de los desempaquetadores 4511 y 4512 de origen sincroniza adicionalmente el tiempo de transferencia de los paquetes de TS con el tiempo mostrado por la ATS de cada paquete de origen. Este procedimiento de sincronización es el mismo procedimiento que el desempaquetador 4010 de origen mostrado en la Figura 40. Por consiguiente, pueden hallarse detalles del mismo en la descripción proporcionada para la Figura 40. Con este tipo de ajuste de tiempo de transferencia, la tasa de transferencia media de los paquetes de TS desde el primer desempaquetador 4511 de origen al primer filtro 4513 de PID no supera la tasa de sistema Rts1 indicada por el fichero de información de clip en 2D. De manera similar, la tasa de transferencia media de paquetes de TS desde el segundo desempaquetador 4512 de origen al segundo filtro 4514 de PID no supera la tasa de sistema Rts2 indicada por el fichero de información de clip de vista dependiente.
El primer filtro 4513 de PID compara el PID de cada paquete de TS recibido desde el primer desempaquetador 4511 de origen con el PID seleccionado. La unidad 4235 de control de reproducción designa el PID seleccionado de antemano de acuerdo con la tabla de STN en el fichero de lista de reproducción en 3D. Cuando los dos PID coinciden, el primer filtro 4513 de PID transfiere los paquetes de TS al decodificador asignado al PID. Por ejemplo, si un PID es 0x1011, los paquetes de TS se transfieren a la TB1 4501 en el decodificador 4515 de vídeo primario. Por otra parte, los paquetes de TS con PID que varían desde 0x1B00-0x1B1F, 0x1100-0x111F, 0x1A00-0x1A1F, 0x1200-0x121F y 0x1400-0x141F se transfieren al decodificador de vídeo secundario, decodificador de audio primario, decodificador de audio secundario, decodificador de PG y decodificador de IG, respectivamente.
El segundo filtro 4514 de PID compara el PID de cada paquete de TS recibido desde el segundo desempaquetador 4512 de origen con el PID seleccionado. La unidad 4235 de control de reproducción designa el PID seleccionado de
5
10
15
20
25
30
35
40
45
50
55
antemano de acuerdo con la tabla de STN SS en el fichero de lista de reproducción en 3D. Cuando los dos PID coinciden, el segundo filtro 4514 de PID transfiere los paquetes de TS al decodificador asignado al PID o al filtro 4551 de prioridad de TS. Por ejemplo, si un PID es 0x1012 o 0x1013, los paquetes de TS se transfieren al filtro 4551 de prioridad de TS. Por otra parte, los paquetes de TS con PID que varían desde 0x1B20-0x1B3F, 0x1220-0x127F y 0x1420-0x147F se transfieren al decodificador de vídeo secundario, decodificador de PG y decodificador de IG, respectivamente.
El filtro 4551 de prioridad de TS recibe paquetes de TS desde el segundo filtro 4514 de PID y lee la prioridad 511 de TS desde el encabezamiento 501H de TS en cada de los paquetes de TS. En este punto, los paquetes de TS con PID = 0x1012 o 0x1013 se transfieren desde el segundo filtro 4514 de PID al filtro 4551 de prioridad de TS. Estos paquetes de TS contienen un flujo de vídeo de vista dependiente.
Entre los paquetes de TS en la secuencia 1520 mostrados en la Figura 15, el primer grupo 1521 y el tercer grupo 1523 tienen la prioridad de TS de “0,” y el segundo grupo 1522 tiene la prioridad de TS de “1”. El filtro 4551 de prioridad de TS transfiere paquetes de TS con prioridad de TS = 0 desde la secuencia 1520 a la TB2 4508 en el decodificador 4515 de vídeo primario, y los paquetes de TS con prioridad de TS = 1 a la unidad 4552 de procesamiento de metadatos de compensación. Como se muestra en la Figura 15, los paquetes de TS con prioridad de TS = 1 pertenecen al segundo grupo 1522. Por consiguiente, las cargas útiles de TS de los mismos incluyen únicamente los datos 1504 complementarios que consisten únicamente en los metadatos 1509 de compensación. Como resultado, entre la VAU n.° 1 en el flujo de vídeo de vista dependiente, los datos complementarios que consisten únicamente en los metadatos 1509 de compensación se transfieren a la unidad 4552 de procesamiento de metadatos de compensación, y los datos restantes, que incluyen otros datos complementarios, se transfieren al decodificador 4515 de vídeo primario.
Entre los paquetes de TS en la secuencia 1620 mostrados en la Figura 16, el primer grupo 1621 y el segundo grupo 1622 tienen la prioridad de TS de “1”, y el tercer grupo 1623 tiene la prioridad de TS de “0”. El filtro 4551 de prioridad de TS transfiere paquetes de TS con prioridad de TS = 0 desde la secuencia 1620 a la TB2 4508 en el decodificador 4515 de vídeo primario, y los paquetes de TS con prioridad de TS = 1 a tanto la TB2 4508 como a la unidad 4552 de procesamiento de metadatos de compensación. Por consiguiente, la VAU n.° 1 en el flujo de vídeo de vista dependiente se transfiere al decodificador 4515 de vídeo primario, mientras que los elementos desde el código de identificación de sub-AU a los datos complementarios se transfieren a la unidad 4552 de procesamiento de metadatos de compensación también.
El decodificador 4515 de vídeo primario incluye una TB1 4501, MB1 4502, EB1 4503, TB2 4508, MB2 4509, EB2 4510, conmutador 4506 de memoria intermedia, DEC 4504, DPB 4505 y conmutador 4507 de instantánea. La TB1 4501, MB1 4502, EB1 4503, TB2 4508, MB2 4509, EB2 4510 y DPB 4505 son todas memorias de memoria intermedia. Cada una de estas memorias de memoria intermedia usa un área de un elemento de memoria incluida en el decodificador 4515 de vídeo primario. Como alternativa, algunas o todas estas memorias de memoria intermedia pueden separarse en diferentes elementos de memoria.
La TB1 4501 recibe paquetes de TS que incluyen un flujo de vídeo de vista de base desde el primer filtro 4513 de PID y almacena los paquetes de TS como están. La MB1 4502 almacena paquetes de PES reconstruidos desde los paquetes de TS almacenados en la TB1 4501. Los encabezamientos de Ts de los paquetes de TS se eliminan en este punto. La EB1 4503 extrae y almacena las VAU codificadas desde los paquetes de PES almacenados en la MB1 4502. Los encabezamientos de PES de los paquetes de PES se eliminan en este punto.
La TB2 4508 recibe paquetes de TS que incluyen el flujo de vídeo de vista dependiente desde el filtro 4551 de prioridad de TS y almacena los paquetes de TS como están. La MB2 4509 almacena paquetes de PES reconstruidos desde los paquetes de TS almacenados en la TB2 4508. Los encabezamientos de Ts de los paquetes de TS se eliminan en este punto. La EB2 4510 extrae y almacena las VAU codificadas desde los paquetes de PES almacenados en la MB2 4509. Los encabezamientos de PES de los paquetes de PES se eliminan en este punto.
El conmutador 4506 de memoria intermedia transfiere los encabezamientos de las VAU almacenadas en la EB1 4503 y la EB2 4510 en respuesta a una solicitud desde el DEC 4504. Adicionalmente, el conmutador 4506 de memoria intermedia transfiere los datos de instantánea comprimida para las VAU al DEC 4504 en los tiempos indicados por las DTS incluidas en los paquetes de PES originales. En este caso, las DTS son iguales entre un par de instantáneas que pertenecen a la misma VAU en 3D entre el flujo de vídeo de vista de base y flujo de vídeo de vista dependiente. Por consiguiente, para un par de VAU que tienen la misma DTS, el conmutador 4506 de memoria intermedia transmite en primer lugar la vAu almacenada en la EB1 4503 al DEC 4504. Adicionalmente, el conmutador 4506 de memoria intermedia puede provocar que el DEC 4504 devuelva la información 1750 de conmutación de decodificación en la VAU. En un caso de este tipo, el conmutador 4506 de memoria intermedia puede determinar si debiera transferir la siguiente VAU desde la EB1 4503 o la EB2 4510 haciendo referencia a la información 1750 de conmutación de decodificación.
Como el DEC 4004 mostrado en la Figura 40, el DEC 4504 es un decodificador de hardware específicamente para decodificación de instantáneas comprimidas y está compuesto de un LSI que incluye, en particular, una función para acelerar la decodificación. El DEC 4504 decodifica los datos de instantánea comprimida transferidos desde el
5
10
15
20
25
30
35
40
45
50
55
conmutador 4506 de memoria intermedia en orden. Durante la decodificación, el DEC 4504 analiza en primer lugar cada encabezamiento de VAU para especificar la instantánea comprimida, procedimiento de codificación de compresión y atributo de flujo almacenado en la VAU, seleccionando un modo de decodificación de acuerdo con esta información. Procedimientos de codificación de compresión incluyen, por ejemplo, MPEG-2, MPEG-4 AVC, MVC y VC1. Adicionalmente, el DEC 4504 transmite la instantánea descomprimida decodificada a la DPB 4505.
La DPB 4505 almacena temporalmente las instantáneas descomprimidas decodificadas por el DEC 4504. Cuando el DEC 4504 decodifica una instantánea P o una instantánea B, la DPB 4505 recupera instantáneas de referencia de entre las instantáneas descomprimidas almacenadas en respuesta a una solicitud desde el DEC 4504 y suministra las instantáneas de referencia recuperadas al DEC 4504.
El conmutador 4507 de instantáneas escribe las instantáneas descomprimidas desde la DPB 4505 a cualquiera de la memoria 4520 de plano de vídeo izquierdo o a la memoria 4521 de plano de vídeo derecho en el tiempo indicado por la PTS incluida en el paquete de pEs original. En este caso, las PTS son iguales entre una instantánea de vista de base y una instantánea de vista dependiente que pertenecen a la misma VAU en 3D. Por consiguiente, para un par de instantáneas que tienen la misma PTS y que se almacenan por la DPB 4505, el conmutador 4507 de instantáneas escribe en primer lugar la instantánea de vista de base en la memoria 4520 de plano de vídeo izquierdo y a continuación escribe la instantánea de vista dependiente en la memoria 4521 de plano de vídeo derecho.
La unidad 4552 de procesamiento de metadatos de compensación se implementa en el mismo chip que el decodificador 4515 de vídeo primario, pero configurada como un módulo separado del decodificador 4515 de vídeo primario. Como alternativa, la unidad 4552 de procesamiento de metadatos de compensación puede implementarse en un chip separado del chip en el que se implementa el decodificador 4515 de vídeo primario. Adicionalmente, la unidad 4552 de procesamiento de metadatos de compensación puede configurarse como hardware especializado o realizarse como un hardware de fin general controlado por software. La unidad 4552 de procesamiento de metadatos de compensación analiza paquetes de TS transferidos desde el filtro 4551 de prioridad de TS, y a continuación lee metadatos de compensación desde datos complementarios almacenados en las cargas útiles de TS de los paquetes de TS.
La secuencia de paquetes 1520 de TS mostrada en la Figura 15 contiene el encabezamiento de PES que pertenece al mismo paquete de PES como la VAU n.° 1 en el grupo de paquetes de TS para que se transfiera al decodificador 4515 de vídeo primario. Por consiguiente, la unidad 4552 de procesamiento de metadatos de compensación lee la PTS del fotograma representado por la VAU n.° 1 desde los metadatos de compensación. Por otra parte, la secuencia de paquetes 1620 de TS mostrada en la Figura 16 contiene el encabezamiento de PES en el grupo de paquetes de Ts para que se transfiera a la unidad 4552 de procesamiento de metadatos de compensación, así como el grupo de paquetes de TS para que se transfiera al decodificador 4515 de vídeo primario. Por consiguiente, la unidad 4552 de procesamiento de metadatos de compensación puede leer la PTS del fotograma representado por la VAU n.° 1 desde cualquiera del encabezamiento de PES y los metadatos de compensación.
La unidad 4552 de procesamiento de metadatos de compensación incrementa el número de fotograma en 1 a intervalos de fotograma, empezando desde 0 en el tiempo indicado por la PTS. En sincronización con la acción del incremento, la unidad 4552 de procesamiento de metadatos de compensación recupera adicionalmente información de compensación asociada con cada número de fotograma desde los metadatos de compensación, y a continuación transmite la información de compensación al sumador 4226 de planos. En este punto, el filtro 4551 de prioridad de TS evita que los datos de instantánea comprimidos se transfieran desde cualquiera de las secuencias de paquetes 1520 y 1620 de TS mostradas en las Figuras 15 y 16 a la unidad 4552 de procesamiento de metadatos de compensación. Por consiguiente, la unidad 4552 de procesamiento de metadatos de compensación puede gestionar de manera fiable la información de compensación sin interferencia desde los datos de instantánea comprimida.
(Segundo medio)
La Figura 46 es un diagrama de bloques funcional que muestra un sistema para procesar flujos de vídeo, el sistema incluido en el decodificador 4225 objetivo de sistema que usa el segundo medio. El decodificador 4225 objetivo de sistema mostrado en la Figura 46 se diferencia del mostrado en la Figura 45 en la función del DEC 4604 en el decodificador 4614 de vídeo primario. Otros componentes son similares a los correspondientes. En la Figura 46, los componentes similares a los mostrados en la Figura 45 se marcan con los mismos números de referencia. Adicionalmente, los detalles de los componentes similares pueden hallarse en la descripción en la Figura 45.
Como el DEC 4504 mostrado en la Figura 45, el DEC 4604 es un decodificador de hardware específicamente para decodificación de instantáneas comprimidas, y está compuesto de un LSI que incluye, en particular, una función para acelerar la decodificación. El DEC 4604 decodifica los datos de instantánea comprimida transferidos desde el conmutador 4506 de memoria intermedia en orden, y transfiere las instantáneas descomprimidas decodificadas a la DPB 4505. Adicionalmente, cada vez que lee una VAU localizada en la parte superior de cada secuencia de vídeo desde el flujo de vídeo de vista dependiente, el DEC 4604 lee metadatos de compensación desde la VAU. En la sección de reproducción de la secuencia de vídeo, el DEC 4604 identifica en primer lugar la PTS que se almacena en el mismo paquete de PES como la VAU, y el número de fotograma representado por los datos de instantánea comprimida de la VAU. A continuación, el DEC 4604 lee información de compensación asociada con el número de
5
10
15
20
25
30
35
40
45
50
55
fotograma desde los metadatos de compensación, y envía la información de compensación al sumador 4226 de planos en el tiempo indicado por la PTS indicada.
«Sumadores de plano>>
La Figura 47 es un diagrama de bloques funcional de un sumador 4226 de planos. Como se muestra en la Figura 47, el sumador 4226 de planos incluye una unidad 4710 de generación de vídeo de paralaje, el conmutador 4720, cuatro unidades 4731-4734 de recorte, y cuatro sumadores 4741-4744.
La unidad 4710 de generación de vídeo de paralaje recibe datos 4701 de plano de vídeo izquierdo y datos 4702 de plano de vídeo derecho desde el decodificador 4225 objetivo de sistema. En el dispositivo 102 de reproducción en modo L/R, los datos 4701 de plano de vídeo izquierdo representan el plano de vídeo de la vista izquierda, y los datos 4702 de plano de vídeo derecho representan el plano de vídeo de la vista derecha. En este punto, la unidad 4710 de generación de vídeo de paralaje transmite los datos 4701 de plano de vídeo izquierdo y los datos 4702 de plano de vídeo derecho como están al conmutador 4720. Por otra parte, en el dispositivo 102 de reproducción en modo de profundidad, los datos 4701 de plano de vídeo izquierdo representan el plano de vídeo para imágenes de vídeo en 2D, y los datos 4702 de plano de vídeo derecho representan un mapa de profundidad para las imágenes de vídeo en 2D. En este caso, la unidad 4710 de generación de vídeo de paralaje calcula en primer lugar la paralaje binocular para cada elemento en las imágenes de vídeo en 2D usando el mapa de profundidad. A continuación, la unidad 4710 de generación de vídeo de paralaje procesa los datos 4701 de plano de vídeo izquierdo para desplazar la posición de presentación de cada elemento en el plano de vídeo para imágenes de vídeo en 2D a la izquierda o derecha de acuerdo con la paralaje binocular calculada. Esto genera un par de planos de vídeo que representan la vista izquierda y vista derecha. Adicionalmente, la unidad 4710 de generación de vídeo de paralaje transmite el par de planos de vídeo al conmutador 4720 como un par de piezas de datos de plano de vídeo izquierdo y de vídeo derecho.
Cuando la unidad 4235 de control de reproducción indica modo de presentación B-D, el conmutador 4720 transmite datos 4701 de plano de vídeo izquierdo y datos 4702 de plano de vídeo derecho con la misma PTS al primer sumador 4741 en ese orden. Cuando la unidad 4235 de control de reproducción indica modo de presentación B-B, el conmutador 4720 transmite uno de los datos 4701 de plano de vídeo izquierdo y los datos 4702 de plano de vídeo derecho con la misma PTS dos veces por fotograma al primer sumador 4741, descartando la otra pieza de datos de plano.
La primera unidad 4731 de recorte incluye la misma estructura que un par de la unidad 4710 de generación de vídeo de paralaje y el conmutador 4720. Estas estructuras se usan cuando los datos de plano de vídeo secundario son un par de una vista izquierda y una vista derecha. En particular, en el dispositivo 102 de reproducción en modo de profundidad, la unidad de generación de vídeo de paralaje en la primera unidad 4731 de recorte convierte los datos de plano de vídeo secundario en un par de piezas de datos de plano de la vista izquierda y de la vista derecha. Cuando la unidad 4235 de control de reproducción indica modo de presentación B-D, las piezas de datos de plano de la vista izquierda y de la vista derecha se transmiten de manera alterna al primer sumador 4741. Por otra parte, cuando la unidad 4235 de control de reproducción indica modo de presentación B-B, una de las piezas de datos de plano de la vista izquierda y de la vista derecha se transmite dos veces por fotograma al primer sumador 4741, y la otra pieza de datos de plano se descarta.
Cuando la unidad 4235 de control de reproducción indica modo de 1 plano + compensación, la primera unidad 4731 de recorte realiza el siguiente control de compensación en los datos 4703 de plano de vídeo secundario. La primera unidad 4731 de recorte recibe en primer lugar información 4707 de compensación desde el decodificador 4225 objetivo de sistema. En este punto, la primera unidad 4731 de recorte lee el ID de compensación de referencia (SV_ref_offset_id) 4212 que corresponde al plano de vídeo secundario desde el SPRM(27) 4751 en la unidad 4236 de almacenamiento variable de reproductor. A continuación, la primera unidad 4731 de recorte recupera la información de compensación que pertenece a la secuencia de compensación indicada por el ID de compensación de referencia desde la información 4707 de compensación recibida desde el decodificador 4225 objetivo de sistema. Posteriormente, la primera unidad 4731 de recorte lee el valor de ajuste de compensación (SV_offset_adjustment) 4222 que corresponde al plano de vídeo secundario desde el SPRM(28) 4752 en la unidad 4236 de almacenamiento variable de reproductor y añade el valor de ajuste de compensación al valor de compensación recuperado. Después de eso, la primera unidad 4731 de recorte hace referencia al valor de compensación para realizar control de compensación en los datos 4703 de plano de vídeo secundario. Como resultado, los datos 4703 de plano de vídeo secundario se convierten en un par de piezas de datos de plano de vídeo secundario que representan una vista izquierda y una vista derecha, y este par se emite de manera alterna.
La unidad 4235 de control de reproducción actualiza en general los valores del SPRM(27) 4751 y del SPRM(28) 4752 cada vez que la PI actual cambia. Adicionalmente, la unidad 4234 de ejecución de programa puede establecer los valores del SPRM(27) 4751 y del SPRM(28) 4752 de acuerdo con un objeto de película u objeto de BD-J.
Por otra parte, cuando la unidad 4235 de control de reproducción indica modo de 1 plano + compensación cero, la primera unidad 4731 de recorte no realiza control de compensación, en lugar de emitir los datos 4703 de plano de vídeo secundario dos veces como están.
5
10
15
20
25
30
35
40
45
50
55
De manera similar, la segunda unidad 4732 de recorte hace referencia al ID de compensación de referencia (PG_ref_offset_id) 4310 para el plano de PG y al valor de ajuste de compensación (PG_offset_adjustment) 4320 para realizar control de compensación en los datos 4704 de plano de PG. La tercera unidad 4733 de recorte hace referencia al ID de compensación de referencia (IG_ref_offset_id) 4311 para el plano de IG y al valor de ajuste de compensación (IG_offset_adjustment) 4321 para realizar control de compensación en los datos 4705 de plano de IG. La primera unidad 4734 de recorte hace referencia al ID de compensación de referencia (IM_ref_offset_id) 4213 para el plano de imagen y al valor de ajuste de compensación (IM_offset_adjustment) 4323 para realizar control de compensación en los datos 4706 de plano de imagen.
[Diagrama de flujo de control de compensación]
La Figura 48 es un diagrama de flujo del control de compensación por las unidades 4731-4734 de recorte. Cada una de las unidades 4731-4734 de recorte comienza el control de compensación tras recibir la información 4707 de compensación desde el decodificador 4225 objetivo de sistema. En el siguiente ejemplo, la segunda unidad 4732 de recorte realiza el control de compensación en los datos 4704 de plano de PG. Las otras unidades de recorte 4731, 4733 y 4734 realizan procesamiento similar respectivamente en los datos 4703 de plano de vídeo secundario, datos 4705 de plano de IG y datos 4706 de plano de imagen.
En la etapa S4801, la segunda unidad 4732 de recorte recibe en primer lugar datos 4704 de plano de PG desde el decodificador 4225 objetivo de sistema. En este punto, la segunda unidad 4732 de recorte lee el ID de compensación de referencia (PG_ref_offset_id) 4310 para el plano de PG desde el SPRM(27) 4751. A continuación, la segunda unidad 4731 de recorte recupera la información de compensación que pertenece a la secuencia de compensación indicado por el ID de compensación de referencia 4310 desde la información 4707 de compensación recibida desde el decodificador 4225 objetivo de sistema. Posteriormente, el procesamiento continúa a la etapa S4802.
En la etapa S4802, la segunda unidad 4732 de recorte lee el valor de ajuste de compensación (PG_offset_adjustment) 4320 para el plano de PG desde el SPRM(28) 4752 y añade este valor de ajuste de compensación al valor de compensación recuperado en la etapa S4801. Posteriormente, el procesamiento continúa a la etapa S4803.
En la etapa S4803, la segunda unidad 4732 de recorte comprueba cuál de una vista izquierda y una vista derecha se representa por los datos de plano de vídeo seleccionados por el conmutador 4720. Si los datos de plano de vídeo representan una vista izquierda, el procesamiento continúa a la etapa S4804. Si los datos de plano de vídeo representan una vista derecha, el procesamiento continúa a la etapa S4807.
En la etapa S4804, la segunda unidad 4732 de recorte comprueba el valor de la dirección de compensación recuperada. En lo sucesivo, se supone lo siguiente: si el valor de dirección de compensación es “0”, la imagen de gráficos en 3D está más cerca al observador que la pantalla, y si el valor de dirección de compensación es “1”, la imagen está más alejada que la pantalla. En este contexto, cuando el valor de dirección de compensación es “0”, el procesamiento continúa a la etapa S4805. Si el valor de dirección de compensación es “1”, el procesamiento continúa a la etapa S4806.
En la etapa S4805, la segunda unidad 4732 de recorte proporciona una compensación derecha a los datos 4704 de plano de PG. En otras palabras, la posición de cada pieza de datos de píxel incluida en los datos 4704 de plano de PG se desplaza a la derecha por el valor de compensación. Posteriormente, el procesamiento continúa a la etapa S4810.
En la etapa S4806, la segunda unidad 4732 de recorte proporciona una compensación izquierda a los datos 4704 de plano de PG. En otras palabras, la posición de cada pieza de datos de píxel incluida en los datos 4704 de plano de PG se desplaza a la izquierda por el valor de compensación. Posteriormente, el procesamiento continúa a la etapa S4810.
En la etapa S4807, la segunda unidad 4732 de recorte comprueba el valor de la dirección de compensación recuperada. Si el valor de dirección de compensación es “0”, el procesamiento continúa a la etapa S4808. Si el valor de dirección de compensación es “1”, el procesamiento continúa a la etapa S4809.
En la etapa S4808, la segunda unidad 4732 de recorte proporciona una compensación izquierda a los datos 4704 de plano de PG, al contrario de la etapa S4805. En otras palabras, la posición de cada pieza de datos de píxel incluida en los datos 4704 de plano de PG se desplaza a la izquierda por el valor de compensación. Posteriormente, el procesamiento continúa a la etapa S4810.
En la etapa S4809, la segunda unidad 4732 de recorte proporciona una compensación derecha a los datos 4704 de plano de PG, al contrario de la etapa S4806. En otras palabras, la posición de cada pieza de datos de píxel incluida en los datos 4704 de plano de PG se desplaza a la derecha por el valor de compensación. Posteriormente, el procesamiento continúa a la etapa S4810.
En la etapa S4810, la segunda unidad 4732 de recorte emite los datos 4704 de plano de PG procesados a la tercera
5
10
15
20
25
30
35
40
45
50
55
60
unidad 4734 de recorte. El procesamiento a continuación termina.
[Cambios en datos de plano mediante control de compensación]
La Figura 49B es un diagrama esquemático que muestra datos de plano de PG GP a los que la segunda unidad 4732 de recorte ha de proporcionar control de compensación. Como se muestra en la Figura 49B, los datos de plano de PG GP incluyen datos de píxel que representan el subtítulo “Te amo”, es decir datos de subtítulo STL. Estos datos de subtítulo STL se localizan a una distancia D0 desde el borde izquierdo de los datos de plano de PG GP.
La Figura 49A es un diagrama esquemático que muestra datos de plano de PG RPG a los que se ha proporcionado una compensación derecha. Como se muestra en la Figura 49A, cuando se proporciona una compensación derecha a los datos de plano de PG GP, la segunda unidad 4732 de recorte cambia la posición de cada pieza de datos de píxel en los datos de plano de PG GP desde su posición original a la derecha en un número de píxeles OFS igual al valor de compensación. Específicamente, la segunda unidad 4732 de recorte realiza recorte para eliminar, desde el borde derecho de los datos de plano de PG GP, datos de píxeles incluidos en una banda AR1 de una anchura OFS igual al valor de compensación. A continuación, la segunda unidad 4732 de recorte forma una banda AL1 de anchura OFS añadiendo datos de píxeles al borde izquierdo de los datos de plano de PG GP. Los datos de píxeles incluidos en esta banda AL1 se establecen como transparentes. Este procedimiento produce datos de plano de PG RGP a los que se ha proporcionado una compensación derecha. Los datos de subtítulo STL están realmente localizados a una distancia DR desde el borde izquierdo de estos datos de plano de PG RGP. Esta distancia DR equivale a la distancia original D0 más el valor de compensación OFS: DR = D0 + OFS.
La Figura 49C es un diagrama esquemático que muestra datos de plano de PG LPG a los que se ha proporcionado una compensación izquierda. Como se muestra en la Figura 49c, cuando se proporciona una compensación izquierda a los datos de plano de PG GP, la segunda unidad 4732 de recorte cambia la posición de cada pieza de datos de píxel en los datos de plano de PG GP desde su posición original a la izquierda por un número de píxeles OFS igual al valor de compensación. Específicamente, la segunda unidad 4732 de recorte realiza recorte para eliminar, desde el borde izquierdo de los datos de plano de PG GP, datos de píxeles incluidos en una banda AL2 de una anchura OFS igual al valor de compensación. A continuación, la segunda unidad 4732 de recorte forma una banda AR2 de anchura OFS añadiendo datos de píxeles al borde derecho de los datos de plano de PG GP. Los datos de píxeles incluidos en esta banda AR2 se establecen como transparentes. Este procedimiento produce datos de plano de PG LGP a los que se ha proporcionado una compensación izquierda. Los datos de subtítulo STL están realmente localizados a una distancia Dl desde el borde izquierdo de estos datos de plano de PG RGP. Esta distancia DL equivale a la distancia original D0 menos el valor de compensación OFS: DL = D0 - OFS.
Haciendo referencia de nuevo a la Figura 47, el primer sumador 4741 recibe datos de plano de vídeo desde el conmutador 4720 y recibe datos de plano de vídeo secundario desde la primera unidad 4731 de recorte. En este punto, el primer sumador 4741 superpone cada par de los datos de plano y datos de plano de vídeo secundario y transmite el resultado al segundo sumador 4742. El segundo sumador 4742 recibe datos de plano de PG desde la segunda unidad 4732 de recorte, superpone estos datos de plano de PG en los datos de plano desde el primer sumador 4741, y transmite el resultado al tercer sumador 4743. El tercer sumador 4743 recibe datos de plano de IG desde la tercera unidad 4733 de recorte, superpone estos datos de plano de IG en los datos de plano desde el segundo sumador 4742, y transmite el resultado al cuarto sumador 4744. El cuarto sumador 4744 recibe datos de plano de imagen desde la cuarta unidad 4734 de recorte, superpone estos datos de plano de imagen en los datos de plano desde el tercer sumador 4743, y emite el resultado al dispositivo 103 de visualización. Los sumadores 47414744 cada uno hacen uso de mezclado alfa cuando superponen los datos de plano. De esta manera, los datos 4703 de plano de vídeo secundario, datos 4704 de plano de PG, datos 4705 de plano de IG y datos 4706 de plano de imagen se superponen en el orden mostrado por la flecha 4700 en la Figura 47 en los datos 4701 de plano de vídeo izquierdo o datos 4702 de plano de vídeo derecho. Como resultado, las imágenes de vídeo indicadas por cada pieza de datos de plano se visualizan en la pantalla del dispositivo 103 de visualización de modo que el plano de vídeo izquierdo o plano de vídeo derecho parece solaparse con el plano de vídeo secundario, plano de IG, plano de PG y plano de imagen en ese orden.
Además del procesamiento anteriormente establecido, el sumador 4724 de planos convierte el formato de salida de los datos de plano combinado por los cuatro sumadores 4741-4744 en un formato que cumple con el procedimiento de visualización de las imágenes de vídeo en 3D adoptado en un dispositivo tal como el dispositivo 103 de visualización al que se han de emitir los datos. Si se adopta un procedimiento de generación de secuencias de fotogramas alternativos en el dispositivo, por ejemplo, el sumador 4724 de planos emite los datos de plano piezas combinados como un fotograma o un campo. Por otra parte, si se adopta un procedimiento que usa una lente lenticular en el dispositivo, el sumador 4724 de planos combina un par de piezas de datos de plano de la vista izquierda y de la vista derecha como un fotograma o un campo de datos de vídeo con uso de memoria intermedia interna. Específicamente, el sumador 4724 de planos almacena temporalmente y mantiene en la memoria de la memoria intermedia los datos de plano de vista izquierda que se han combinado en primer lugar. Posteriormente, el sumador 4724 de planos combina los datos de plano de vista derecha, y combina adicionalmente los datos resultantes con los datos de plano de vista izquierda mantenidos en la memoria de la memoria intermedia. Durante la combinación, las piezas de datos de plano de la vista izquierda y de la vista derecha se dividen cada una, en una dirección vertical, en áreas rectangulares más pequeñas que son largas y finas, y las áreas rectangulares pequeñas
5
10
15
20
25
30
35
40
45
50
55
están dispuestas de manera alterna en la dirección horizontal en un fotograma o en un campo para reconstituir el fotograma o el campo. De esta manera, el par de piezas de datos de plano de la vista izquierda y de la vista derecha se combinan en un fotograma o campo de vídeo. El sumador 4724 de planos a continuación emite el fotograma o campo de vídeo combinado al dispositivo correspondiente.
<Efectos de la realización 1>
En el disco 101 BD-ROM de acuerdo con la realización 1 de la presente invención, como se muestra en las Figuras 15 y 16, se asignan prioridades de TS a una secuencia de paquetes de TS que almacena una VAU en la parte superior de cada secuencia de vídeo que constituye el flujo de vídeo de vista dependiente. En particular, se asignan diferentes prioridades de TS a un grupo de paquete de TS que almacena metadatos de compensación y un grupo de paquete de TS que almacena datos de instantánea comprimidos. En ese caso, la función para extraer metadatos de compensación puede realizarse en el decodificador 4225 objetivo de sistema por el primer medio mostrado en la Figura 45 o el segundo medio mostrado en la Figura 46. El decodificador 4225 objetivo de sistema por el primer medio puede clasificar fácilmente paquetes de TS almacenando metadatos de compensación desde el otro usando las prioridades de TS. Por consiguiente, el decodificador 4515 de vídeo primario y la unidad 4552 de procesamiento de metadatos de compensación pueden implementarse de diferentes formas. Especialmente incluso si el decodificador 4515 de vídeo primario está compuesto de hardware, independientemente del mismo la unidad 4552 de procesamiento de metadatos de compensación puede estar compuesta de hardware especializado o realizarse por software con uso de hardware de fin general. Por otra parte, en el decodificador 4225 objetivo de sistema por el segundo medio, el decodificador 4615 de vídeo primario puede ejecutar en paralelo tanto la función para decodificar el flujo de vídeo de vista dependiente como la función para extraer metadatos de compensación. Por lo tanto, independientemente de las prioridades de TS todos los paquetes de TS que almacenan el flujo de vídeo de vista dependiente pueden pasarse al decodificador 4615 de vídeo primario. De esta manera, la estructura de datos del flujo de vídeo de vista dependiente y los metadatos de compensación registrados en el disco 101 BD-ROM de acuerdo con la realización 1 de la presente invención pueden usarse en común por el decodificador 4225 objetivo de sistema realizado por el primer medio y el decodificador 4225 objetivo de sistema realizado por el segundo medio.
<Modificaciones>
(1-A) Flujo de vídeo
En modo L/R de acuerdo con la realización 1 de la presente invención, el flujo de vídeo de vista de base representa la vista izquierda, y el flujo de vídeo de vista dependiente representa la vista derecha. A la inversa, sin embargo, el flujo de vídeo de vista de base puede representar la vista derecha y el flujo de vídeo de vista dependiente la vista izquierda.
En el disco 101 BD-ROM de acuerdo con la realización 1 de la presente invención, el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente se multiplexan en diferentes TS. Como alternativa, el flujo de vídeo de vista de base y el flujo de vídeo de vista dependiente pueden multiplexarse en un único TS.
(1-B) Metadatos de compensación
(1-B-1) Los metadatos de compensación pueden almacenarse en el flujo de vídeo de vista de base en lugar de en el flujo de vídeo de vista dependiente. En este caso también, los metadatos de compensación se almacenan preferentemente en los datos complementarios en la VAU localizada en la parte superior de cada secuencia de vídeo. Adicionalmente, el fichero de lista de reproducción en 3D puede proporcionarse con una bandera que indica si el flujo de vídeo de vista de base o el flujo de vídeo de vista dependiente incluye los metadatos de compensación. Esto permite un aumento en el grado de libertad cuando se crea cada pieza de los datos de flujo. También, puede prescribirse que esta bandera esté “prohibida de que se cambie entre las PI en las que las imágenes de vídeo están conectadas de manera ininterrumpida mediante CC = 5, 6”.
(1-B-2) Los metadatos de compensación pueden almacenarse en cada VAU (es decir, cada fotograma o campo) en lugar de almacenarse únicamente en la VAU superior en cada secuencia de vídeo (es decir, cada GOP). Como alternativa, los metadatos de compensación pueden establecerse como intervalos arbitrarios, tal como tres fotogramas o mayor, para cada contenido. En este caso, se prefiere que los metadatos de compensación siempre se almacenen en la VAU superior en cada secuencia de vídeo y que el intervalo entre los metadatos de compensación y los metadatos de compensación inmediatamente anteriores puede restringirse a igual a o más de tres fotogramas. Por consiguiente, el dispositivo de reproducción puede realizar de manera fiable procesamiento para cambiar la información de compensación en paralelo con reproducción interrumpida.
(1-B-3) En lugar de almacenarse en el flujo de vídeo, los metadatos de compensación pueden multiplexarse en un TS principal o un sub-TS como datos de flujo independientes. En este caso, un PID único se asigna a los metadatos de compensación. El decodificador objetivo de sistema hace referencia a este PID para separar los metadatos de compensación de otros datos de flujo. Como alternativa, los metadatos de compensación pueden precargarse en primer lugar en una memoria intermedia especializada y posteriormente experimentar procesamiento de reproducción, como el flujo de subtítulo de texto. En este caso, los metadatos de compensación se almacenan en intervalos de fotograma constantes. Por consiguiente, una PTS ya no es necesaria para los metadatos de compensación, reduciendo por lo tanto la cantidad de datos del
5
10
15
20
25
30
35
40
45
50
55
60
65
encabezamiento de PES. Esto reduce la capacidad de la memoria intermedia para precarga.
(1-B-4) En lugar de almacenarse en los datos complementarios de una VAU, los metadatos de compensación pueden embeberse en el flujo de vídeo con uso de una marca de agua de vídeo. Adicionalmente, los metadatos de compensación pueden embeberse en el flujo de audio con uso de una marca de agua de audio.
(1-B-5) En el sub-TS de acuerdo con la realización 1 de la presente invención, como se muestra en la Figura 15, los paquetes 1530 y 1550 de TS localizados al final del primer grupo 1521 y del segundo grupo 1522, respectivamente, incluyen los campos 1532 y 1552 de AD en general. Con esta estructura, los tres grupos 15211523 se separan unos de los otros. Como alternativa, en la VAU n.° 1 1500 en el flujo de vídeo de vista dependiente, el tamaño de los datos 1506 de relleno puede ajustarse de modo que los tres grupos 1521-1523 se separan unos de los otros.
(1-B-6) Los paquetes de TS que contienen metadatos de compensación pueden seleccionarse en un decodificador objetivo de sistema que depende de los PID, en lugar de prioridad de TS. La Figura 50 es un diagrama esquemático que muestra un paquete 5010 de PES que contiene la VAU n.° 1 5000 en el flujo de vídeo de vista dependiente y una secuencia de paquetes 5020 de TS generados desde el paquete 5010 de PES. La VAU n.° 1 5000 está localizada en la parte superior de la secuencia de vídeo, y por consiguiente incluye datos 5004 complementarios que consisten únicamente en metadatos 5009 de compensación. La carga útil 5012 de PES del paquete 5010 de PES contiene la VAU n.° 1 5000, y el encabezamiento 5011 de PES del mismo incluye la DTS y PTS asignadas a datos 5005 de instantánea comprimidos en la VAU n.° 1 5000. El paquete 5010 de PES se almacena en la secuencia 5020 de paquetes de TS en orden desde la parte superior. Con esta disposición, la secuencia 5020 de paquetes de Ts se divide en tres grupos 5021, 5022 y 5023 en orden desde la parte superior. El primer grupo 5021 incluye el encabezamiento 5011 de PES, código 5001 de identificación de sub-AU, encabezamiento 5002 de sub-secuencia y encabezamiento 5003 de instantánea. El segundo grupo 5022 incluye los datos 5004 complementarios que consisten únicamente en los metadatos 5009 de compensación. El tercer grupo 5013 incluye los datos 5005 de instantánea comprimida, datos 5006 de relleno, código 5007 final de secuencia y código 5008 final de flujo. Las áreas entramadas en la Figura 50 muestran los datos 5004 complementarios que consisten únicamente en los metadatos 5009 de compensación, y las áreas discontinuas muestran datos 5011, 5001-5003 dispuestos antes de los datos complementarios en el paquete 5010 de PES. Como los paquetes de TS en la secuencia 1520 mostrados en la Figura 15, los paquetes 5030 y 5050 de TS localizados al final del primer grupo 5021 y del segundo grupo 5022, respectivamente, incluyen campos 5032 y 5052 de AD en general. Con esta estructura, los tres grupos 5021-5023 se separan unos de los otros. Los encabezamientos 5031 y 5061 de TS de los paquetes 5030 y 5060 de TS que pertenecen al primer grupo 5021 y el tercer grupo 5023 cada uno indican el PID = 0x1012. En este punto, los encabezamientos 5031 de TS de los paquetes 5030 de TS que pertenecen al primer grupo 5021 pueden indicar el PID = 0x1022. Por otra parte, los encabezamientos 5041 y 5051 de TS de los paquetes 5040 y 5050 de TS que pertenecen al segundo grupo 5022 cada uno indican el PID = 0x1022. El valor hexadecimal “0x1022” puede sustituirse a cualquier otro valor excepto los valores hexadecimales asignados a los otros flujos elementales. De esta manera, los paquetes de TS que pertenecen al segundo grupo 5022 tienen un PID diferente de paquetes de TS que pertenecen al tercer grupo 5023. Por consiguiente, el decodificador objetivo de sistema puede seleccionar fácilmente paquetes de Ts que pertenecen al segundo grupo usando los PID. El decodificador objetivo de sistema extrae metadatos de compensación desde la secuencia 5020 de paquetes de TS mostrada en la Figura
50 como sigue. La Figura 51 es un diagrama de bloques funcional que muestra un sistema de procesamiento de flujos de vídeo en el decodificador 5125 objetivo de sistema. El decodificador 5125 objetivo de sistema mostrado en la Figura 51, en contraste al 4225 mostrado en la Figura 45, no incluye el filtro 4551 de prioridad de TS. Otros componentes del mismo son similares a los correspondientes. En la Figura 51, los componentes similares a los mostrados en la Figura 45 se marcan con los mismos números de referencia. Adicionalmente, los detalles de los componentes similares pueden hallarse en la descripción en la Figura 45. El segundo filtro 4514 de PID transfiere paquetes de TS con PID = 0x1012 a la TB2 4508 en el decodificador 4515 de vídeo primario, y transfiere paquetes de TS con PID = 0x1022 a la unidad 4552 de procesamiento de metadatos de compensación. En este punto, los paquetes de TS con PID = 0x1022 pueden transferirse a la TB2 4508 en paralelo. De esta manera, los paquetes de Ts que contienen metadatos de compensación se transfieren a la unidad 4552 de procesamiento de metadatos de compensación. Obsérvese que los datos diferentes de cualquiera de la prioridad de TS y PID pueden usarse para seleccionar paquetes de TS que contienen metadatos de compensación desde un sub-TS.
51 los datos, como prioridad de Ts y PID, permiten que se establezca un valor diferente para cada paquete de TS, los datos pueden usarse para seleccionar los paquetes de TS anteriormente descritos. Esto sería evidente para un experto en la materia a partir de la realización anteriormente descrita.
(1-B-7) Los metadatos 1110 de compensación de acuerdo con la realización 1 de la presente invención, como se muestra en la Figura 11, proporcionan cada fotograma con información de compensación. Como alternativa, cuando el flujo de vídeo representa un fotograma en el procedimiento entrelazado (por ejemplo 601), la unidad de visualización no es un fotograma, sino un campo. En ese caso, los metadatos de compensación pueden proporcionar cada campo con la información de compensación o proporcionar el par de campos que constituyen cada fotograma con la información de compensación.
(1-B-8) En los metadatos de compensación de acuerdo con la realización 1 de la presente invención, cada secuencia de compensación define un valor de compensación para cada fotograma. Como alternativa, cada secuencia de compensación puede definir una función que representa un cambio con el tiempo en el valor de compensación para cada tiempo de presentación, es decir una función de finalización. En este caso, el dispositivo de reproducción en 3D usa la función de finalización en cada tiempo de presentación para calcular el
5
10
15
20
25
30
35
40
45
50
55
60
valor de compensación para cada fotograma incluido en ese tiempo de presentación.
La Figura 52A es un diagrama esquemático que muestra una estructura de datos de metadatos 5200 de compensación que usa una función de finalización. Como se muestra en la Figura 52A, los metadatos 5200 de compensación incluyen una tabla de correspondencia entre ID 5210 de secuencia de compensación y secuencias 5220 de compensación. Una secuencia 5220 de compensación incluye un valor de inicio de compensación (offset_start) 5221, un valor de finalización de compensación (offset_end) 5222, ID de función de compensación (offset_func_id) 5223, y duración de compensación (offset_duration) 5224. Cuando los metadatos 5200 de compensación se almacenan en una secuencia de vídeo en el flujo de vídeo de vista dependiente, el valor 5221 de inicio de compensación indica el valor de compensación para el primer fotograma representado por la secuencia de vídeo. El valor 5222 de finalización de compensación indica el valor de compensación para el primer fotograma representado por la siguiente secuencia de vídeo. El ID 5223 de función de compensación define el tipo de función de finalización. El tipo de función de finalización representa la forma de los cambios en el valor de compensación durante el tiempo de presentación de la secuencia de vídeo. La duración 5224 de compensación indica la longitud del tiempo de presentación de la secuencia de vídeo.
La Figura 52B es un gráfico que muestra los tipos de elementos en la función de finalización. Como se muestra en la Figura 52B, el eje x representa el tiempo de presentación, y el eje y representa el valor de compensación. En este contexto, el signo del valor de compensación se determina por la profundidad de la imagen de gráficos, es decir si la imagen de gráficos en 3D está más alejada o más cerca de la pantalla. Se proporcionan tres tipos de elementos en una función de finalización: una forma lineal LNR, una forma convexa CVX y una forma cóncava CCV. La forma lineal LNR se identifica por una función lineal y = ax + b, mientras que la forma convexa CVX y la forma cóncava CCV se definen por una curva de segundo grado y = ax2 + bx + c, una curva de tercer grado y = ax3 + bx2 + cx + d, o una curva gamma y = a(x + b)1/r + c. En este contexto, las constantes a, b, c, y d son parámetros determinados por las coordenadas xy de cada borde A, B de cada elemento, es decir por un par de tiempo de presentación y el valor de compensación en ese punto. Por otra parte, la constante r se define de manera separada y se almacena en cada secuencia de compensación. Los tipos de funciones de finalización se definen por uno de estos elementos LNR, CVX y CCV o por una combinación de los mismos.
La Figura 52C es un gráfico que muestra valores de compensación calculados por un dispositivo de reproducción en 3D desde los ID de secuencia de compensación = 0, 1, 2 mostrados en la Figura 52A. Como se muestra en la Figura 52C, el eje horizontal del gráfico representa el tiempo transcurrido desde el primer fotograma que se visualizó en cada secuencia de vídeo; en la secuencia de vídeo, se almacena una secuencia de compensación. Los círculos negros A0, B0, A1, B1, A2 y B2 indican coordenadas definidas por cualquiera del valor 5221 de inicio de compensación o valor 5222 de finalización de compensación y la duración 5224 de compensación. Las líneas GR0, GR1 y GR2 que conectan respectivamente los pares de círculos negros A0 + B0, A1 + B1, y A2 + B2 representan funciones de finalización que cada una se determinan por el tipo de función de finalización especificada en el ID 5223 de función de compensación y por los valores de coordenadas de los círculos negros A0 + B0, A1 + B1, y A2 + B2 en los bordes de las líneas. En la secuencia de compensación con el ID de secuencia de compensación = 0, el ID 5223 de función de compensación indica “lineal”, y por lo tanto los círculos negros A0 y B0 en cualquier borde están conectados por una línea n.° 0 GR0 con una forma lineal LNR. En la secuencia de compensación con la secuencia de compensación ID = 1, el ID 5223 de función de compensación indica “curva n.° 1”, y por lo tanto los círculos negros A1 y B1 en cualquier borde están conectados por una línea n.° 1 GR1 con una forma convexa CVX. En la secuencia de compensación con el ID de secuencia de compensación = 2, el ID 5223 de función de compensación indica “curva n.° 2”, y por lo tanto los círculos negros A2 y B2 en cualquier borde están conectados por una línea n.° 2 GR2 que se forma por una combinación de una forma convexa CVX y una forma cóncava cCv. Los círculos blancos representan pares de un tiempo de presentación para un fotograma y un valor de compensación para el fotograma según se calcula por el dispositivo de reproducción en 3D usando la función de finalización indicada por cada una de las líneas GR0, GR1, y GR2. Como es evidente a partir de estas líneas GR0, GR1, y GR2, la mera combinación del valor 5221 de inicio de compensación, el valor 5222 de finalización de compensación, ID 5223 de función de compensación, y duración 5224 de compensación puede representar una diversidad de cambios en el valor de compensación, es decir en la profundidad de imágenes de gráficos en 3D. Por consiguiente, el tamaño de los metadatos de compensación globales puede reducirse sin una pérdida en la capacidad para expresar imágenes de gráficos en 3D.
(1-C) En el fichero de flujo de AV para imágenes de vídeo en 3D, los datos con respecto al formato de reproducción de las imágenes de vídeo en 3D pueden añadirse a la PMT 1810 mostrada en la Figura 18. En este caso, la PMT 1810 incluye descriptores en 3D además del encabezamiento 1801 de PMT, los descriptores 1802 y las piezas de la información 1803 de flujo. Los descriptores en 3D son información sobre el formato de reproducción de las imágenes de vídeo en 3D, se comparten por todo el fichero de flujo de AV, y particularmente incluyen información de formato en 3D. La información de formato en 3D indica el formato de reproducción, tal como modo L/R o modo de profundidad, de las imágenes de vídeo en 3D en el fichero de flujo de Av. Cada pieza de la información 1803 de flujo incluye descriptores de flujo en 3D además de un tipo 1831 de flujo, un PID 1832 y descriptores 1833 de flujo. Los descriptores de flujo en 3D indican información sobre el formato de reproducción de las imágenes de vídeo en 3D para cada flujo elemental incluido en el fichero de flujo de AV. En particular, los descriptores de flujo en 3D del flujo de vídeo incluyen un tipo de visualización en 3D. El tipo de visualización en 3D indica si las imágenes de vídeo indicadas por el flujo de vídeo son una vista izquierda o una vista derecha cuando las imágenes de vídeo se
5
10
15
20
25
30
35
40
45
50
55
60
visualizan en modo L/R. El tipo de visualización en 3D también indica si las imágenes de vídeo indicadas por el flujo de vídeo son imágenes de vídeo en 2D o mapas de profundidad cuando las imágenes de vídeo se visualizan en modo de profundidad. Cuando una PMT incluye por lo tanto información con respecto al formato de reproducción de las imágenes de vídeo en 3D, el sistema de reproducción de estas imágenes de vídeo puede obtener tal información simplemente desde el fichero de flujo de AV. Esta clase de estructura de datos es por lo tanto útil cuando se distribuye contenido de vídeo en 3D mediante una difusión.
(1-D) Fichero de información de clip
El fichero de información de clip de vista dependiente puede incluir, entre la información 2220 de atributo de flujo tal como en la Figura 22, una bandera predeterminada en la información de atributo de flujo de vídeo asignada al PID=0x1012, 0x1013 del flujo de vídeo de la vista dependiente. Cuando se enciende, esta bandera indica que el flujo de vídeo de vista dependiente hace referencia al flujo de vídeo de vista de base. Adicionalmente, la información de atributo de flujo de vídeo puede incluir información con respecto al flujo de vídeo de vista de base al que hace referencia el flujo de vídeo de vista dependiente. Esta información puede usarse para confirmar la correspondencia entre flujos de vídeo cuando se verifica, mediante una herramienta predeterminada, si el contenido de vídeo en 3D se ha creado de acuerdo con un formato prescrito.
De acuerdo con la realización 1 de la presente invención, el tamaño de segmentos de vista de base y los segmentos de vista dependiente pueden calcularse desde los puntos 2242 y 2420 de inicio de segmento incluidos en el fichero de información de clip. Como alternativa, una lista del tamaño de cada segmento puede almacenarse en, por ejemplo, el fichero de información de clip como parte de los metadatos.
(1-E) Fichero de lista de reproducción
(1-E-1) El fichero 222 de lista de reproducción en 3D mostrado en la Figura 31 incluye una sub-ruta. Como alternativa, el fichero de lista de reproducción en 3D puede incluir una pluralidad de sub-rutas. Por ejemplo, si el tipo de sub-ruta de una sub-ruta es “3D L/R”, entonces el tipo de sub-ruta de la otra sub-ruta puede ser “profundidad en 3D”. Conmutando entre estos dos tipos de sub-rutas cuando se reproducen imágenes de vídeo en 3D de acuerdo con el fichero de lista de reproducción en 3D, el dispositivo 102 de reproducción puede conmutar fácilmente entre modo L/R y modo de profundidad. En particular, tal conmutación puede realizarse más rápidamente que conmutar el mismo fichero de lista de reproducción en 3D. Una pluralidad de flujos de vídeo de vista dependiente pueden representar las mismas imágenes de vídeo en 3D en combinación con un flujo de vídeo de vista de base compartido. Sin embargo, la paralaje entre la vista izquierda y vista derecha para la misma escena se diferencia entre los flujos de vídeo de vista dependiente. Estos flujos de vídeo de vista dependiente pueden multiplexarse en un sub-TS, o separarse en diferentes sub-TS. En este caso, el fichero de lista de reproducción en 3d incluye una pluralidad de sub-rutas. Cada sub-ruta hace referencia a un flujo de vídeo de vista dependiente diferente. Conmutando entre sub-rutas cuando se reproducen imágenes de vídeo en 3D de acuerdo con el fichero de lista de reproducción en 3D, el dispositivo 102 de reproducción puede cambiar fácilmente el sentido de profundidad de las imágenes de vídeo en 3D. En particular, tal procesamiento puede realizarse más rápido que conmutar el mismo fichero de lista de reproducción en 3D.
La Figura 53 es un diagrama esquemático que muestra (i) una estructura de datos de un fichero 5300 de lista de reproducción en 3D que incluye una pluralidad de sub-rutas y (ii) una estructura de datos de un fichero en 2D 5310 y dos ficheros de DEP 5321 y 5322 que se hacen referencia mediante el fichero 5300 de lista de reproducción en 3D. El fichero en 2D 5310 incluye un flujo de vídeo de vista de base con un PID = 0x1011. El fichero DEP n.° 1 5321 incluye un flujo de vídeo de vista dependiente n.° 1 con un PID = 0x1012. El fichero DEP n.° 2 5322 incluye un flujo de vídeo de vista dependiente n.° 2 con un PID = 0x1013. En combinación con el flujo de vídeo de vista de base en el fichero en 2d 5310, los flujos de vídeo de vista dependiente n.° 1 y n.° 2 representan de manera separada las mismas imágenes de vídeo en 3D. Sin embargo, la paralaje entre la vista izquierda y vista derecha para la misma escena se diferencia entre los flujos de vídeo de vista dependiente n.° 1 y n.° 2. Adicionalmente, las secuencias de compensación con el mismo ID de secuencia de compensación definen diferentes valores de compensación para el mismo número de fotograma.
El fichero 5300 de lista de reproducción en 3D incluye una ruta principal 5330 y dos sub-rutas 5331 y 5332. La PI n.° 1 de la ruta principal 5330 hace referencia al fichero en 2D 5310, en particular al flujo de vídeo de vista de base. El SUB_PI n.° 1 de cada de las sub-rutas 5331 y 5332 comparte el mismo tiempo de reproducción que la PI n.° 1 en la ruta principal 5330. El SUB_PI n.° 1 de la sub-ruta n.° 1 5331 hace referencia al fichero DEP n.° 1 5321, en particular al flujo de vídeo de vista dependiente n.° 1. El SUB_PI n.° 1 de la sub-ruta n.° 2 5332 hace referencia al fichero DEP n.° 2 5322, en particular al flujo de vídeo de vista dependiente n.° 2. Esto también se cumple en la PI n.° 2 de la ruta principal 5330 y el SUB_Pi n.° 2 de cada de las sub-rutas 5331 y 5332.
Durante el procesamiento de reproducción de lista de reproducción en 3D del fichero 5300 de lista de reproducción en 3D, el dispositivo 102 de reproducción en primer lugar hace que un usuario o un programa de aplicación seleccione la sub-ruta para reproducción. Como alternativa, el dispositivo 102 de reproducción puede seleccionar la sub-ruta para reproducción de acuerdo con el tamaño de pantalla del dispositivo 103 de visualización, o puede seleccionar la sub-ruta haciendo referencia a la distancia interpupilar del observador. Seleccionando la sub-ruta de esta manera, la paralaje entre los planos de vídeo de la vista izquierda y la vista derecha puede cambiarse fácilmente. Adicionalmente, debido a los cambios de información de compensación provocados conmutando el flujo de vídeo de vista dependiente, las compensaciones de los planos de gráficos
5
10
15
20
25
30
35
40
45
50
55
60
65
reproducidos desde el flujo de PG o flujo de IG incluido en el fichero en 2D 5310 cambian. Esto hace fácil cambiar la sensación de profundidad de las imágenes de vídeo en 3D.
(1-E-2) En el fichero de lista de reproducción en 3D mostrado en la Figura 31, el flujo de vídeo de vista de base se registra en la tabla 3205 de STN en la ruta 3101 principal, y el flujo de vídeo de vista dependiente se registra en la tabla de STN SS 3130 en los datos 3103 de extensión. Como alternativa, el flujo de vídeo de vista dependiente puede registrarse en la tabla de STN. En ese caso, la tabla de STN puede incluir una bandera que indica cuál de la vista de base y la vista dependiente se representa por el flujo de vídeo registrado.
(1-E-3) De acuerdo con la realización 1 de la presente invención, los ficheros de lista de reproducción en 2D y ficheros de lista de reproducción en 3D se almacenan de manera separada en el disco 101 BD-ROM. Como alternativa, de una manera similar a los datos 3103 de extensión, la sub-ruta 3102 mostrada en la Figura 31 puede registrarse en un área que se hace referencia únicamente por el dispositivo 102 de reproducción en el modo de reproducción en 3D. En ese caso, los ficheros de lista de reproducción en 3D tal como están pueden usarse como los ficheros de lista de reproducción en 2D puesto que no hay riesgo de que la sub-ruta 3102 produzca que el dispositivo 102 de reproducción en el modo de reproducción en 2D funcione incorrectamente. Como resultado, la autoría del disco bD-ROM se simplifica.
(1-E-4) Los ID de compensación de referencia y valores de ajuste de compensación para el flujo de PG, flujo de IG y flujo de subtítulo de texto pueden almacenarse en la tabla de STN sS 3130 en lugar de en la tabla 3205 de STN. Como alternativa, esta información puede almacenarse en la información 2220 de atributo de flujo en el fichero de información de clip. Adicionalmente, el ID de compensación de referencia puede almacenarse en la entrada de subtítulo para cada flujo de PG y flujo de subtítulo de texto o puede almacenarse en cada página del flujo de IG.
(1-E-5) Cuando los ID de compensación de referencia se establecen en el fichero de lista de reproducción en 3D, pueden prescribirse las siguientes condiciones de restricción para conexión ininterrumpida entre PI. Por ejemplo, cuando la CC = 5 se establece en la PI n.° 2 de la ruta principal 5330 mostrada en la Figura 53, las imágenes de vídeo en las secciones de reproducción definidas por la PI n.° 1 y PI n.° 2 necesitan conectarse de manera ininterrumpida. En este caso, en la PI n.° 1 y PI n.° 2, se prohíben cambios tanto a los valores de los ID de compensación de referencia como del número de secuencias de compensación incluidas en el flujo de vídeo de vista dependiente, es decir el número de entradas. Adicionalmente, pueden prohibirse los cambios a tanto los valores de ajuste de compensación como del número de entradas de los mismos. Con estas condiciones de restricción, el dispositivo 102 de reproducción puede omitir la actualización del SPRM(27) cuando se cambia la PI actual desde la Pi n.° 1 a la PI n.° 2. Puesto que la carga de procesamiento para la conexión ininterrumpida se reduce de esta manera, la fiabilidad de este procesamiento puede mejorarse adicionalmente. Como resultado, la calidad de las imágenes de vídeo en 3D puede mejorarse.
(1-E-6) en la tabla de STN, dos o más valores de ajuste de compensación pueden establecerse para una pieza de los datos de flujo. La Figura 54 es un diagrama esquemático que muestra una tabla 5400 de sTn de este tipo. Como se muestra en la Figura 54, la tabla 5400 de STN asocia un STN 5401 con una entrada de flujo 5410 de flujo de PG 1 y una pieza de información 5403 de atributo de flujo. La información 5403 de atributo de flujo incluye tres tipos de valores de ajuste de compensación n.° 1 - n.° 3 5411-5413 junto con un ID 5410 de compensación de referencia. Estos valores de ajuste de compensación se usan para cambiar una compensación dependiendo del tamaño de la pantalla de un dispositivo de visualización; la compensación se ha de proporcionar a un plano de gráficos generado desde el flujo de PG 1.
Suponiendo que la correspondencia entre los tipos de valores de ajuste de compensación y tamaños de pantalla se especifica con antelación. Específicamente, el valor de ajuste de compensación n.° 1 5411, el valor de ajuste de compensación n.° 2 5412 y el valor de ajuste de compensación n.° 3 5413 se usan respectivamente cuando el tamaño de pantalla cae dentro del intervalo de 0-33 pulgadas, 34-66 pulgadas y 67 pulgadas o mayor. Los valores 5411-5413 de ajuste de compensación se establecen para satisfacer la siguiente condición: las paralajes entre imágenes de gráficos de la vista izquierda y de la vista derecha producidas proporcionando una compensación a un plano de gráficos tienen el valor máximo igual a o menor que una distancia interpupilar de un espectador general (en el caso de un niño, 5 cm o menor). Siempre que se satisfaga esta condición, la paralaje no superará la distancia interpupilar del observador. Esto puede reducir el riesgo de que el observador sufra mareos de movimiento inducidos visualmente y tensión ocular.
Cada vez que el cambio de PI actual produzca el cambio del número total de valores de ajuste de compensación asignados a una pieza de los datos de flujo, la unidad 4235 de control de reproducción del dispositivo 102 de reproducción selecciona valores de ajuste de compensación a usarse realmente dependiendo del tamaño de la pantalla del dispositivo 103 de visualización. Específicamente, la unidad 4235 de control de reproducción obtiene en primer lugar el tamaño de la pantalla del dispositivo 103 de visualización, si fuera necesario, realizando la autenticación de HDMI. La unidad 4235 de control de reproducción a continuación selecciona uno del valor de ajuste de compensación n.° 1-n.° 3, 4801-4803, dependiendo dentro de qué intervalo de tamaño de pantalla caiga el dispositivo 103 de visualización; 0-33 pulgadas, 34-66 pulgadas, 67 pulgadas o mayor. La unidad 4235 de control de reproducción almacena información que representa el tipo del valor seleccionado como una variable de reproductor en la unidad 4236 de almacenamiento variable de reproductor. Por lo tanto, hasta que se realiza de nuevo la selección de valores de ajuste de compensación, la unidad 4235 de control de reproducción selecciona valores de ajuste de compensación del tipo indicado por la variable de reproductor para cada tabla de STN, y a continuación actualiza el valor del SPRM(28) al valor seleccionado.
(1-F) El fichero 211 de índice mostrado en la Figura 35 incluye la bandera 3520 de existencia en 3D y la bandera 3530 de preferencia 2D/3D compartidas por todos los títulos. Como alternativa, el fichero de índice puede
5
10
15
20
25
30
35
40
45
50
55
60
65
especificar una bandera de existencia 3D o bandera de preferencia 2D/3D diferente para cada título.
(1-G) SPRM(27), SPRM(28)
(1-G-1) La unidad 4234 de ejecución de programa puede establecer los valores del SPRM(27) 4751 y el SPRM(28) 4752 de acuerdo con un objeto de película u objeto de BD-J. En otras palabras, el dispositivo 102 de reproducción puede provocar que un programa de aplicación establezca el ID de compensación de referencia y el valor de ajuste de compensación. Adicionalmente, un programa de aplicación de este tipo puede limitarse a un objeto asociado con el elemento “primera reproducción” 3501 en la tabla 3510 de índice.
(1-G-2) La unidad 4235 de control de reproducción puede hacer que el observador ajuste la compensación para que se proporcione al plano de gráficos. Específicamente, cuando el observador opera el control 105 remoto o el panel frontal del dispositivo 102 de reproducción y solicita establecer el valor de ajuste de compensación, en primer lugar la unidad 4233 de procesamiento de evento de usuario recibe la solicitud y notifica la unidad 4235 de control de reproducción de la solicitud. A continuación, en respuesta a la solicitud, la unidad 4235 de control de reproducción visualiza una pantalla de operación para ajustar la compensación en el dispositivo 103 de visualización. En este punto, se usa una OSD del dispositivo 102 de reproducción para visualizar esta pantalla de operación. La unidad 4235 de control de reproducción hace que el observador seleccione adicionalmente un plano de gráficos para ajuste y aumente/reduzca el valor de compensación, a través de la operación del control 105 remoto o similares. La unidad 4235 de control de reproducción a continuación actualiza el SPRM(28) para añadir o restar un valor predeterminado a/desde el valor de ajuste de compensación que corresponde al plano de gráficos seleccionado. Preferentemente, durante el procesamiento de ajuste, la unidad 4235 de control de reproducción provoca que la unidad 4202 de reproducción continúe el procesamiento de reproducción del plano de gráficos. En este punto, la unidad 4202 de reproducción hace a la pantalla de operación o a la imagen de gráficos semi-transparente sea cual sea la que se visualiza más cerca del espectador, o visualiza la pantalla de operación más cerca que la imagen de gráficos. Esto hace la imagen de gráficos visible incluso cuando la pantalla de operación se está visualizando, y por lo tanto el observador puede confirmar inmediatamente el efecto de aumentar o reducir el valor de compensación de la misma manera que cuando se ajusta el brillo o color de la pantalla.
(1-G-3) Para el control de compensación, cada una de las unidades 4731-4734 de recorte mostradas en la Figura 47 usa la secuencia de compensación especificada por el ID de desplazamiento de referencia indicado por el SPRM(27). A la inversa, para control de compensación, cada unidad 4731-4734 de recorte puede hacerse para no usar la secuencia de compensación especificada por cada ID de secuencia de compensación indicado por un SPRM predeterminado. En otras palabras, el SPRm puede indicar los ID de secuencia de compensación (PG_ref_offset_id_mask, IG_ref_offset_id_mask, SV_ref_offset_id_mask, IM_ref_offset_id_mask) que se han de enmascarar durante el control de compensación. En este caso, cada una de las unidades 4731-4734 de recorte puede seleccionar el ID de la secuencia de compensación que incluye el valor de compensación más grande de entre las secuencias de compensación que se reciben desde el decodificador 4225 objetivo de sistema y se asignan a los ID de secuencia de compensación no enmascarados en la información 4707 de compensación. De esta manera, la profundidad de las imágenes de gráficos representadas por el plano de vídeo secundario, plano de PG, plano de IG y plano de imagen puede alinearse fácilmente. Esto permite un aumento en el grado de libertad cuando se crea cada pieza de los datos de flujo.
(1-H) Cuando se visualiza un menú único para el dispositivo 102 de reproducción como una OSD, el dispositivo 102 de reproducción puede realizar control de compensación en el plano de gráficos que representa las imágenes de vídeo en 2D en el menú, es decir en el plano de OSD. En este caso, el dispositivo 102 de reproducción puede seleccionar, dentro de la información de compensación transmitida por el decodificador 4225 objetivo de sistema en el tiempo de presentación del menú, la información de compensación que tiene una dirección de compensación que está más cerca al observador que la pantalla y que tiene el valor de compensación más grande. El menú puede visualizarse por lo tanto más cerca que cualquier imagen de gráficos en 3D, tal como subtítulos o similares, reproducida desde el contenido de vídeo en 3D.
Como alternativa, el dispositivo 102 de reproducción puede pre-almacenar información de compensación para el plano de OSD. Un ID de secuencia de compensación específico, tal como offset_id = 0, se asigna a esta información de compensación. Adicionalmente, pueden ponerse las siguientes dos condiciones en la información de compensación con un ID de secuencia de compensación = 0: (1) La dirección de compensación está más cerca al observador que la pantalla, y (2) el valor de compensación es el mismo que el valor de compensación más grande entre aquellos incluidos en las piezas de información de compensación que (i) se asignan al ID de secuencia de compensación distinto de cero, (ii) corresponden al mismo número de fotograma, y (iii) tienen direcciones de compensación más cercanas a la pantalla que el observador. Con esta prescripción, el dispositivo 102 de reproducción no tiene que seleccionar información de compensación de entre la información de compensación transmitida por el decodificador 4225 objetivo de sistema, simplificando por lo tanto el control de compensación del plano de OSD. También, cada una de las unidades 4731-4734 de recorte puede usar información de compensación para el ID de secuencia de compensación = 0 como un sustituto cuando no se puede detectar los ID de compensación de referencia indicados por SPRM(27) entre la información 4707 de compensación recibida desde el decodificador 4225 objetivo de sistema.
(1-I) En el dispositivo de reproducción en 3D, además del ajuste el nivel parental en el SPRM(13), el nivel parental en 3D puede establecerse en el SPRM(30). El nivel parental en 3D indica una edad restringida predeterminada y se usa para control parental de la visualización de títulos de vídeo en 3D registrados en el disco 101 BD-ROm. Como el valor en el SPRM(13), un usuario del dispositivo de reproducción en 3D establece el valor del SPRM(30) mediante, por ejemplo, una OSD del dispositivo de reproducción en 3D. Lo siguiente es un
5
10
15
20
25
30
35
40
45
50
55
60
65
ejemplo de cómo el dispositivo de reproducción en 3D realiza control parental en cada título de vídeo en 3D. El dispositivo de reproducción en 3D lee en primer lugar, desde el disco 101 BD-ROM, la edad para la que está permitida la visualización de un título en el modo de reproducción en 2D y compara esta edad con el valor del SPRM(13). Si esta edad es igual a o menor que el valor del SPRM(13), el dispositivo de reproducción en 3D detiene la reproducción del título. Si esta edad es mayor que el valor del SPRM(13), el dispositivo de reproducción en 3D lee, desde el disco 101 BD-ROM, la edad para la que está permitida la visualización de un título en el modo de reproducción en 3D y compara esta edad con el valor del SPRM(30). Si esta edad es igual a o mayor que el valor del SPRM(30), el dispositivo de reproducción en 3D reproduce el título en el modo de reproducción en 3D. Si esta edad es menor que el valor del SPRM(30) e igual a o mayor que el valor del SPRM(13), el dispositivo de reproducción en 3D reproduce el título en el modo de reproducción en 2D. De esta manera, teniendo en cuenta la diferencia en la distancia interpupilar del observador, es posible realizar un control parental de modo que, por ejemplo, “los niños cuyas edades son menores que un valor predeterminado pueden ver imágenes de vídeo en 3D únicamente como imágenes de vídeo en 2D”. Preferentemente el control parental se realiza cuando se determina que “el dispositivo de visualización soporta reproducción de imágenes de vídeo en 3D” en el procesamiento de selección de un fichero de lista de reproducción para reproducción mostrado en la Figura 36, en concreto cuando se determina SÍ en la etapa S3605. Obsérvese que un valor que indica permisión/prohibición de modo de reproducción en 3D puede establecerse en el SPRM(30) en lugar del nivel parental, y el dispositivo de reproducción en 3D puede determinar si el modo de reproducción en 3D es válido o inválido de acuerdo con el valor.
(1-J) En el dispositivo de reproducción en 3D, un valor que indica “cuál del modo de reproducción en 2D y modo de reproducción en 3D se ha de priorizar” puede establecerse en el SPRM(31). Un usuario del dispositivo de reproducción en 3D establece el valor del SPRM(31) mediante, por ejemplo, una OSD del dispositivo de reproducción en 3D. En la etapa S3603 en el procesamiento de selección de un fichero de lista de reproducción para reproducción mostrado en la Figura 36, el dispositivo de reproducción en 3D hace referencia al SPRM(31) así como la bandera de preferencia de 2D/3D. Cuando tanto el SPRM(31) como la bandera de preferencia 2D/3D indican el modo de reproducción en 2D, el dispositivo de reproducción en 3D selecciona el modo de reproducción en 2D. Cuando tanto el SPRM(31) como la bandera de preferencia 2D/3D indican el modo de reproducción en 3D, el dispositivo de reproducción en 3D continúa a la etapa S3605 y realiza la autenticación de HDMI, sin visualizar la pantalla de selección de modo de reproducción. Como resultado, cuando el dispositivo de visualización soporta las imágenes de vídeo en 3D, el dispositivo de reproducción en 3D selecciona el modo de reproducción en 3D. Cuando el SPRM(31) y la bandera de preferencia 2D/3D indican diferentes modos de reproducción, el dispositivo de reproducción en 3D ejecuta la etapa S3604, es decir visualiza la pantalla de selección de modo de reproducción para que el usuario tenga que seleccionar un modo de reproducción. Como alternativa, el dispositivo de reproducción en 3D puede el programa de aplicación tener que seleccionar un modo de reproducción. De esta manera, incluso si la bandera de preferencia de 2D/3D se establece en el contenido de vídeo en 3D, es posible que el usuario tenga que seleccionar un modo de reproducción únicamente cuando el modo de reproducción indicado por la bandera de preferencia de 2D/3D no coincide con el modo de reproducción indicado por el SPRM(31) que es el modo de reproducción que se ha establecido por el usuario con antelación.
Un programa de aplicación tal como un objeto de BD-J puede seleccionar un modo de reproducción haciendo referencia al SPRM(31). Adicionalmente, el programa de aplicación puede determinar el estado inicial del menú para que se visualice en la pantalla de selección dependiendo del valor del SPRM(31), cuando se provoca que un usuario seleccione un modo de reproducción en la etapa S3604 mostrada en la Figura 36. Por ejemplo, cuando el valor del SPRM(31) indica que el modo de reproducción en 2D tiene una alta prioridad, el menú se visualiza en el estado en el que un cursor se sitúa en un botón para seleccionar el modo de reproducción en 2D; cuando el valor del SPRM(31) indica que el modo de reproducción en 3D tiene una alta prioridad, el menú se visualiza en el estado en el que se sitúa el cursor en un botón para seleccionar el modo de reproducción en 3D. Como alternativa, cuando el dispositivo de reproducción en 3D tiene una función para gestionar las cuentas de una pluralidad de usuarios tal como un padre, una madre y un hijo, el dispositivo de reproducción en 3D puede establecer un valor al SPRM(31) que depende de la cuenta de un usuario que está registrado en el tiempo actual. El valor del SPRM(31) puede indicar “cuál del modo de reproducción en 2D y del modo de reproducción en 3D se ha de establecer siempre”, además de “cuál del modo de reproducción en 2D y del modo de reproducción en 3D se ha de priorizar”. Cuando el valor del SPRM(31) indica “modo de reproducción en 2D siempre ha de estar activado”, el dispositivo de reproducción en 3D siempre selecciona el modo de reproducción en 2D independientemente del valor de la bandera de preferencia de 2D/3D. En ese caso, el valor del SPRM(25) se establece para indicar el modo de reproducción en 2D. Cuando el valor del SPRM(31) indica “modo de reproducción en 3D siempre ha de estar activado”, el dispositivo de reproducción en 3D realiza la autenticación de HDMI sin visualizar la pantalla de selección de modo de reproducción independientemente del valor de la bandera de preferencia de 2D/3D. En ese caso, el valor del SPRM(25) se establece para indicar el modo de reproducción en 3D (modo L/R o modo de profundidad). De esta manera, incluso si la bandera de preferencia de 2D/3D se establece en el contenido de vídeo en 3D, es posible permitir que siempre se priorice el modo de reproducción que se ha establecido por el usuario con antelación.
(1-K) El dispositivo 102 de reproducción puede hacer que el usuario registre una distancia interpupilar como un SPRM reservado, por ejemplo SPRM(32). En este caso, el dispositivo 102 de reproducción puede ajustar el valor de ajuste de compensación de modo que el valor máximo de la paralaje entre las imágenes de gráficos de la vista izquierda y de la vista derecha no superan el valor registrado en el SPRM(32). Específicamente, es suficiente que el dispositivo 102 de reproducción realice los siguientes cálculos para cada valor de compensación
5
10
15
20
25
30
35
40
45
50
55
60
emitido por el decodificador objetivo de sistema. El dispositivo 102 de reproducción busca en primer lugar la relación del valor del SPRM(32) a la anchura (longitud horizontal) de la pantalla del dispositivo 103 de visualización y busca adicionalmente el producto de esta relación y el número de píxeles horizontales del dispositivo 103 de visualización. Este producto representa dos veces el límite superior de la compensación que puede proporcionarse al plano de gráficos mediante control de compensación. A continuación, el dispositivo 102 de reproducción compara este producto con el doble de cada valor de compensación. Si el doble de cualquier valor de compensación es igual a o mayor que este producto, el dispositivo 102 de reproducción identifica el ID de la secuencia de compensación que incluye el valor de compensación y reduce el valor de ajuste de compensación para el plano de gráficos indicado por ese ID. La cantidad de la reducción se establece a al menos la mitad de la diferencia entre el doble del valor de compensación y el producto anterior. El valor máximo de la paralaje entre una imagen de gráficos de vista izquierda y una de vista derecha no supera la distancia interpupilar del observador. Esto puede reducir el riesgo de que el observador sufra mareos de movimiento inducidos visualmente y tensión ocular.
(1-L) Ajuste de compensación de salida
(1-L-I) Puesto que el procedimiento de generación de secuencias de fotogramas alternos representa una paralaje entre las vistas izquierda y derecha por el número de píxeles en la dirección horizontal, el tamaño real de la paralaje depende del tamaño de la pantalla de un dispositivo de visualización, en concreto, el tamaño de un píxel. Por otra parte, el sentido de profundidad de las imágenes de vídeo en 3D depende del tamaño real de la paralaje. Por consiguiente, para evitar perjudicar la impresión potente del sentido de profundidad de las imágenes de vídeo en 3D en una pantalla de cualquier tamaño de las imágenes de vídeo en 3D y que fatigue los ojos del observador excesivamente, la paralaje entre la vista izquierda y vista derecha necesita ajustarse para que sea apropiada al tamaño de la pantalla. Como un procedimiento del ajuste, el dispositivo de reproducción en 3D proporciona adicionalmente una compensación a los datos de fotograma finales combinados por los sumadores de planos. La compensación se proporciona de una manera similar en la que se proporciona una compensación a un plano de gráficos en el modo de 1 plano + compensación. El control de compensación que se aplica adicionalmente a los datos de fotogramas finales se denomina como “ajuste de compensación de salida”. Las Figuras 55A-55C son diagramas esquemáticos que muestran paralajes PRA, PRB y PRC entre vistas izquierda y derecha visualizadas en una pantalla de 32 pulgadas SCA, de 50 pulgadas sCb y de 100 pulgadas SCC, respectivamente. Las imágenes LA1, LA2, LB, LC1 y LC2 dibujadas en las figuras por líneas rectas representan las vistas izquierda, y las imágenes RA1, RA2, RB, RC1 y RC2 dibujadas por líneas discontinuas representan vistas derecha. En este punto, suponiendo que el contenido de vídeo especifica paralajes entre vistas izquierda y derecha para producir un sentido óptimo de profundidad cuando las imágenes de vídeo en 3D se visualizan en una pantalla de 50 pulgadas. Como se muestra en la Figura 55B, la paralaje entre la vista izquierda LB y la vista derecha RB es igual a un valor óptimo PRB cuando una imagen de vídeo en 3D representada por el contenido de vídeo se visualiza en una pantalla de 50 pulgadas SCB.
La paralaje DA entre la vista izquierda LA1 y la vista derecha Ra 1 dibujada por las líneas finas en la Figura 55A es igual en número de píxeles horizontales a la paralaje DB entre la vista izquierda LB y la vista derecha RB dibujada en la Figura 55B. Por otra parte, un píxel en la pantalla de 32 pulgadas SCA es menor que un píxel en la pantalla de 50 pulgadas SCB. Por consiguiente, las imágenes de vídeo en 3D generadas por la paralaje DA entre la vista izquierda LA1 y la vista derecha RA1 dibujadas por las líneas finas producen un sentido de profundidad más débil que el óptimo, en general. En ese caso, el ajuste de compensación de salida aumenta la paralaje entre la vista izquierda y la vista derecha en dos veces un valor de ajuste predeterminado CRA. La paralaje PRA entre la vista izquierda LA2 y la vista derecha RA2 dibujada por las líneas finas en la Figura 55A indica una paralaje después del ajuste de compensación de salida. De esta manera, cuando se aumenta una paralaje entre vistas izquierda y derecha, se potencia un sentido de profundidad de las imágenes de vídeo en 3D. Esto evita que las imágenes de vídeo en 3D pierdan impresión de potencia. La paralaje DC entre la vista izquierda lC1 y la vista derecha RC1 dibujada por las líneas finas en la Figura 55c es igual en número de píxeles horizontales a la paralaje PRB entre la vista izquierda LB y la vista derecha RB dibujada en la Figura 55B. Por otra parte, un píxel de la pantalla de 100 pulgadas SCC es mayor que un píxel de la pantalla de 50 pulgadas SCB. Por consiguiente, las imágenes de vídeo en 3D generadas por la paralaje DC entre la vista izquierda LC1 y la vista derecha RC1 dibujadas por las líneas finas producen un sentido de profundidad más intenso que el óptimo, en general. En ese caso, el ajuste de compensación de salida disminuye la paralaje entre la vista izquierda y la vista derecha en dos veces un valor de ajuste predeterminado CRC. La paralaje PRC entre la vista izquierda LC2 y la vista derecha RC2 dibujada por líneas finas en la Figura 55C indica la paralaje después del ajuste de compensación de salida. De esta manera, cuando se reduce una paralaje entre vistas izquierda y derecha, se suprime un sentido de profundidad de las imágenes de vídeo en 3D. Esto evita que un espectador sufra fatiga ocular.
Los valores de ajuste CRA y CRC mostrados en las Figuras 55A y 55C se denominan como “valores de ajuste de compensación de salida”. El contenido de vídeo incluye una tabla de correspondencia entre tamaños de pantalla y valores de ajuste de compensación de salida almacenados en un fichero de índice, fichero de lista de reproducción o fichero de información de clip. La Figura 56A es un diagrama esquemático que muestra la tabla de correspondencia. Como se muestra en la Figura 56A, se establece un valor de ajuste de compensación de salida para cada intervalo de tamaño de pantalla con una anchura de 10 pulgadas. La magnitud de cada valor de ajuste de compensación de salida indica el número de píxeles horizontales, y el signo de los mismos indica el
5
10
15
20
25
30
35
40
45
50
55
60
65
aumento/reducción de la paralaje entre vistas izquierda y derecha. Obsérvese que el intervalo de tamaño de pantalla puede tener una anchura distinta de 10 pulgadas. La tabla de correspondencia se establece de acuerdo con normas o por un usuario. Adicionalmente, dos o más tipos de tablas de correspondencia pueden registrarse en un dispositivo de reproducción en 3D con antelación, y contenido de vídeo puede especificar el identificador de un tipo de las tablas de correspondencia; el tipo se ha de usar durante la reproducción del contenido de vídeo. (1-L-2) Un dispositivo de reproducción en 3D puede usar una función predeterminada para seleccionar un valor de ajuste de compensación de salida, en lugar de la tabla de correspondencia anteriormente descrita. La Figura 56B es un gráfico que representa la función. El eje horizontal de este gráfico indica el tamaño de la pantalla en pulgadas, y el eje vertical del mismo indica el valor de ajuste de compensación de salida representado por el número de píxeles con un signo. El dispositivo de reproducción en 3D usa la función representada por el gráfico para calcular un valor de ajuste de compensación de salida desde el tamaño de la pantalla de un dispositivo de visualización. Como muestra el gráfico, el valor de ajuste de compensación de salida es un valor positivo mayor cuando el tamaño de la pantalla es menor que 50 pulgadas, y un valor negativo mayor cuando el tamaño de la pantalla es mayor que 50 pulgadas. Obsérvese que el valor de ajuste de compensación de salida se mantiene en un valor positivo sustancialmente constante cuando el tamaño de la pantalla es 32 pulgadas o menor, y el valor de ajuste de compensación de salida se mantiene a un valor negativo sustancialmente constante cuando el tamaño de la pantalla es 103 pulgadas o mayor.
(1-L-3) El contenido de vídeo puede incluir un valor óptimo de tamaño de pantalla que se supone en el tiempo de autoría (assumed_TV_size_when_authoring), y un dispositivo de reproducción en 3D puede determinar un valor de ajuste de compensación de salida basándose en el valor óptimo. Por ejemplo, cuando el tamaño de la pantalla de un dispositivo de visualización supera el valor óptimo, el dispositivo de reproducción en 3D reduce en primer lugar el tamaño del fotograma de las imágenes de vídeo en 3D al valor óptimo. El dispositivo de reproducción en 3D a continuación superpone un límite negro en los bordes de cada fotograma, y provoca que la totalidad del fotograma y el borde negro sean iguales en tamaño la pantalla del dispositivo de visualización. El dispositivo de reproducción en 3D ajusta adicionalmente el valor de ajuste de compensación de salida de modo que la paralaje entre las vistas izquierda y derecha visualizadas dentro del borde negro que es igual en magnitud a una paralaje entre las vistas izquierda y derecha si se visualizan en la totalidad de una pantalla con un tamaño igual al valor óptimo. Esto posibilita que se mantenga un sentido de profundidad de las imágenes de vídeo en 3D igual al supuesto en el tiempo de autoría.
(1-L-4) La Figura 57 es un diagrama de bloques que muestra los componentes de un dispositivo de reproducción en 3D requeridos por el ajuste de compensación de salida. El dispositivo 5700 de reproducción en 3D mostrado en la Figura 57, en contraste al 4200 mostrado en la Figura 42, incluye una unidad 5701 de aplicación de valor de ajuste de compensación de salida. Otros componentes del mismo son similares a los correspondientes. En la Figura 57, los componentes similares a los mostrados en la Figura 42 se marcan con los mismos números de referencia. Adicionalmente, los detalles de los componentes similares pueden hallarse en la descripción en la Figura 42. La unidad 4236 de almacenamiento variable de reproductor almacena valores de ajuste de compensación de salida en el SPRM(36). Los valores de ajuste de compensación de salida son basándose en un tamaño de pantalla obtenido por la unidad 4237 de comunicación de HDMI desde el dispositivo 103 de visualización a través de autenticación de HDMI, y se determinan por la unidad 4235 de control de reproducción usando la tabla de correspondencia o la función mostrada en la Figura 56A o 56B. Como alternativa, un programa de aplicación tal como un objeto de BD-J puede establecer automáticamente el valor del SPRM(35) o provocar que un usuario establezca el valor usando una GUI. La unidad 5701 de aplicación de valor de ajuste de compensación de salida usa un valor de ajuste de compensación de salida indicado por el SPRM(35) para proporcionar una compensación a cada uno de los datos de fotograma de la vista izquierda y vista derecha combinados por los sumadores 4226 de planos. El ajuste de compensación de salida de los datos de fotograma por la unidad 5701 de aplicación de valor de ajuste de compensación de salida es similar al control de compensación sobre los datos de plano de PG GP por la segunda unidad 4732 de recorte mostrada en la Figura 49.
(1-L-5) El tamaño de la pantalla del dispositivo 103 de visualización puede almacenarse en el SPRM(35) en lugar de valores de ajuste de compensación de salida. En ese caso, la unidad 5701 de aplicación de valor de ajuste de compensación de salida recupera un valor de ajuste de compensación de salida asociado con el tamaño de la pantalla indicado por el SPRM(35) desde la tabla de correspondencia mostrada en la Figura 56A.
(1-L-6) La unidad 4236 de almacenamiento variable de reproductor puede almacenar adicionalmente un valor de ajuste de compensación de salida alfa en el SPRM(36). El valor de ajuste de compensación de salida alfa representa un valor numérico positivo. La unidad 5701 de aplicación de valor de ajuste de compensación de salida usa el producto de un valor de ajuste de compensación de salida indicado por el SPRM(35) y un valor de ajuste de compensación de salida alfa indicado por el SPRM(36) como un valor de ajuste de compensación de salida real. Esto posibilita que las profundidades de las imágenes de vídeo en 3D ajustadas por el ajuste de compensación de salida dependan no únicamente de los tamaños de pantalla sino también de las edades de los observadores. Por ejemplo, cuando los observadores incluyen un niño con una distancia interpupilar menor que un adulto, el ajuste de compensación de salida para tamaño de pantalla pequeña establece el valor de ajuste de compensación de salida alfa a un valor menor que “1,” y el ajuste de compensación de salida para tamaño de pantalla grande lo establece a un valor mayor que “1”. Esto debilita un sentido de profundidad de las imágenes de vídeo en 3D independientemente del tamaño de la pantalla. La unidad 4234 de ejecución de programa o la unidad 4235 de control de reproducción pueden usar una GUI o una OSD para provocar que un usuario establezca un valor de ajuste de compensación de salida alfa. En ese caso, pueden representarse niveles
5
10
15
20
25
30
35
40
45
50
55
60
aceptables del valor de ajuste de compensación de salida alfa mediante, por ejemplo, los siguientes tres niveles: “el sentido de profundidad de las imágenes de vídeo en 3D es intenso”, “normal”, y “débil”. Como alternativa, un valor de ajuste de compensación de salida alfa puede almacenarse en datos complementarios en un flujo de vídeo, un descriptor en una PMT, o un PI en un fichero de lista de reproducción incluido en contenido de vídeo. Con esta estructura, el valor de ajuste de compensación de salida alfa puede variar con las escenas representadas por el flujo de vídeo. En particular, el valor de ajuste de compensación de salida alfa puede establecerse para que se reduzca en una escena produciendo un sentido intenso de profundidad.
(1-L-7) Los valores de ajuste de compensación de salida pueden cambiarse dependiendo de una distancia entre un observador y una pantalla, en lugar del tamaño de la pantalla. Adicionalmente, los valores de ajuste de compensación de salida alfa pueden depender de la distancia. En ese caso, por ejemplo, se monta un sensor de distancia en las gafas 104 de obturador mostradas en la Figura 1 y se usa para medir una distancia entre el dispositivo 103 de visualización y la pantalla 131. La distancia se transmite desde las gafas 104 de obturador al dispositivo 103 de visualización en cualquier momento, y se transmite adicionalmente desde el dispositivo 103 de visualización al dispositivo 102 de reproducción mediante el cable 122 de HDMI. El dispositivo 102 de reproducción usa la distancia para seleccionar un valor de ajuste de compensación de salida o un valor de ajuste de compensación de salida alfa.
(1-L-8) Cuando el dispositivo 103 de visualización es un proyector, las imágenes se amplían por lentes y se proyectan en una pantalla. Por consiguiente, el tamaño de un área de visualización en la pantalla cambia dependiendo de la distancia entre el proyector y la pantalla. En ese caso, el proyector determina el tamaño del área de visualización por, por ejemplo, cualquiera de los siguientes dos procedimientos. El primer procedimiento mide en primer lugar la distancia entre el proyector y la pantalla, y a continuación calcula el tamaño del área de visualización basándose en la relación entre la distancia y las características del sistema óptico del proyector, especialmente el ángulo de dispersión de la luz de proyección. En este punto, un sensor de distancia montado en el proyector se usa para medir la distancia. Por ejemplo, el sensor de distancia emite en primer lugar luz de láser infrarrojos y similares a la pantalla, y a continuación detecta la luz de reflejo desde la pantalla. Al mismo tiempo, el sensor de distancia también mide la longitud del tiempo que transcurre desde la emisión de la luz de láser hasta la detección de la luz de reflejo. El sensor de distancia a continuación calcula la distancia entre el proyector y la pantalla desde el tiempo transcurrido. El segundo procedimiento provoca que el proyector opere como sigue: el proyector proyecta en primer lugar un objeto gráfico de referencia tal como un segmento de línea en la pantalla, y a continuación usa una OSD o similares para instar a un espectador a que mida e introduzca el tamaño del objeto gráfico de referencia en la pantalla. El proyector a continuación calcula el tamaño del área de visualización desde el tamaño del objeto gráfico de referencia introducido por el observador.
(1-M) En algún contenido de vídeo, tal como contenido para visualizar letras de canción durante karaoke, imagen de gráficos de subtítulos o similares se visualiza de manera repetitiva como imágenes fijas, y únicamente las imágenes de gráficos se actualizan con frecuencia. Cuando se forma tal contenido en contenido de vídeo en 3D, la VAU en la que se colocan los metadatos de compensación incluye adicionalmente una secuencia código final. Cuando el dispositivo 102 de reproducción decodifica esta VAU, almacena la información de compensación obtenida desde los metadatos de compensación y no cambia la información de compensación hasta que se decodifica una VAU que incluye nuevos metadatos de compensación.
La Figura 58A es un diagrama esquemático que muestra una estructura de datos de un flujo 5800 de vídeo de vista dependiente que representa únicamente imágenes fijas. Cada VAU en el flujo 5800 de vídeo de vista dependiente representa una imagen fija. En este caso, un código 5803, 5804 de final de secuencia se coloca al final de cada VAU. Mientras tanto, los metadatos 5811, 5812 de compensación se colocan en los datos 5801, 5802 complementarios de cada VAU. Los metadatos 5811 de compensación en la VAU n.° 1 incluyen una secuencia de compensación [0] con un ID de secuencia de compensación = 0. Esta secuencia de compensación [0] incluye únicamente información de compensación en el fotograma n.° 1. De manera similar, en los metadatos 5812 de compensación de la VAU n.° 2, la secuencia de compensación [0] incluye únicamente información de compensación en el fotograma n.° 1.
Se supone en este punto que el fichero de lista de reproducción en 3D especifica los siguientes dos elementos: (1) las imágenes fijas representadas por las VAU en el flujo 5800 de vídeo de vista dependiente conmutadas a intervalos de 10 segundos, y (2) imágenes de gráficos representadas por el flujo de gráficos se solapan en cada imagen fija. La Figura 58B es un diagrama esquemático que muestra una secuencia 5821 de plano de vídeo de la vista izquierda, una secuencia 5822 de plano de vídeo de vista derecha y una secuencia 5830 de plano de gráficos que se reproducen de acuerdo con un fichero de lista de reproducción en 3D de este tipo. En la Figura 58B, los planos de vídeo en el tiempo cuando se conmuta la imagen fija se muestran con entramado. En el secuencia 5821 de plano de vídeo de la vista izquierda, la imagen fija indicada por el primer plano 5841 de vídeo se reproduce de manera repetitiva durante el primer intervalo 5861 de 10 segundos, y la imagen fija indicada por el siguiente plano
5851 de vídeo se reproduce de manera repetitiva para el siguiente intervalo 5871 de 10 segundos. En la secuencia 5822 de plano de vídeo de la vista derecha, la imagen fija indicada por el primer plano 5842 de vídeo se reproduce de manera repetitiva durante el primer intervalo 5862 de 10 segundos, y la imagen fija indicada por el siguiente plano
5852 de vídeo se reproduce de manera repetitiva para el siguiente intervalo 5872 de 10 segundos.
Cuando el dispositivo 102 de reproducción decodifica la VAU n.° 1 en el flujo 5800 de vídeo de vista dependiente, lee información de compensación para el fotograma n.° 1 desde los metadatos 5811 de compensación. Adicionalmente,
5
10
15
20
25
30
35
40
45
50
55
el dispositivo 102 de reproducción detecta el código 5803 de final de secuencia. En este punto, el dispositivo 102 de reproducción almacena la información de compensación para el fotograma n.° 1. De esta manera, durante el primer intervalo 5861 de 10 segundos, la compensación que se proporciona a la secuencia 5830 de plano de gráficos se mantiene constante de acuerdo con la información de compensación almacenada. En otras palabras, la profundidad de las imágenes de gráficos se mantiene constante.
Una vez que han pasado 10 segundos después de la decodificación de la VAU n.° 1, el dispositivo 102 de reproducción decodifica la VAU n.° 2, y lee nueva información de compensación para el fotograma n.° 1 desde los metadatos 5812 de compensación. Adicionalmente, el dispositivo 102 de reproducción detecta el código 5804 de final de secuencia. En este punto, el dispositivo 102 de reproducción almacena la información de compensación para el fotograma n.° 1. De esta manera, durante el siguiente intervalo 5871 de 10 segundos, la compensación proporcionada a la secuencia 5830 de plano de gráficos se cambia y se mantiene constante de acuerdo con la información de compensación nuevamente almacenada. En otras palabras, las imágenes de gráficos se mantienen constantes a una nueva profundidad.
Cuando una VAU incluye una secuencia código final, el dispositivo 102 de reproducción se provoca por lo tanto que almacene información de compensación existente como está. Por consiguiente, incluso cuando un flujo de vídeo está compuesto únicamente de imágenes fijas, el dispositivo 102 de reproducción puede mantener de manera fiable el control de compensación para el plano de gráficos.
(1-N) Compensación de alineación incorrecta entre vista izquierda y vista derecha
Hay casos en los que tiene lugar una “alineación incorrecta” entre una vista izquierda y una vista derecha. El dispositivo 102 de reproducción o el dispositivo 103 de visualización de acuerdo con la realización 1 de la presente invención compensan la alineación incorrecta usando los medios descritos a continuación. Esto evita el riesgo de que la alineación incorrecta pueda provocar que los espectadores se sientan incómodos.
El dispositivo 102 de reproducción usa las unidades de función mostradas en la Figura 42 para compensar la alineación incorrecta anteriormente mencionada. Como alternativa, el dispositivo 103 de visualización puede realizar el procesamiento de compensación. La Figura 59 es un diagrama de bloques del dispositivo 103 de visualización que realiza el procesamiento de compensación. Como se muestra en la Figura 59, el dispositivo 103 de visualización incluye una unidad 5901 de recepción, una unidad 5902 de procesamiento de flujo, una unidad 5903 de procesamiento de señal y una unidad 5904 de salida. La unidad 5901 de recepción recibe datos de flujo multiplexados desde diversos medios tal como un disco BD-ROM, dispositivo de memoria de semiconductores, red externa y onda de difusión, así como desde el dispositivo 102 de reproducción, y pasa los datos de flujo multiplexados recibidos a la unidad 5902 de procesamiento de flujo. La unidad 5902 de procesamiento de flujo separa diversos tipos de datos tales como vídeo, audio y gráficos desde los datos de flujo multiplexados, y pasa los diversos tipos de datos a la unidad 5903 de procesamiento de señal. La unidad 5903 de procesamiento de señal decodifica cada uno de los diversos tipos de datos, y pasa los resultados de los mismos a la unidad 5904 de salida. La unidad 5904 de salida convierte cada uno de los datos decodificados en un formato predeterminado y emite los resultados de los mismos. La salida de la unidad 5904 de salida es el propio vídeo/audio. Como alternativa, la salida puede ser una señal de vídeo/audio en el formato de HDMI. Excepto por las partes mecánicas tales como la unidad de disco, panel de visualización y altavoz, los elementos 5901, 5902, 5903 y 5904 mostrados en la Figura 59 se implementan en uno o más circuitos integrados.
(1-N-1) Alineación incorrecta horizontal entre vista izquierda y vista derecha
La Figura 60A es una vista en planta que muestra esquemáticamente ángulos de visión horizontal HAL y HAR para un par de cámaras de vídeo CML y CMR que filman imágenes de vídeo en 3D. Como se muestra en la Figura 60A, el par de cámaras de vídeo CML y CMR se colocan lado a lado en la dirección horizontal. La cámara de vídeo de la vista izquierda CML filma la vista izquierda, y la cámara de vídeo derecha CMR filma la vista derecha. Los ángulos de visión horizontal HAL y HAR de las cámaras de vídeo CML y CMR tienen el mismo tamaño pero se diferencian en la localización. Esto produce una banda AL que está incluida únicamente en el ángulo de visión horizontal HAL de la cámara de vídeo izquierda CML y una banda AR que está incluida únicamente en el ángulo de visión horizontal HAR de la cámara de vídeo derecha CMR. El objeto OBC localizado en la sección común a ambos ángulos de visión horizontal HAL y HAR se captura por ambas cámaras de vídeo CML y CMR. Sin embargo, el objeto OBL localizado en la banda AL, que se incluye únicamente en el ángulo de visión horizontal HAL de la cámara de vídeo de la vista izquierda CML, se captura únicamente por la cámara de vídeo de la vista izquierda CML, y el objeto OBR localizado en la banda AR, que se incluye únicamente en el ángulo de visión horizontal HAR de la cámara de vídeo derecha CMR, se captura únicamente por la cámara de vídeo derecha CMR.
La Figura 60B es un diagrama esquemático que muestra una vista izquierda LV filmada por la cámara de vídeo de la vista izquierda CML, y la Figura 60c es un diagrama esquemático que muestra una vista derecha RV capturada por la cámara de vídeo derecha CMR. Como se muestra en las Figuras 60B y 60C, la banda AL, que se incluye únicamente en el ángulo de visión horizontal HAL de la cámara de vídeo de la vista izquierda CML, aparece como una banda a lo largo del borde izquierdo de la vista izquierda LV. Sin embargo, esta banda AL no está incluida en la vista derecha RV. Por otra parte, la banda AR, que se incluye únicamente en el ángulo de visión horizontal HAR de
5
10
15
20
25
30
35
40
45
50
55
60
la cámara de vídeo derecha CMR, aparece como una banda a lo largo del borde derecho de la vista derecha RV. Sin embargo, esta banda AR no está incluida en la vista izquierda LV. Por consiguiente, entre los tres objetos OBL, OBC y OBR mostrados en la Figura 60A, el objeto a la derecha OBR no está incluido en la vista izquierda LV, y el objeto a la izquierda OBL no está incluido en la vista derecha RV. Como resultado, el objeto a la izquierda oBl es únicamente visible para el ojo izquierdo del observador, y el objeto a la derecha OBR es únicamente visible para el ojo derecho. La vista izquierda LV y vista derecha RV por lo tanto corren el riesgo de provocar que el observador se sienta incómodo.
En el disco 101 BD-ROM, la información que indica la anchura WDH de las bandas superiores AL y AR incluidas en cada fotograma de la vista izquierda LV y vista derecha RV se almacena en el flujo de vídeo de vista dependiente. Esta información se almacena en los datos complementarios de la VAU en la parte superior de cada secuencia de vídeo. Obsérvese sin embargo que estos datos complementarios son diferentes de los datos complementarios que incluyen los metadatos 1110 de compensación mostrados en la Figura 11. Por otra parte, en el dispositivo 102 de reproducción, el decodificador 4225 objetivo de sistema lee información que muestra la anchura WDH de las bandas superiores AL y AR desde el flujo de vídeo de vista dependiente. Adicionalmente, el decodificador 4225 objetivo de sistema transmite esta información a la unidad 4710 de generación de vídeo de paralaje en el sumador 4226 de planos o a la unidad 5904 de salida en el dispositivo 103 de visualización. Cuando la unidad 5901 de recepción en el dispositivo 103 de visualización lee directamente un contenido de vídeo en 3D desde un medio de información tal como un disco BD-ROM, la información anteriormente mencionada se lee desde el flujo de vídeo de vista dependiente y se transmite a la unidad 5904 de salida por la unidad 5903 de procesamiento de señal en el dispositivo 103 de visualización. La unidad 4710 de generación de vídeo de paralaje o la unidad 5904 de salida (en lo sucesivo, denominadas como la “unidad 4710 de generación de vídeo de paralaje etc.”) hacen referencia a esta información para procesar el plano de vídeo izquierdo y el plano de vídeo derecho, pintando uniformemente las bandas AL y AR a color de fondo o negro. En otras palabras, los datos de píxeles incluidos en las bandas AL y AR se sobreescriben de manera uniforme con datos que representan un color de fondo o negro.
Las Figuras 60D y 60E son diagramas esquemáticos que muestran respectivamente una vista izquierda LV representada por el plano de vídeo izquierdo procesado y una vista derecha RV representada por el plano de vídeo derecho procesado. Como se muestra en la Figura 60D, la banda AL, que se incluye únicamente en el ángulo de visión horizontal HAL de la cámara de vídeo de la vista izquierda CML, se oculta por una banda negra BL de anchura WDH. Por otra parte, como se muestra en la Figura 60E, la banda AR, que se incluye únicamente en el ángulo de visión horizontal HAR de la cámara de vídeo derecha CMR, se oculta por una banda negra BR de anchura WDH. Como resultado, ambos ojos del observador ven únicamente el área compartida por la vista izquierda LV y la vista derecha RV, que evita el riesgo de provocar que el observador se sienta incómodo.
Adicionalmente, la unidad 4710 de generación de vídeo de paralaje etc., puede realizar recorte similar al mostrado en la Figura 47 para eliminar datos de píxeles incluidos en la mitad exterior de las bandas AL y AR respectivamente localizadas en el plano de vídeo izquierdo y plano de vídeo derecho. En este caso, la unidad 4710 de generación de vídeo de paralaje etc., pinta de manera uniforme la mitad restante de las bandas AL y AR a color de fondo o negro y, además, añade una banda de color de fondo o negro de la mitad la anchura de las bandas AL y AR al lado opuesto. De esta manera, ambos de los ojos del observador ven el área compartida por la vista izquierda LV y la vista derecha RV en el centro de la pantalla, con bandas de color de fondo o negro en ambos bordes de la pantalla. Esto evita el riesgo de provocar que el observador se sienta incómodo.
Como alternativa, la unidad 4710 de generación de vídeo de paralaje etc., puede procesar el plano de vídeo izquierdo y plano de vídeo derecho como sigue. En primer lugar, mediante el recorte similar al mostrado en la Figura 49, la unidad 4710 de generación de vídeo de paralaje etc., elimina los datos de píxel en las bandas AL y AR desde cada uno de los planos de vídeo. A continuación, la unidad 4710 de generación de vídeo de paralaje etc., redimensiona cada plano de vídeo desde los datos de píxel en el área restante mediante cambio de escala. La imagen de vídeo mostrada por el área restante se expande por lo tanto para rellenar el fotograma entero. Como resultado, ambos de los ojos del observador ven únicamente el área compartida por la vista izquierda LV y la vista derecha RV, que evita el riesgo de provocar que el observador se sienta incómodo.
(1-N-2) Alineación vertical incorrecta entre vista izquierda y vista derecha
La Figura 61A es una vista en planta que muestra esquemáticamente ángulos de vista vertical VAL y VAR para un par de cámaras de vídeo CML y CMR que filman imágenes de vídeo en 3D. Como se muestra en la Figura 61A, los ángulos de vista vertical VAL y VAR para las cámaras de vídeo CML y CMR tienen el mismo tamaño pero se diferencian en la localización. Esto produce una banda AT que está incluida únicamente en el ángulo de vista vertical VAL de la cámara de vídeo de la vista izquierda CML y una banda AB que está incluida únicamente en el ángulo de vista vertical VAR de la cámara de vídeo derecha CMR. El objeto oBj localizado en la sección común a ambos ángulos de vista vertical VAL y VAR se captura por ambas cámaras de vídeo CML y CMR. Sin embargo, los objetos localizados en la banda AT, que se incluyen únicamente en el ángulo de vista vertical VAL de la cámara de vídeo de la vista izquierda CML, se capturan únicamente por la cámara de vídeo de la vista izquierda CML, y los objetos localizados en la banda AB, que se incluyen únicamente en el ángulo de vista vertical VAR de la cámara de vídeo derecha CMR, se capturan únicamente por la cámara de vídeo derecha CMR.
5
10
15
20
25
30
35
40
45
50
55
60
La Figura 61B es un diagrama esquemático que muestra una vista izquierda LV filmada por la cámara de vídeo de la vista izquierda CML y una vista derecha RV filmada por la cámara de vídeo derecha CMR. Como se muestra en la Figura 61B, la banda AT, que se incluye únicamente en el ángulo de vista vertical VAL de la cámara de vídeo de la vista izquierda CML, aparece como una banda a lo largo de la parte superior de la vista izquierda LV. Sin embargo, esta banda AT no está incluida en la vista derecha RV. Por otra parte, la banda AB, que se incluye únicamente en el ángulo de vista vertical VAR de la cámara de vídeo derecha CMR, aparece como una banda a lo largo del borde inferior de la vista derecha RV. Sin embargo, esta banda AB no está incluida en la vista izquierda LV. Obsérvese que las posiciones de las bandas AT y AB pueden invertirse entre la vista izquierda LV y vista derecha RV. De esta manera, cuando la vista izquierda Lv y vista derecha RV se diferencian con respecto a la inclusión de las bandas AT y AB, la posición vertical del objeto oBj mostrado en la Figura 61A se diferencia entre la vista izquierda LV y la vista derecha RV por la altura HGT de las bandas AT y AB. Como resultado, la posición vertical del objeto OBJ se diferencia como se observa por el ojo izquierdo y ojo derecho del observador, que tiene el riesgo de provocar que el observador se sienta incómodo.
En el disco 101 BD-ROM, la información que indica la altura HGT de las bandas superiores AT y AB incluidas en cada fotograma de la vista izquierda LV y vista derecha RV se almacena en el flujo de vídeo de vista dependiente. Esta información se almacena en los datos complementarios de la VAU en la parte superior de cada secuencia de vídeo. Obsérvese sin embargo que estos datos complementarios son diferentes de los datos complementarios que incluyen los metadatos 1110 de compensación mostrados en la Figura 11. Por otra parte, en el dispositivo 102 de reproducción, el decodificador 4225 objetivo de sistema lee la información que indica la altura HGT de las bandas superiores AT y AB desde el flujo de vídeo de vista dependiente. Adicionalmente, el decodificador 4225 objetivo de sistema transmite esta información a la unidad 4710 de generación de vídeo de paralaje en el sumador 4226 de planos o a la unidad 5904 de salida en el dispositivo 103 de visualización. Cuando la unidad 5901 de recepción en el dispositivo 103 de visualización lee directamente un contenido de vídeo en 3D desde un medio de información tal como un disco BD-ROM, la información anteriormente mencionada se lee desde el flujo de vídeo de vista dependiente y se transmite a la unidad 5904 de salida por la unidad 5903 de procesamiento de señal en el dispositivo 103 de visualización.
La unidad 4710 de generación de vídeo de paralaje o la unidad 5904 de salida (en lo sucesivo, denominada como la “unidad 4710 de generación de vídeo de paralaje etc.”) hacen referencia a la altura HGT de las bandas AT y AB para procesar el plano de vídeo izquierdo y el plano de vídeo derecho como sigue. En primer lugar, la unidad 4710 de generación de vídeo de paralaje etc., desplaza la posición de los datos de píxel en el plano de vídeo izquierdo a la mitad de altura HGT, es decir HGT/2, y desplaza la posición de los datos de píxel en el plano de vídeo derecho hacia abajo en HGT/2. El centro vertical de la imagen de vídeo mostrado en el área de los planos de vídeo distinto de las bandas AT y AB por lo tanto coincide con el centro vertical de la pantalla. En el plano de vídeo izquierdo, la mitad de la banda aT se elimina desde la parte superior, produciendo una banda vacía con una altura de HDT/2 en la parte inferior. En el plano de vídeo derecho, la mitad de la banda AB se elimina de la parte inferior, produciendo una banda vacía con una altura de HDT/2 en la parte superior. A continuación, la unidad 4710 de generación de vídeo de paralaje etc., pinta de manera uniforme las bandas a color de fondo o negro. En otras palabras, los datos de píxeles incluidos en las bandas se sobreescriben de manera uniforme con datos que representan un color de fondo o negro.
La Figura 61C es un diagrama esquemático que muestra una vista izquierda LV representada por el plano de vídeo izquierdo procesado y una vista derecha RV representada por el plano de vídeo derecho procesado. Como se muestra en la Figura 61C, los centros verticales de la vista izquierda LV y la vista derecha RV coinciden. Por consiguiente, la posición vertical del objeto OBJ mostrado en la Figura 61A es la misma en la vista izquierda LV y en la vista derecha RV. En la parte superior de la vista izquierda LV, la banda AT, que se incluye únicamente en el ángulo de vista vertical VAL de la cámara de vídeo de la vista izquierda CML, se oculta por una banda negra BT de altura HGT/2, y en la parte inferior de la vista derecha RV, la banda AB, que se incluye únicamente en el ángulo de vista vertical VAR de la cámara de vídeo derecha CMR, se oculta por una banda negra BB de altura HGT/2. Adicionalmente, una banda negra BB de altura HGT/2 se añade a la parte inferior de la vista izquierda LV, y una banda negra BT de altura HGT/2 se añade a la parte superior de la vista derecha RV. Como resultado, ambos de los ojos del observador ven únicamente el área compartida por la vista izquierda LV y la vista derecha RV, y las posiciones verticales coinciden entre el objeto observado por cada ojo. Esto evita el riesgo de provocar que el observador se sienta incómodo.
Como alternativa, la unidad 4710 de generación de vídeo de paralaje etc., puede procesar el plano de vídeo izquierdo y plano de vídeo derecho como sigue. En primer lugar, mediante el recorte similar al mostrado en la Figura 49, el sumador 4126 de planos elimina los datos de píxel en las bandas AT y AB desde cada uno de los planos de vídeo. A continuación, la unidad 4710 de generación de vídeo de paralaje etc., redimensiona cada plano de vídeo desde los datos de píxel en el área restante mediante cambio de escala. La imagen de vídeo mostrada por el área restante se expande por lo tanto para rellenar el fotograma entero, y como resultado, ambos de los ojos del observador ven únicamente el área compartida por la vista izquierda LV y la vista derecha RV. Adicionalmente, las posiciones verticales coinciden entre el objeto visto por cada ojo. Esto evita el riesgo de provocar que el observador se sienta incómodo.
(1-N-3) Alineación incorrecta de imágenes de gráficos entre vista izquierda y vista derecha
5
10
15
20
25
30
35
40
45
50
55
60
Cuando un dispositivo de reproducción en modo de 1 plano + compensación proporciona una compensación grande a un plano de gráficos para generar un par de planos de gráficos, una región en el borde derecho o izquierdo de un plano de gráficos puede no incluirse en el borde derecho o izquierdo del otro plano de gráficos.
La Figura 62A es un diagrama esquemático que muestra un ejemplo de imágenes de gráficos representadas por un plano de gráficos GPL. Como se muestra en la Figura 62A, el plano de gráficos GPL representa tres tipos de los elementos de gráficos OB1, OB2 y OB3. En particular, el borde izquierdo del elemento de gráfico izquierdo OB1 está localizado a una distancia D1 desde el borde izquierdo del plano de gráficos GPL, y el borde derecho del elemento de gráfico derecho OB3 está localizado a una distancia D3 desde el borde derecho del plano de gráficos GPL. Las Figuras 62B y 62C son diagramas esquemáticos que muestran respectivamente procedimientos para proporcionar una compensación derecha e izquierda al plano de gráficos GPL. Como se muestra en la Figura 62B, una banda AR1 de anchura OFS igual al valor de compensación se elimina desde el borde derecho del plano de gráficos GPL, y una banda transparente AL1 de anchura OFS se añade al borde izquierdo, de una manera similar al procesamiento de recorte mostrado en la Figura 49. Las posiciones horizontales de los elementos gráficos OB1- OB3 se desplazan por lo tanto a la derecha de sus posiciones originales por una distancia OFS igual al valor de compensación. Por otra parte, como se muestra en la Figura 62B, una banda AL2 de anchura OFS igual al valor de compensación se elimina desde el borde izquierdo del plano de gráficos GPL, y una banda transparente AR2 de anchura OFS se añade al borde derecho. Las posiciones horizontales de los elementos gráficos OB1-OB3 se desplazan por lo tanto a la izquierda de sus posiciones originales por la distancia OFS.
Como se muestra en las Figuras 62B y 62C, la distancia OFS, que es igual al valor de compensación, es mayor que la distancia D1 entre el borde izquierdo del elemento de gráfico izquierdo OB1 y el borde izquierdo del plano de gráficos GPL. La distancia OFS es también mayor que la distancia D3 entre el borde derecho del elemento de gráfico derecho OB3 y el borde derecho del plano de gráficos GPL. Por consiguiente, una porción MP3 del borde derecho del elemento de gráfico derecho OB3 está ausente en el plano de gráficos GP1 al que se ha proporcionado una compensación derecha. También, una porción MP1 del borde izquierdo del elemento de gráfico izquierdo OB1 está ausente en el plano de gráficos GP2 al que se ha proporcionado una compensación izquierda. Sin embargo, la porción ausente MP1 del elemento de gráfico izquierdo OB1 está incluida en el plano de gráficos GP1 con la compensación derecha, y la porción ausente MP3 del elemento de gráfico derecho OB3 está incluida en el plano de gráficos GP2 con la compensación izquierda. Como resultado, estas porciones ausentes MP1 y MP3 se observan únicamente por uno de los ojos del observador, que puede hacer que el observador se sienta incómodo.
En el dispositivo 102 de reproducción, cada una de las unidades 4731-4734 de recorte en el sumador 4226 de planos hace referencia a la información 4707 de compensación para realizar control de compensación en el plano de gráficos GPL. En este punto, cada una de las unidades 4731-4734 de recorte elimina adicionalmente una banda que tiene una anchura igual al valor de compensación y se extiende a lo largo del borde izquierdo o derecho del plano de gráficos GPL. En otras palabras, los datos de píxel en la banda se sobreescriben con datos que representan un color transparente. Como alternativa, la unidad 5904 de salida en el dispositivo 103 de visualización puede recibir información de compensación desde el decodificador 4225 objetivo de sistema o la unidad 5903 de procesamiento de señal en el dispositivo 103 de visualización y hacer referencia a la información de compensación para eliminar una banda del borde izquierdo o derecho del plano de gráficos GPL. Las Figuras 62B y 62c muestran las bandas AS1 y AS2 a eliminarse. En el plano de gráficos GP1 con la compensación derecha, la banda AS1 a eliminarse incluye la porción ausente MP1 del elemento de gráfico izquierdo OB1. En el plano de gráficos GP2 con la compensación izquierda, la banda AS2 a eliminarse incluye la porción ausente MP3 del elemento de gráfico derecho OB3.
Las Figuras 62D y 62E son diagramas esquemáticos que muestran imágenes de gráficos representadas por los planos de gráficos GP1 y GP2 con las compensaciones derecha e izquierda, respectivamente. Como se muestra en las Figuras 62D y 62E, en los planos de gráficos GP1 y GP2, las formas de los tres tipos de los elementos de gráficos OB1-OB3 coinciden. Como resultado, únicamente la parte compartida de las imágenes de gráficos es visible a cada uno de los ojos del observador. Esto evita el riesgo de provocar que el observador se sienta incómodo.
Como alternativa, la siguiente condición puede prescribirse con respecto a la disposición de los elementos de gráficos para planos de gráficos reproducidos desde un flujo de PG o un flujo de IG en un disco BD-ROM y para un plano de gráficos generado por un dispositivo 102 de reproducción. La Figura 63 es un diagrama esquemático que muestra una condición de este tipo. Como se muestra en la Figura 63, se establecen coordenadas ortogonales xy en el plano de gráficos GPL, con un origen (0, 0) en la esquina superior izquierda. Las coordenadas x e y son respectivamente las coordenadas horizontal y vertical del plano de gráficos GPL. Las coordenadas de la esquina inferior derecha del plano de gráficos GPL se establecen a (TWD, THG). Usando estas coordenadas xy, la condición se establece como sigue: en cada fotograma, los elementos gráficos OB1, OB2 y OB3 deben situarse dentro del área rectangular que tiene cuatro puntos (OFS, 0), (TWD-OFS, 0), (TWD-OFS, THG) y (OFS, THG) como vértices. En otras palabras, se prohíbe que se coloquen los elementos gráficos dentro de las bandas AL y AR de anchura OFS que se extienden respectivamente a lo largo del borde izquierdo y borde derecho del plano de gráficos GPL. Como es evidente a partir de las Figuras 62B y 62C, estas bandas AL y AR se eliminan por control de compensación. Por consiguiente, si se prohíbe que se coloquen elementos gráficos dentro de las bandas AL y AR, las formas de los elementos gráficos no cambian incluso cuando se proporciona una compensación al plano de gráficos GPL. Como resultado, ambos de los ojos del observador ven las mismas imágenes de gráficos, que evita el
5
10
15
20
25
30
35
40
45
50
55
riesgo de provocar que el observador se sienta incómodo.
(1-O) Visualización apaisada
El tamaño de la pantalla supuesta en el momento de la autoría de un contenido de vídeo depende del formato del contenido: el formato Full-HD adoptado en la difusión de TV digital; o el formato cinemascope™ adoptado en películas. La relación de aspecto de Full HD es 16:9 (“1,78:1), mientras que la relación de aspecto de cinemascope es 2,35:1. Por consiguiente, en contenidos de película domésticos registrados en discos de BD-ROM, las bandas negras horizontales se proporcionan por encima y por debajo de cada fotograma de vídeo. Las bandas negras se proporcionan de modo que la totalidad del fotograma de relación de aspecto del vídeo y las bandas negras se ajustan a 16:9. Este procedimiento de visualización se denomina como “visualización apaisada”.
Las Figuras 64A1 y 64A2 son diagramas esquemáticos que muestran la misma pantalla en la visualización apaisada. Como se muestra en las Figuras 64A1 y 64A2, la resolución de la totalidad de la pantalla es 1920x1080 píxeles, y la relación de aspecto es 16:9. Por otra parte, la resolución de un área de visualización DRG para visualizar las imágenes de vídeo es 1920x818 píxeles, y la relación de aspecto es 2.35:9. Las bandas negras BT y BB, cada una de 131 píxeles de altura, se extienden horizontalmente por encima y por debajo del área de visualización DRG.
Cuando se adopta una visualización apaisada en la visualización de las imágenes de vídeo en 3D, es preferible que el subtítulo se visualice en cualquiera de las bandas negras BT y BB, no en el área de visualización DRG. Esto posibilita que se separen las imágenes de vídeo en 3D y del subtítulo una de las otras para presentarse al observador de una manera fiable. Sin embargo, 131 píxeles de altura de las bandas negras BT y BB no son necesariamente suficientes para visualizar el subtítulo. En ese caso, los sumadores 4226 de planos del dispositivo 102 de reproducción proporcionan el plano de vídeo principal con una compensación en la dirección vertical. Este control de compensación se denomina como “desplazamiento de vídeo”. Hay tres tipos de desplazamiento de vídeos: “Mantener”, “Arriba” y “Abajo”. En el modo Mantener, el plano de vídeo principal no se proporciona con la compensación en la dirección vertical. Por lo tanto como en el fotograma de vídeo mostrado en las Figuras 64A1 y 64A2, la altura de cada una de las bandas negras BT y BB se mantiene para que sea de 131 píxeles. En el modo Arriba, el plano de vídeo principal se proporciona con una compensación hacia arriba. La Figura 64B es un diagrama esquemático que muestra la pantalla en la que se ha proporcionado el plano de vídeo principal con una compensación hacia arriba de 131 píxeles. Como se muestra en la Figura 64B, la banda negra BT se ha eliminado desde la porción superior y la altura de la banda negra BB en la porción inferior se ha doblado. En el modo Abajo, se proporciona el plano de vídeo principal con una compensación hacia abajo. La Figura 64C es un diagrama esquemático que muestra la pantalla en la que se ha proporcionado el plano de vídeo principal con una compensación hacia abajo de 131 píxeles. Como se muestra en la Figura 64C, la banda negra BB se ha eliminado de la porción inferior y la altura de la banda negra BT en la porción superior se ha doblado. De esta manera, los sumadores 4226 de planos aumenta cualquiera de las bandas negras BT y BB a una altura suficiente para visualizar el subtítulo ejecutando la compensación de vídeo en el modo Arriba o Abajo.
El tamaño de la compresión vertical puede ser distinto de 131 píxeles. La Figura 64D es un diagrama esquemático que muestra la pantalla en la que se ha proporcionado el plano de vídeo principal con una compensación hacia arriba de 51 píxeles. Como se muestra en la Figura 64D, la altura de la banda negra BT en la porción superior se ha reducido a 131 - 51 = 80 píxeles, y la altura de la banda negra BB en la porción inferior se ha aumentado a 131 + 51 = 182 píxeles. A continuación, se supone que el tamaño de la compensación es 131 píxeles.
La Figura 65 es un diagrama de bloques funcional que muestra la estructura del dispositivo 102 de reproducción requerida para la compensación de vídeo. La estructura mostrada en la Figura 65, en contraste a la mostrada en la Figura 47, incluye una unidad 6501 de desplazamiento de vídeo, SPRM(32) 6502 y SPRM(33) 6503. Los otros componentes son similares. En la Figura 65, los componentes similares a aquellos mostrados en la Figura 47, se marcan con los mismos números de referencia. Adicionalmente, pueden hallarse detalles de los componentes similares en la descripción en la Figura 47.
Los valores indicados por el SPRM(32) y el SPRM(33) se establecen mediante la unidad 4234 de ejecución de programa de acuerdo con un programa de aplicación tal como un objeto de BD-J o una instrucción del usuario mediante una GUI. El valor indicado por el SPRm(33) se actualiza adicionalmente de acuerdo con el fichero de lista de reproducción.
La Figura 66A es una tabla que muestra las estructuras de datos del SPRM(32) y SPRM(33). Como se muestra en la Figura 66A, el SPRM(32) almacena un parámetro que indica el modo de desplazamiento de vídeo (video_shift_mode). El parámetro puede tomar cualquiera de tres valores “0”, “1” y “2” que corresponden a tres tipos de modos de desplazamiento de vídeo. El SPRM(33) almacena cuatro pares de un valor de desplazamiento de movimiento hacia arriba de vídeo y un valor de desplazamiento de movimiento hacia abajo de vídeo. Los valores de desplazamiento están compuestos de: un par para el plano de PG (PG_shift_value_for_Up, PG_shift_value_for_Down); un par para el plano de IG (lG_shift_value_for_Up, IG_shift_value_for_Down); un par para el plano de vídeo secundario (SV_shift_value_for_Up, SV_shift_value_for_Down); y un par para el plano de imagen (IM_shift_value_for_Up, IM_shift_value_for_Down). Cada uno del valor de desplazamiento de movimiento
5
10
15
20
25
30
35
40
45
50
55
60
hacia arriba de vídeo y del valor de desplazamiento de movimiento hacia abajo de vídeo representan el tamaño de una compensación en la dirección vertical que se proporciona al plano de PG o similar cuando se proporciona la compensación hacia arriba o hacia abajo al plano de vídeo principal.
La Figura 66B es un diagrama esquemático que muestra la tabla de STN en el fichero de lista de reproducción para el contenido de vídeo de visualización apaisada. Como se muestra en la Figura 66B, en la tabla de STN 6600, un STN 6601 está asociado con una entrada de flujo 6602 del flujo 1 de PG e información 6603 de atributo de flujo. La información 6603 de atributo de flujo incluye un valor de desplazamiento de movimiento hacia arriba de vídeo (PG_y_shift_value_for_Up) 6610 y un valor de desplazamiento de movimiento hacia abajo de vídeo (PG_y_shift_value_for_Down) 6611. Con esta estructura, estos valores de desplazamiento pueden establecerse para cada PI. Con respecto a los otros datos de flujo tal como el flujo de IG, puede establecerse cada valor de desplazamiento. La unidad 4235 de control de reproducción lee un valor de desplazamiento desde la tabla de STN en cada PI, y actualiza un valor indicado por el SPRM(33) con el valor de desplazamiento leído.
La unidad 6501 de desplazamiento de vídeo recibe los datos 4701 de plano de vista izquierda y los datos 4702 de plano de vista derecha de manera alterna desde el conmutador 4720. Tras la recepción de cada uno de los mismos, la unidad 6501 de desplazamiento de vídeo hace referencia al SPRM(32) en la unidad 4236 de almacenamiento variable de reproductor y proporciona el plano de vídeo principal con una compensación vertical en un modo de desplazamiento de vídeo indicado por el valor en el SPRM(32). La unidad 6501 de desplazamiento de vídeo a continuación transmite el plano de vídeo principal al segundo sumador 4742.
Las Figuras 67A-67C son diagramas esquemáticos que muestran planos de vídeo principales VPA, VPB y VPC procesados por la unidad 6501 de desplazamiento de vídeo en el modo Arriba, modo Mantener y modo Abajo, respectivamente. Cuando el SPRM(32) indica el modo Mantener, la unidad 6501 de desplazamiento de vídeo no proporciona el plano de vídeo principal con una compensación vertical. Por lo tanto como se muestra en la Figura 67B, la altura de cada una de las bandas negras BT y BB en el plano de vídeo principal VPB se mantiene para que sea 131 píxeles. Cuando el SPRM(32) indica el modo Arriba, la unidad 6501 de desplazamiento de vídeo, de una manera similar al procesamiento de recorte mostrado en la Figura 49, corta en primer lugar la banda negra BT que es de 131 píxeles de alto de la porción superior del plano de vídeo principal original VPB. La unidad 6501 de desplazamiento de vídeo a continuación, como se muestra en la Figura 67A, añade una banda negra AB que es de 131 píxeles de alta a la porción inferior del plano de vídeo principal VPA. Esto mueve la localización de los datos de píxel distintos de los datos de píxeles incluidos en la banda negra de recorte BT hacia arriba en 131 píxeles. Por otra parte, la altura de las bandas negras BB + AB se aumenta a 131 x 2 = 262 píxeles. Cuando el SPRM(32) indica el modo Abajo, la unidad 6501 de desplazamiento de vídeo corta la banda negra BB que es de 131 píxeles de alto de la porción inferior del plano de vídeo principal original VPB, y como se muestra en la Figura 67C, añade una banda negra AT que es de 131 píxeles de alto a la porción superior del plano de vídeo principal VPC. Esto mueve la localización de los datos de píxel distintos de los datos de píxeles incluidos en la banda negra de recorte hacia abajo en 131 píxeles. Por otra parte, la altura de bandas negras BT + AT se aumenta a 131 x 2 = 262 píxeles.
Haciendo referencia de nuevo a la Figura 65, cada vez que recibe los datos 4704 de plano de PG desde el decodificador 4225 objetivo de sistema, la segunda unidad 4732 de recorte hace referencia al SPRM(32) 6502 y al SPRM(33) 6503 y proporciona el plano 4704 de PG con una compensación vertical de acuerdo con los valores almacenados en los SPRM. Adicionalmente, en el modo de 1 plano + compensación, la segunda unidad 4732 de recorte proporciona el plano 4704 de PG con una compensación horizontal. La segunda unidad 4732 de recorte a continuación transmite el plano 4704 de PG al segundo sumador 4742.
Las Figuras 67D-67F son diagramas esquemáticos que muestran planos de PG PGD, PGE y PGF procesados por la segunda unidad 4732 de recorte en el modo Arriba, modo Mantener y modo Abajo, respectivamente. Cuando el SPRM(32) indica el modo Mantener, la segunda unidad 4732 de recorte no proporciona el plano de PG PGE con una compensación vertical. Por lo tanto como se muestra en la Figura 67E, el subtítulo SUB en el plano de PG PGE se mantiene para que esté en la posición original. Cuando el SPRM(32) indica el modo Arriba, la segunda unidad 4732 de recorte lee en primer lugar un valor de desplazamiento de movimiento hacia arriba de vídeo (PG_shift_value_for_Up) “a” para el plano de PG desde el SPRM(33) 6503. La segunda unidad 4732 de recorte a continuación, de una manera similar al procesamiento de recorte mostrado en la Figura 49, proporciona el plano de PG PGE con una compensación hacia abajo que tiene el mismo tamaño que el valor de desplazamiento de movimiento hacia arriba de vídeo “a”. Más específicamente, la segunda unidad 4732 de recorte corta en primer lugar la banda SBE que es “a” píxeles de alta de la porción inferior del plano de PG original PGE. La segunda unidad 4732 de recorte a continuación, como se muestra en la Figura 67D, añade una banda STD que es “a” píxeles de alta a la porción superior del plano de PG PGD. Esto mueve la localización del subtítulo SUB hacia abajo en “a” píxeles. Cuando el SPRM(32) indica el modo Abajo, la segunda unidad 4732 de recorte lee en primer lugar un valor de desplazamiento de movimiento hacia abajo de vídeo (PG_shift_value_for_Down) “b” para el plano de PG desde el SPRm(33) 6503. La segunda unidad 4732 de recorte a continuación, de una manera similar al procesamiento de recorte mostrado en la Figura 49, proporciona el plano de PG PGE con una compensación hacia arriba que tiene el mismo tamaño que el valor de desplazamiento de movimiento hacia abajo de vídeo “b”. Más específicamente, la segunda unidad 4732 de recorte corta en primer lugar la banda STE que es “b” píxeles de alto de la porción superior del plano de PG original PGE. La segunda unidad 4732 de recorte a continuación, como se muestra en la Figura 67F, añade una banda SBF que es “b” píxeles de alto a la porción inferior del plano de PG PGF. Esto mueve la
5
10
15
20
25
30
35
40
45
50
55
60
localización del subtítulo SUB hacia arriba en “b” píxeles.
El segundo sumador 4742 recibe los datos de plano de PG desde la segunda unidad 4732 de recorte, superpone los datos de plano de PG en los datos de plano de vídeo primario desde la unidad 6501 de desplazamiento de vídeo y transmite el resultado al tercer sumador 4743. Las Figuras 67G-67I son diagramas esquemáticos que muestran datos de plano PLG, PLH y PLI combinados por el segundo sumador 4742 en el modo Arriba, modo Mantener y modo Abajo, respectivamente. En el modo Mantener, como se muestra en la Figura 67H, el subtítulo SUB se visualiza en la parte superior de las imágenes de vídeo primario MVW. En el modo Arriba, como se muestra en la Figura 67G, el subtítulo SUB se visualiza en la banda negra BBG que está localizada por debajo de las imágenes de vídeo primario MVW. Esto puede realizarse ajustando el valor de desplazamiento de movimiento hacia arriba de vídeo “a”. En el modo Abajo, como se muestra en la Figura 67I, el subtítulo SUB se visualiza en la banda negra BTI que está localizada por encima de las imágenes de vídeo primario MVW. Esto puede realizarse ajustando el valor de desplazamiento de movimiento hacia abajo de vídeo “b”.
En visualización apaisada, una pantalla de diálogo representada por el plano de IG, las imágenes de vídeo representadas por el plano de vídeo secundario, o un menú emergente representado por el plano de imagen pueden visualizarse en la banda negra, así como el subtítulo representado por el plano de PG. En estos casos, la altura de la banda negra puede ajustarse de manera apropiada por un procedimiento similar al procedimiento anteriormente descrito.
(1-O-1) En la estructura mostrada en la Figura 65, la segunda unidad 4732 de recorte lee el valor de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo desde el SPRM(33) 6503. Como alternativa, la segunda unidad 4732 de recorte puede leer el valor de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo directamente desde el fichero de lista de reproducción.
(1-O-2) La altura de las bandas negras BT y BB puede ser distinta de 131 píxeles, y puede además ser variable. El valor de las mismas puede establecerse en un SPRM en la unidad 4236 de almacenamiento variable de reproductor de acuerdo con un programa de aplicación o el usuario.
(1-O-3) En las Figuras 67D y 67F, la segunda unidad 4732 de recorte mueve la localización de casi todos los datos de píxeles incluidos en el plano de PG PGE hacia arriba y hacia abajo. Como alternativa, el decodificador de PG puede cambiar la posición de visualización de objeto indicado por el PCS haciendo referencia al SPRM(33) 6503. Por ejemplo, cuando el PCS indica la posición de visualización del objeto = (x, y) y el SPRM(33) 6503 indica el valor de desplazamiento de movimiento hacia arriba de vídeo “a”, el decodificador de PG cambia la posición de visualización de objeto a las coordenadas (x, y+a). Con esta operación, como el subtítulo SUB mostrado en la Figura 67D, el objeto de gráficos representado por el flujo de Pg se visualiza por debajo de la posición de visualización de objeto indicado por la PCS. Esto se aplica también al caso donde la posición de visualización del objeto de gráficos se mueve hacia arriba. Obsérvese que la PCS puede almacenar el valor de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo.
(1-O-4) En el modo Arriba y modo Abajo, como se muestra en las Figuras 67D y 67F, las porciones superior e inferior del plano de PG se cortan. En este punto, para evitar que las porciones superior e inferior del objeto de gráficos se corten, el área en la que puede disponerse el objeto de gráficos puede limitarse a un intervalo predeterminado. Como un ejemplo específico, se supone que la alturaxanchura del plano de PG es HGTxWDH, el valor de desplazamiento de movimiento hacia arriba de vídeo es “a”, y el valor de desplazamiento de movimiento hacia abajo de vídeo es “b”. En ese caso, como se muestra en la Figura 67E, la disposición del objeto de gráficos está limitada a dentro de la siguiente banda horizontal: las coordenadas x-y de la esquina superior izquierda PUL = (0, b); y las coordenadas x-y de la esquina inferior izquierda PDR = (WDH, HGT - a). Más precisamente, el flujo de PG satisface las siguientes condiciones: (A) la posición de visualización de objeto indicado por la PCS está dentro de la banda anteriormente descrita; (B) incluso si el objeto de gráficos se visualiza en la posición de visualización de objeto, el área de visualización no supera el intervalo de la banda anteriormente descrita; (C) la posición de ventana indicada por la WDS está dentro de la banda anteriormente descrita; y (D) incluso si la ventana se establece en la posición de ventana, el intervalo de la misma no supera el intervalo de la banda anteriormente descrita. De esta manera, es posible evitar que se corten las porciones superior e inferior del objeto de gráficos.
(1-O-5) La Figura 68A es un diagrama esquemático que muestra otro ejemplo de la tabla de STN en el fichero de lista de reproducción para el contenido de vídeo de la visualización apaisada. Como se muestra en la Figura 68A, en la tabla de STN 6800, un STN 6801 está asociado con una entrada 6802 de flujo del flujo 1 de PG e información 6803 de atributo de flujo. La información 6803 de atributo de flujo incluye un modo 6812 de desplazamiento de vídeo así como un valor 6810, 6811 de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo. En ese caso, el dispositivo 102 de reproducción puede usar la siguiente estructura para la el desplazamiento de vídeo.
La Figura 69 es un diagrama de bloques funcional que muestra otro ejemplo de la estructura del dispositivo 102 de reproducción requerido para la compensación de vídeo. La estructura mostrada en la Figura 69 se diferencia de la estructura mostrada en la Figura 65 en la unidad 6901 de desplazamiento de vídeo y el SPRM(34) 6904. Los otros componentes son similares. En la Figura 69, los componentes similares a los mostrados en la Figura 65 se marcan con los mismos números de referencia. Adicionalmente, los detalles de los componentes similares pueden hallarse en la descripción en la Figura 65.
Como se muestra en la Figura 66A, el SPRM(32) representa el modo de desplazamiento de vídeo, y el
5
10
15
20
25
30
35
40
45
50
55
60
65
SPRM(33) representa el valor de desplazamiento de movimiento hacia arriba de vídeo y el valor de desplazamiento de movimiento hacia abajo de vídeo. Los parámetros que representan estos se actualizan de acuerdo con la tabla de STN en el fichero de lista de reproducción como se muestra en la Figura 68A. En la unidad 4236 de almacenamiento variable de reproductor, el SPRM(34) almacena adicionalmente una bandera cuyo ACTIVADO/DESACTIVADO indica si se ha de realizar el desplazamiento de vídeo. El valor de la bandera se establece por la unidad 4234 de ejecución de programa de acuerdo con un programa de aplicación o el usuario. Cada vez que recibe cualquiera de los datos 4701 de plano de vídeo izquierdo o los datos 4702 de plano de vídeo derecho desde el conmutador 4720, la unidad 6901 de desplazamiento de vídeo hace referencia en primer lugar a la bandera en el SPRM(34) para determinar si realizar la compensación de vídeo. Por ejemplo, cuando el valor de la bandera es “1”, la unidad 6901 de desplazamiento de vídeo hace referencia al SPRM(32) y proporciona el plano de vídeo principal con una compensación vertical en un modo de desplazamiento de vídeo indicado por el valor en el SPRM(32). Por otra parte, cuando el valor de la bandera es “0”, la unidad 6901 de desplazamiento de vídeo transmite el plano de vídeo principal al segundo sumador 4742 sin realizar el desplazamiento de vídeo. De manera similar, cada vez que recibe los datos 4704 de plano de PG desde el decodificador 4225 objetivo de sistema, la segunda unidad 4732 de recorte hace referencia en primer lugar al SPRM(34) para determinar si proporcionar el plano 4704 de PG con una compensación vertical. Por ejemplo, cuando el valor de la bandera es “1”, la segunda unidad 4732 de recorte hace referencia al SPRM(32) y al SPRM(33) y proporciona el plano 4704 de PG con una compensación vertical de acuerdo con los valores en los mismos. Por otra parte, cuando el valor de la bandera es “0”, la segunda unidad 4732 de recorte no proporciona el plano 4704 de Pg con una compensación vertical.
(1-O-6) Cuando una pluralidad de piezas de información 6803 de atributo de flujo, incluyendo cada una el modo 6812 de desplazamiento de vídeo mostrado en la Figura 68A, se registran en la tabla de STN, el orden de registro se establece de modo que las piezas de información de atributo de flujo que tienen el mismo modo de desplazamiento de vídeo se hacen continuas. La Figura 68B es un diagrama esquemático que muestra el orden de registro. Como se muestra en la Figura 68B, los PID de nueve flujos 1-9 de PG se registran en la tabla de STN, en correspondencia con los números de flujo (STN) 5-13. El modo de desplazamiento de vídeo de los flujos 1-3 de PG se establece al modo Mantener, el modo de desplazamiento de vídeo de flujos 4 y 5 de PG se establece al modo Arriba, y el modo de desplazamiento de vídeo de flujos 6-9 de PG se establece al modo Abajo. En ese caso, se asignan tres STN = 1-3 continuos a los flujos 1-3 de PG, se asignan dos STN = 4, 5 continuos a los flujos 4, 5 de PG, y se asignan cuatro STN = 6-9 continuos a los flujos 6-9 de PG. Cada vez que recibe notificación de la pulsación de un botón de conmutación de subtítulo desde el control 105 remoto, el dispositivo 102 de reproducción selecciona un flujo de PG a usarse en la visualización de subtítulo de entre flujo 1-9 de PG de acuerdo con el orden de registro indicado en la Figura 68B. En este punto, puesto que la visualización de pantalla tanto de las imágenes de vídeo como de subtítulo se continúa durante la operación de selección, en general las posiciones de visualización de las imágenes de vídeo y del subtítulo cambian cuando se presiona un botón de conmutación de subtítulo. Sin embargo, como se muestra en la Figura 68B, los flujos de PG del mismo modo de desplazamiento de vídeo se registran continuamente en la tabla de STN. Por lo tanto en general las posiciones de visualización de las imágenes de vídeo y del subtítulo cambian únicamente después de que presiona el botón de conmutación de subtítulo una pluralidad de veces. De esta manera, la frecuencia de cabio se suprime, evitando de esta manera que la operación de selección del flujo de PG moleste la visualización de las imágenes de vídeo y del subtítulo.
(1-O-7) Cuando se conmuta entre los modos de desplazamiento de vídeo, el dispositivo 102 de reproducción puede cambiar la posición de visualización de las imágenes de vídeo y subtítulo sin interrupciones usando los efectos visuales tales como el desvanecimiento de entrada/salida. Más preferentemente, el cambio de posición de visualización del subtítulo está más retrasado que el cambio de posición de visualización de las imágenes de vídeo. Esto evita el riesgo de que el cambio de posición de visualización de las imágenes de vídeo y de subtítulo debido a una conmutación entre modos de desplazamiento de vídeo pueda provocar que los observadores se sientan incómodos.
(1-O-8) En el PDS en el flujo de PG, “transparente incoloro” se asigna al ID de color = 255, y en la WDS, el ID de color = 255 se asigna al color de fondo en la ventana. Por consiguiente, cuando el flujo de PG representa el subtítulo, el color de fondo del subtítulo se establece a transparente incoloro. La Figura 70B es un diagrama esquemático que muestra la imagen de vídeo IMG y subtítulo SUB visualizadas en la pantalla SCR en ese caso. Como se muestra en la Figura 70B, en la ventana WIN1 que indica el intervalo de visualización del subtítulo SUB, el color de fondo es transparente incoloro. Por consiguiente, en la ventana WIN1, la imagen de vídeo IMG y subtítulo SUB se visualizan por encima una de la otra.
Por otra parte, el dispositivo 102 de reproducción puede asignar un color opaco tal como negro al ID de color = 255. La Figura 70A es un diagrama esquemático que muestra la estructura de datos del SPRM(37) en la unidad 4236 de almacenamiento variable de reproductor. Como se muestra en la Figura 70A, un valor de coordenada de color del color de fondo del subtítulo se almacenan en el SPRM(37). El valor se preestablece por la unidad 4234 de ejecución de programa de acuerdo con un programa de aplicación o el usuario. Cuando se establece un valor de coordenada de color en el SPRM(37), el decodificador de PG en el decodificador 4225 objetivo de sistema asigna el valor de coordenada de color al ID de color = 255 independientemente del ajuste indicado por el PDS. La Figura 70C es un diagrama esquemático que muestra la imagen de vídeo IMG y de subtítulo SUB visualizadas en la pantalla SCR en ese caso. En este punto, el valor de coordenada de color indicado por el SPRM(37) es un color opaco tal como negro. Como se muestra en la Figura 70C, en la ventana WIN2 que indica el intervalo de visualización del subtítulo SUB, el color de fondo es el color opaco. Por consiguiente, en la
5
10
15
20
25
30
35
40
45
50
55
60
ventana WIN2, la imagen de vídeo IMG se oculta por el color de fondo, y únicamente se visualiza el subtítulo SUB. De esta manera, es posible presentar las imágenes de vídeo y del subtítulo al observador de una manera fiable.
(1-O-9) Con una conmutación entre modos de desplazamiento de vídeo, no únicamente puede cambiarse la posición de visualización de la imagen de gráficos representada por el flujo de PG sino el mismo el flujo de PG. La Figura 71A es un diagrama esquemático que muestra otro ejemplo adicional de la tabla de STN en el fichero de lista de reproducción para el contenido de vídeo de la visualización apaisada. Como se muestra en la Figura 71A, en la tabla de STN 7100, una STN 7101 está asociada con una entrada 7102 de flujo del flujo 1 de PG y la información 7103 de atributo de flujo. La información 7103 de atributo de flujo incluye un valor 7110, 7111 de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo. El valor 7110 de desplazamiento de movimiento hacia arriba de vídeo y el valor 7111 de desplazamiento de movimiento hacia abajo de vídeo indican los PID de los flujos de PG que se han de seleccionar cuando se selecciona el modo Arriba y el modo Abajo como el modo de desplazamiento de vídeo, respectivamente. En los flujos de PG indicados por el valor 7110 de desplazamiento de movimiento hacia arriba de vídeo y el valor 7111 de desplazamiento de movimiento hacia abajo de vídeo, inicialmente la posición de visualización del subtítulo se establece en cada banda negra de las porciones inferior y superior del plano de vídeo principal. En ese caso, el dispositivo 102 de reproducción puede usar la siguiente estructura para el desplazamiento de vídeo.
La Figura 71B es un diagrama de bloques funcional que muestra otro ejemplo adicional de la estructura del dispositivo 102 de reproducción requerido para la compensación de vídeo. La estructura mostrada en la Figura 71B se diferencia de la estructura mostrada en la Figura 65 en los siguientes puntos: (A) cada vez que se conmuta el modo de desplazamiento de vídeo, la unidad 7135 de control de reproducción especifica el PID del flujo de PG para que se seleccione nuevamente al decodificador 4072 de PG; (B) la segunda unidad 4732 de recorte no proporciona el plano 4704 de PG con una compensación vertical; (C) el SPRM(33) y el SPRM(34) pueden no establecerse en la unidad 4236 de almacenamiento variable de reproductor. Los otros componentes son los mismos. Por lo tanto en la Figura 71B, los componentes que se muestran también en la Figura 65 se asignan los mismos números de referencia. Adicionalmente, pueden hallarse detalles sobre estos componentes en la descripción de la Figura 65.
El modo de desplazamiento de vídeo indicado por el SPRM(32) 6502 se cambia por la unidad 4234 de ejecución de programa de acuerdo con un programa de aplicación o el usuario. Cada vez que detecta un cambio en el valor almacenado en el SPRM(32) 6502, la unidad 7135 de control de reproducción hace referencia a la tabla de STN mostrada en la Figura 71A. Haciendo esto, la unidad 7135 de control de reproducción recupera el PID del flujo de PG que corresponde al modo de desplazamiento de vídeo después del cambio, y pasa el PID al decodificador 4072 de PG. Más específicamente, cuando el SPRM(32) 6502 indica el modo Arriba, la unidad 7135 de control de reproducción recupera el PID indicado por el subtítulo 7110 de movimiento hacia arriba de vídeo; cuando el SPRM(32) 6502 indica el modo Abajo, la unidad 7135 de control de reproducción recupera el PID indicado por el subtítulo 7111 de movimiento hacia abajo de vídeo; y cuando el SPRM(32) 6502 indica el modo Mantener, la unidad 7135 de control de reproducción recupera el PID indicado por la entrada 7102 de flujo. Como resultado, el plano 4704 de PG decodificado por el decodificador 4072 de PG representa un subtítulo que corresponde al modo de desplazamiento de vídeo.
La Figura 72A es un diagrama esquemático que muestra los subtítulos SB1 y SB2 que corresponden al modo Mantener. La Figura 72B es un diagrama esquemático que muestra los subtítulos SB1 y SB2 que corresponden al modo Abajo. Como se muestra en la Figura 72a, en el modo Mantener, un subtítulo horizontal sB1 se visualiza en la parte superior de la porción inferior del área de visualización de imagen de vídeo VP1, y un subtítulo vertical SB2 se visualiza en la parte superior de la porción de extremo derecho del área de visualización de imagen de vídeo VP1. Adicionalmente, las bandas negras BT y BB que son de 131 píxeles de altura se visualizan en las porciones por encima y por debajo del área de visualización de imagen de vídeo VP1, respectivamente. Como se muestra en la Figura 72B, en el modo Abajo, la banda negra BT2 que es de 262 píxeles de altura se visualiza en la porción por encima del área de visualización de imagen de vídeo VP2. Si la posición de visualización del subtítulo horizontal SB1 se moviera en la banda negra BT2 de la porción superior proporcionando el plano de PG con una compensación vertical, la posición de visualización del subtítulo vertical SB2 se movería hacia arriba fuera de la pantalla a la posición de visualización SB20. Por otra parte, el flujo de PG indicado por el subtítulo 7111 de movimiento hacia abajo de vídeo representa el subtítulo horizontal SBD, y la posición de visualización del mismo se ha establecido en la banda negra BT2 en la porción superior con antelación. Por consiguiente, la unidad 7135 de control de reproducción cambia el flujo de PG que representa el subtítulo horizontal SB1 en el modo Mantener al flujo de PG indicado por el subtítulo 7111 de movimiento hacia abajo de vídeo en el modo Abajo. Por otra parte, la unidad 7135 de control de reproducción usa el flujo de PG, que representa el subtítulo vertical SB2 en el modo Mantener, como está en el modo Abajo. Con esta estructura, en el modo Abajo, como se muestra en la Figura 72B, el subtítulo horizontal SBD se visualiza en la banda negra BT2 en la porción superior, y el subtítulo vertical SB2 se visualiza, como en el modo Mantener, en la parte superior de la porción de extremo derecho del área de visualización de imagen de vídeo VP1. Esto también se aplica al modo Arriba.
Cuando el subtítulo 7110 de movimiento hacia arriba de vídeo, el subtítulo 7111 de movimiento hacia abajo de vídeo o la entrada 7102 de flujo no están registrados en la tabla de STN, no se especifica el nuevo PID por la unidad 7135 de control de reproducción, por lo tanto el decodificador 4072 de PG mantiene el PID mantenido en este punto como está. En ese caso, la segunda unidad 4732 de recorte puede proporcionar el plano 4704 de PG con una
5
10
15
20
25
30
35
40
45
50
55
60
compensación vertical. Está compensación es la misma que la compensación proporcionada por la unidad 6501 de desplazamiento de vídeo a los planos 4701, 4702 de vídeo primarios. La Figura 72C es un diagrama esquemático que muestra el subtítulo SB1 visualizado en el modo Mantener. La Figura 72D es un diagrama esquemático que muestra el subtítulo SB3 visualizado en el modo Arriba cuando el subtítulo 7110 hacia arriba de vídeo no está registrado en la tabla de STN. Como se muestra en la Figura 72C, en el modo Mantener, el subtítulo SB1 se visualiza en la parte superior de la porción inferior del área de visualización de imagen de vídeo VP1. Adicionalmente, las bandas negras BT y BB que son de 131 píxeles de alto se visualizan en las porciones por encima y por debajo del área de visualización de imagen de vídeo VP1, respectivamente. Como se muestra en la Figura 72D, en el modo Arriba, la banda negra BB2 que es de 262 píxeles de alto se visualiza en la porción por debajo del área de visualización de imagen de vídeo VP2. Si la posición de visualización del subtítulo horizontal SB1 se mantuviera en la posición en el modo Mantener, la porción inferior del subtítulo SB1 se visualizaría en la parte superior de la banda negra BB2. En contraste, cuando la segunda unidad 4732 de recorte proporciona el plano 4704 de PG con una compensación vertical, como se muestra en la Figura 72D, en el modo Arriba, el subtítulo SB3 se visualiza en la porción inferior del área de visualización de imagen de vídeo VP2 en una posición separada de la banda negra BB2 de una manera similar al subtítulo SB1 en el modo Mantener.
Realización 2
El disco BD-ROM de acuerdo con la realización 2 de la presente invención también incluye un par de una vista de base y una vista dependiente para el flujo de PG y el flujo de IG. Por otra parte, el dispositivo de reproducción de acuerdo con la realización 2 de la presente invención se proporciona con modo de 2 planos. El “modo de 2 planos” es uno de los modos de visualización para el plano de gráficos. Cuando un sub-TS incluye tanto un flujo de gráficos de vista de base como de vista dependiente, el dispositivo de reproducción en modo de 2 planos decodifica y emite de manera alterna los datos de plano de gráficos de vista izquierda y de vista derecha desde los flujos de gráficos. Las imágenes de gráficos en 3D pueden reproducirse por lo tanto desde los flujos de gráficos. Aparte de estos puntos, el disco BD-ROM y el dispositivo de reproducción de acuerdo con la realización 2 tienen la misma estructura y funciones que las de acuerdo con la realización 1. Por consiguiente, lo siguiente es una descripción del disco BD- ROM y del dispositivo de reproducción de acuerdo con la realización 2 en la medida en que estas se han cambiado o ampliado en comparación con la realización 1. Los detalles sobre las partes del disco BD-ROM y del dispositivo de reproducción que son iguales de acuerdo con la realización 1 pueden hallarse en la descripción de la realización 1.
<Estructura de datos de Sub-TS>
La Figura 73A es una lista de flujos elementales multiplexados en un primer sub-TS en un disco 101 BD-ROM. El primer sub-TS son datos de flujo multiplexados en formato MPEG-2 TS y está incluido en un fichero DEP para el modo L/R. Como se muestra en la Figura 73A, el primer sub-TS incluye un flujo 7311 de vídeo primario, los flujos 7312A y 7312B de PG de vista izquierda, flujos 7313A y 7313B de pG de vista derecha, flujo 7314 de IG de vista izquierda, flujo 7315 de IG de vista derecha y flujo 7316 de vídeo secundario. Cuando el flujo 301 de vídeo primario en el TS principal mostrado en la Figura 3A representa la vista izquierda de las imágenes de vídeo en 3D, el flujo 7311 de vídeo primario, que es un flujo de vídeo de vista derecha, representa la vista derecha de las imágenes de vídeo en 3D. Los pares de los flujos de PG de vista izquierda y de vista derecha 7312A + 7313A y 7312B + 7313B representan la vista izquierda y vista derecha de imágenes de gráficos, tal como subtítulos, cuando estas imágenes de gráficos se visualizan como imágenes de vídeo en 3D. El par de flujos 7314 y 7315 de IG de vista izquierda y vista derecha representan la vista izquierda y la vista derecha de imágenes de gráficos para una pantalla interactiva cuando estas imágenes de gráficos se visualizan como imágenes de vídeo en 3D. Cuando el flujo 306 de vídeo secundario en el TS principal representa la vista izquierda de las imágenes de vídeo en 3D, el flujo 7316 de vídeo secundario, que es un flujo de vídeo de vista derecha, representa la vista derecha de las imágenes de vídeo en 3D.
Los PID se asignan a los flujos 7311-7316 elementales como sigue, por ejemplo. Un PID de 0x1012 se asigna al flujo 7311 de vídeo primario. Cuando pueden multiplexarse hasta 32 otros flujos elementales por tipo en un sub-TS, los flujos 7312A y 7312B de PG de la vista izquierda se asignan cualquier valor de 0x1220 a 0x123F, y los flujos 7313A y 7313B de PG de vista derecha se asigna cualquier valor de 0x1240 a 0x125F. El flujo 7314 de IG de vista izquierda se asigna cualquier valor de 0x1420 a 0x143F, y el flujo 7315 de IG de vista derecha se asigna cualquier valor de 0x1440 a 0x145F. El flujo 7316 de vídeo secundario se asigna cualquier valor de 0x1B20 a 0x1B3F.
La Figura 73B es una lista de flujos elementales multiplexados en un segundo sub-TS en un disco 101 BD-ROM. El segundo sub-TS son datos de flujo multiplexados en formato de MPEG-2 TS y está incluido en un fichero DEP para el modo de profundidad. Como alternativa, el segundo sub-TS puede multiplexarse en el mismo fichero DEP que el primer sub-TS. Como se muestra en la Figura 73B, el segundo sub-TS incluye un flujo 7321 de vídeo primario, flujos 7323A y 7323B de PG de mapa de profundidad, flujo 7324 de IG mapa de profundidad y flujo 7326 de vídeo secundario. El flujo 7321 de vídeo primario es un flujo de mapa de profundidad y representa imágenes de vídeo en 3D en combinación con el flujo 301 de vídeo primario en el TS principal. Cuando las imágenes de vídeo en 2D representadas por los flujos 323A y 323B de PG en el TS principal se usan para proyectar imágenes de vídeo en 3D en una pantalla en 2D virtual, los flujos 7323A y 7323B de PG de mapa de profundidad se usan como los flujos de PG que representan un mapa de profundidad para las imágenes de vídeo en 3D. Cuando las imágenes de vídeo en 2D representadas por el flujo 304 de IG en el TS principal se usan para proyectar imágenes de vídeo en 3D en una pantalla en 2D virtual, el flujo 7324 de IG de mapa de profundidad se usa como el flujo de IG que representa un
5
10
15
20
25
30
35
40
45
50
55
mapa de profundidad para las imágenes de vídeo en 3D. El flujo 7326 de vídeo secundario es un flujo de mapa de profundidad y representa imágenes de vídeo en 3D en combinación con el flujo 306 de vídeo secundario en el TS principal.
Los PID se asignan a los flujos 7321-7326 elementales como sigue, por ejemplo. Un PID de 0x1013 se asigna al flujo 7321 de vídeo primario. Cuando pueden multiplexarse hasta 32 otros flujos elementales por tipo en un sub-TS, a los flujos 7323A y 7323B de PG de mapa de profundidad se asigna cualquier valor de 0x1260 a 0x127F. El flujo 7324 de IG de mapa de profundidad se asigna cualquier valor de 0x1460 a 0x147F. El flujo 7326 de vídeo secundario se asigna cualquier valor de 0x1B40 a 0x1B5F.
<Estructura de datos de tabla de STN SS>
La Figura 74 es un diagrama esquemático que muestra una estructura de datos de la tabla de STN SS 3130 de acuerdo con la realización 2 de la presente invención. Como se muestra en la Figura 74, las secuencias 3301, 3302, 3303, ... de información de registro de flujo en la tabla de STN SS 3130 incluyen una secuencia 7413 de información de registro de flujo de un flujo de PG y una secuencia 7414 de información de registro de flujo de un flujo de IG además de una compensación durante la ventana emergente 3311 y una secuencia 3312 de información de registro de flujo de un flujo de vídeo de vista dependiente que se muestran en la Figura 33.
La secuencia 7413 de información de registro de flujo de un flujo de PG incluye información de registro de flujo que indica los flujos de PG que pueden seleccionarse para reproducción desde el sub-TS. La secuencia 7414 de información de registro de flujo de un flujo de IG incluye información de registro de flujo que indica los flujos de IG que pueden seleccionarse para reproducción desde el sub-TS. Estas secuencias 7413 y 7414 de información de registro de flujo se usan en combinación con las secuencias de información de registro de flujo, incluidas en la tabla de STN de la correspondiente PI, que indica flujos de PG y flujos de IG. Cuando se lee una pieza de la información de registro de flujo desde una tabla de STN, el dispositivo 102 de reproducción en un modo de reproducción en 3D lee también automáticamente la secuencia de información de registro de flujo, localizada en la tabla de STN SS, que se ha combinado con la pieza de la información de registro de flujo. Cuando simplemente se conmuta desde el modo de reproducción en 2D al modo de reproducción en 3D, el dispositivo 102 de reproducción puede mantener por lo tanto los STN ya reconocidos y atributos de flujo tal como el idioma.
Como se muestra adicionalmente en la Figura 74, la secuencia 7413 de información de registro de flujo del flujo de PG incluye en general una pluralidad de piezas de la información 7431 de registro de flujo. Estas son las mismas en número que las piezas de la información de registro de flujo en la correspondiente PI que indica los flujos de PG. La secuencia 7414 de información de registro de flujo del flujo de IG incluye la misma clase de piezas de la información de registro de flujo. Estas son las mismas en número que las piezas de la información de registro de flujo en la correspondiente Pi que indica los flujos de IG.
Cada pieza de la información 7431 de registro de flujo incluye un STN 7441, bandera estereoscópica (is_SS_PG) 7442, entrada de flujo de vista base (stream_entry_for_base_view) 7443, entrada de flujo de vista dependiente (stream_entry_for_dependent_view) 7444 e información 7445 de atributo de flujo. El STN 7441 es un número de serie asignado individualmente a piezas de la información 7431 de registro de flujo y es el mismo que el STN asignado a la pieza de la información de registro de flujo, localizada en la correspondiente PI, con la que se combina la pieza de la información 7431 de registro de flujo. La bandera 7442 estereoscópica indica si un disco 101 BD-ROM incluye los flujos de PG tanto de la vista de base como de la vista dependiente. Si la bandera 7442 estereoscópica está activada, el sub-TS incluye ambos flujos de PG. Por consiguiente, el dispositivo de reproducción lee todos los campos en la entrada 7443 de flujo de vista base, la entrada 7444 de flujo de vista dependiente y la información 7445 de atributo de flujo. Si la bandera 7442 estereoscópica está desactivada, el dispositivo de reproducción ignora todos estos campos 7443-7445. Tanto la entrada 7443 de flujo de vista base como la entrada 7444 de flujo de vista dependiente incluye información 7421 de referencia de ID de sub-ruta, información 7422 de referencia de fichero de flujo y los PID 7423. La información 7421 de referencia de ID de sub-ruta indica un ID de sub-ruta de una sub-ruta que especifica las rutas de reproducción de los flujos de PG de vista de base y de vista dependiente. La información 7422 de referencia de fichero de flujo es información para identificar el fichero DEP que almacena los flujos de PG. Los PID 7423 son los PID para los flujos de PG. La información 7445 de atributo de flujo incluye atributos para los flujos de PG, tal como el tipo idioma.
Obsérvese que la información 7431 de registro de flujo del flujo de PG puede almacenarse en la tabla de STN en lugar de la tabla de STN SS. En ese caso, la información 7431 de registro de flujo se almacena en flujos de PG en el TS principal, en particular en la información de atributo de flujo en la misma.
<Decodificador objetivo de sistema>
La Figura 75 es un diagrama de bloques funcional de un decodificador 7525 objetivo de sistema de acuerdo con la realización 2 de la presente invención. Como se muestra en la Figura 75, el decodificador 7501 de PG soporta el modo de 2 planos, a diferencia del decodificador de PG mostrado en la Figura 45. Específicamente, el decodificador 7501 de PG incluye un decodificador 7511 de PG de vista de base y un decodificador 7512 de PG de vista dependiente. Además de decodificar los flujos 303A y 303B de PG en el TS principal mostrado en la Figura 3A, el
5
10
15
20
25
30
35
40
45
50
55
decodificador 7511 de PG de vista de base decodifica los flujos 7312A y 7312B de PG de la vista izquierda en el primer sub-TS mostrado en la Figura 73A en datos de plano. El decodificador 7512 de PG de vista dependiente decodifica los flujos 7313A y 7313B de PG de vista derecha en el primer sub-TS mostrado en la Figura 73A y los flujos 7323A y 7323B de PG de mapa de profundidad en el segundo sub-TS mostrado en la Figura 73B en datos de plano. El decodificador de vídeo secundario y el decodificador de IG ambos incluyen un par similar de decodificadores. El decodificador 7525 objetivo de sistema incluye adicionalmente un par de memorias 7521 y 7522 de plano de PG. El decodificador 7511 de PG de vista de base escribe los datos de plano en la memoria 7521 de plano de PG izquierdo, y el decodificador 7512 de PG de vista dependiente escribe los datos de plano en la memoria 7522 de plano de PG derecho. La memoria de plano de IG y la memoria de plano de imagen ambas tienen estructuras similares. El decodificador 7525 objetivo de sistema asocia adicionalmente la salida de los datos de plano desde la memoria de plano de gráficos con modo de 2 planos, modo de 1 plano + compensación y modo de 1 plano + compensación cero. En particular, cuando la unidad 4235 de control de reproducción indica modo de 2 planos, el decodificador 7525 objetivo de sistema emite de manera alterna datos de plano a partir de un par de memorias 7521 y 7522 de plano de PG al sumador 7526 de planos.
<Sumadores de plano>
La Figura 76 es un diagrama de bloques parcial funcional del sumador 7526 de planos en modo de 2 planos. Como se muestra en la Figura 76, el sumador 6226 de planos incluye una unidad 4710 de generación de vídeo de paralaje, conmutador 4720, primer sumador 4741 y segundo sumador 4742, como el sumador 4226 de planos mostrado en la Figura 47. El sumador 7526 de planos incluye adicionalmente una segunda unidad 7610 de generación de vídeo de paralaje y un segundo conmutador 7620 como unidades para introducción de datos 7604 y 7605 de plano de PG. Una estructura similar se incluye en las unidades para introducción de datos de plano de vídeo secundario, datos de plano de IG y datos de plano de imagen.
La segunda unidad 7610 de generación de vídeo de paralaje recibe datos 7604 de plano de PG izquierdo y datos 7605 de plano de PG derecho desde el decodificador 7525 objetivo de sistema. En el dispositivo 102 de reproducción en modo L/R, los datos 7604 de plano de PG izquierdo representan el plano de PG de la vista izquierda, y los datos 7605 de plano de PG derecho representan el plano de PG de la vista derecha. En este punto, la segunda unidad 7610 de generación de vídeo de paralaje transmite las piezas 7604 y 7605 de datos de plano como están al conmutador 7620. Por otra parte, en el dispositivo 102 de reproducción en modo de profundidad, los datos 7604 de plano de PG izquierdo representan el plano de PG de imágenes de gráficos en 2D, y los datos 7605 de plano de PG derecho representan un mapa de profundidad que corresponde a las imágenes de gráficos en 2D. En este caso, la segunda unidad 7610 de generación de vídeo de paralaje calcula en primer lugar la paralaje binocular para cada elemento en las imágenes de gráficos en 2D usando el mapa de profundidad. A continuación, la segunda unidad 7610 de generación de vídeo de paralaje procesa los datos 7604 de plano de PG izquierdo para desplazar la posición de presentación de cada elemento en la imagen de gráficos en 2D en el plano de PG a la izquierda o derecha de acuerdo con la paralaje binocular calculado. Esto genera un par de planos de PG que representa una vista izquierda y vista derecha. Adicionalmente, la segunda unidad 7610 de generación de vídeo de paralaje emite este par de planos de PG al segundo conmutador 7620.
El segundo conmutador 7620 emite los datos 7604 de plano de PG izquierdo y los datos 7605 de plano de PG derecho, que tienen las mismas PTS, al segundo sumador 4742 en este orden. La segunda unidad 4732 de recorte en el modo de 2 planos emite cada uno de los datos 7604 y 7605 de plano de PG al segundo sumador 4742 como están. El segundo sumador 4742 superpone cada uno de los datos 7604 y 7605 de plano de PG en los datos de plano desde el primer sumador 4741 y transmite el resultado al tercer sumador 4743. Como resultado, el plano de PG de la vista izquierda se superpone en los datos 7601 de plano de vídeo izquierdo, y el plano de PG de la vista derecha se superpone en los datos 7602 de plano de vídeo derecho.
La segunda unidad 4732 de recorte en el modo de 2 planos, de una manera similar a la segunda unidad 4732 de recorte en el modo de 1 plano + compensación mostrado en la Figura 47, puede proporcionar cada uno de datos 7604 y 7605 de plano de PG con una compensación horizontal usando el valor de ajuste de compensación. Esto posibilita que se ajuste la profundidad de los gráficos en 3D las imágenes de vídeo en conjunto con el tamaño de la pantalla del dispositivo 103 de visualización. Como alternativa, la segunda unidad 4732 de recorte, de una manera similar a la segunda unidad 4732 de recorte en el modo de 1 plano + compensación mostrado en las Figuras 65 y 69, puede proporcionar cada uno de los datos 7604 y 7605 de plano de PG con una compensación vertical usando el valor de desplazamiento de movimiento hacia arriba/hacia abajo de vídeo. Cuando una imagen de vídeo en 3D se presenta en una visualización apaisada, esto posibilita que se presente una imagen de gráficos en 3D (por ejemplo subtítulo) en una banda negra que se localiza por encima o por debajo de la imagen de vídeo en 3D.
<Uso de información de compensación en modo de 2 planos>
La segunda unidad 4732 de recorte en el modo de 2 planos puede realizar un control de compensación en el plano de gráficos de vista izquierda o vista derecha usando la información 4704 de compensación. El control de compensación proporciona las siguientes ventajas.
En el modo L/R, en lugar del flujo de PG de la vista izquierda en el primer sub-TS mostrado en la Figura 73A, el flujo
5
10
15
20
25
30
35
40
45
50
55
60
de PG para la imagen en 2D en el TS principal (en lo sucesivo, el flujo de PG para la imagen en 2D se abrevia como “flujo de PG en 2D”) puede usarse como los datos de plano de PG de la vista izquierda. Es decir, en la entrada 7443 de flujo de vista base mostrada en la Figura 74, la información 7421 de referencia de ID de sub-ruta indica la ruta principal, la información 7422 de referencia de fichero de flujo indica el fichero en 2D que almacena el flujo de PG en 2D, y el PID 7423 indica el PID del flujo de PG en 2D. En ese caso, es posible reducir la cantidad de datos del contenido de vídeo en 3D puesto que el primer sub-TS no necesita incluir el flujo de PG de la vista izquierda. Por otra parte, pueden tener lugar los siguientes errores en la imagen de gráficos en 3D.
Las Figuras 77A, 77B y 77C son diagramas esquemáticos que muestran una imagen de gráficos de la vista izquierda GOB0 representadas por el flujo de PG en 2D y unas imágenes de gráficos de vista derecha GOB1-GOB3 representadas por el flujo de PG de la vista derecha. En las Figuras 77A, 77B y 77C, la línea continua en la pantalla SCR indica la imagen de gráficos de la vista izquierda GOB0 y la línea discontinua indica las imágenes de gráficos de vista derecha GOB1-GOB3. Como las distancias A1, A2 y A3 entre las imágenes de gráficos mostradas en la Figura 77A, 77B y 77C cambian de pequeño a grande en este orden (A1 < A2 < A3), la diferencia en profundidad entre la imagen de gráficos en 3D y la pantalla SCR cambia en consecuencia. Por lo tanto cuando el par de imágenes de gráficos en 3D se visualizan como se muestra en la Figura 77A a la Figura 77C en este orden, la imagen de gráficos en 3D parece saltar desde la pantalla SCR hacia el observador. Cuando la imagen de gráficos de la vista izquierda GOB0 representa un subtítulo, la imagen GOB0 se usa como una imagen en 2D también, por lo tanto la posición de visualización es constante a través de las Figuras 77A, 77B y 77C. Por otra parte, las posiciones de visualización de las imágenes de gráficos de vista derecha GOB1-GOB3 se mueven hacia la izquierda en el orden de las Figuras 77A, 77B y 77C. Por consiguiente, las posiciones centrales C1, C2 y C3 entre las imágenes de gráficos se mueven hacia la izquierda en el orden de las Figuras 77A, 77B y 77C. Es decir, la imagen de gráficos en 3D del subtítulo parece moverse hacia la izquierda. Un movimiento de este tipo del subtítulo puede hacer que el observador se sienta incómodo.
La segunda unidad 4732 de recorte en el modo de 2 planos evita que la imagen de gráficos en 3D se mueva horizontalmente usando el control de compensación de acuerdo con la información de compensación como sigue. Las Figuras 77D, 77E y 77F son diagramas esquemáticos que muestran el control de compensación realizado en la imagen de gráficos de la vista izquierda mostrada en las Figuras 77A, 77B y 77C. En las Figuras 77D, 77E y 77F, la línea continua en la pantalla SCR indica las imágenes de gráficos de la vista izquierda GOB4-GOB6 después del control de compensación, la línea discontinua fina indica la imagen de gráficos de la vista izquierda GOB0 antes del control de compensación, y la línea discontinua gruesa indica las imágenes de gráficos de vista derecha GOB1- GOB3. La segunda unidad 4732 de recorte proporciona el plano de PG de la vista izquierda con las compensaciones OFS1, OFS2 y OFS3 indicadas por las flechas en la Figura 77D, 77E y 77F en este orden. Con esta provisión, las imágenes de gráficos de la vista izquierda GOB4-GOB6 después del control de compensación se mueven hacia la derecha en comparación con la imagen de gráficos de la vista izquierda GOB0 antes del control de compensación. Como resultado, puesto que la posición central C0 entre las imágenes de gráficos se mantiene constante a través de las Figuras 77D-77F, la imagen de gráficos en 3D parece que no se mueve horizontalmente. De esta manera, usando el flujo de PG en 2D como el flujo de PG de la vista izquierda, es posible para evitar que el observador se sienta incómodo.
Realización 3
Lo siguiente describe, como la realización 3 de la presente invención, un dispositivo y procedimiento para registrar datos en el medio de registro de las realizaciones 1 y 2 de la presente invención. El dispositivo de registro descrito en este punto se denomina un dispositivo de autoría. El dispositivo de autoría está localizado generalmente en un estudio de creación y se usa por personal de realización de autoría para crear un contenido de película que se va a distribuir. En primer lugar, en respuesta a las operaciones por el personal de autoría, el dispositivo de registro convierte contenido de película en ficheros de flujo de AV usando un procedimiento de codificación de compresión predeterminado. A continuación, el dispositivo de registro genera un escenario. Un “escenario” es información que define cómo cada título incluido en el contenido de película se ha de reproducir. Específicamente, un escenario incluye información de escenario dinámico e información de escenario estático. A continuación, el dispositivo de registro genera una imagen de volumen para un disco BD-ROM desde los ficheros de flujo de AV y el escenario. Finalmente, el dispositivo de registro registra la imagen de volumen en el medio de registro.
La Figura 78 es un diagrama de bloques funcional de un dispositivo 7800 de registro. Como se muestra en la Figura 78, el dispositivo 7800 de registro incluye una unidad 7801 de base de datos, codificador 7802 de vídeo, unidad 7803 de creación de material, unidad 7804 de generación de escenario, unidad 7805 de creación de programa de BD, unidad 7806 de procesamiento de multiplexación y la unidad 7807 de procesamiento de formato.
La unidad 7801 de base de datos es un dispositivo de almacenamiento no volátil embebido en el dispositivo de registro y es en particular una unidad de disco duro (HDD). Como alternativa, la unidad 7801 de base de datos puede ser un HDD externo conectado al dispositivo de registro, o un dispositivo de memoria de semiconductores no volátil interno o externo al dispositivo de registro.
El codificador 7802 de vídeo recibe datos de vídeo, tal como datos de mapa de bits descomprimidos, desde el personal de autoría y comprende los datos de vídeo recibidos de acuerdo con un procedimiento de codificación de
5
10
15
20
25
30
35
40
45
50
55
60
compresión tal como MPEG-4 AVC o MPEG-2. Este procedimiento convierte datos de vídeo primarios en un flujo de vídeo primario y datos de vídeo secundarios en un flujo de vídeo secundario. En particular, los datos de imagen de vídeo en 3D se convierten en un par de un flujo de vídeo de vista de base y un flujo de vídeo de vista dependiente, como se muestra en la Figura 7, usando un procedimiento de codificación de múltiples vistas tal como MVC. En otras palabras, la secuencia de fotograma de vídeo que representa la vista izquierda se convierte en un flujo de vídeo de vista de base mediante codificación predictiva de inter-instantánea en las instantáneas en estos fotogramas de vídeo. Por otra parte, la secuencia de fotogramas de vídeo que representa la vista derecha se convierte en un flujo de vídeo de vista dependiente mediante codificación predictiva en no únicamente las instantáneas en estos fotogramas de vídeo, sino también en las instantáneas de vista de base. Obsérvese que los fotogramas de vídeo que representan la vista derecha pueden convertirse en un flujo de vídeo de vista de base, y los fotogramas de vídeo que representan la vista izquierda pueden convertirse en un flujo de vídeo de vista dependiente. Los flujos 7812 de vídeo convertidos se almacenan en la unidad 7801 de base de datos.
Durante el procedimiento de codificación predictiva de inter-instantánea, el codificador 7802 de vídeo detecta vectores de movimiento entre imágenes individuales en la vista izquierda y vista derecha y calcula información de profundidad de cada imagen de vídeo en 3D basándose en los vectores de movimiento detectados. Las Figuras 79A y 79B son diagramas esquemáticos que muestran respectivamente una instantánea en una vista izquierda y una vista derecha usadas para visualizar una escena de las imágenes de vídeo en 3D, y la Figura 79C es un diagrama esquemático que muestra información de profundidad calculada a partir de estas instantáneas por el codificador 7802 de vídeo.
El codificador 7802 de vídeo comprime instantáneas de la vista izquierda y de la vista derecha usando la redundancia entre las instantáneas. En otras palabras, el codificador 7802 de vídeo compara instantáneas descomprimidas en una base por macrobloque, es decir por matrices de 8 x 8 o 16 x 16 píxeles, para detectar un vector de movimiento para cada imagen en las dos instantáneas. Específicamente, como se muestra en las Figuras 79A y 79B, una instantánea 7901 de vista izquierda y una instantánea 7902 de vista derecha se dividen cada una en primer lugar en macrobloques 7903. A continuación, las áreas ocupadas por los datos de imagen en la instantánea 7901 y la instantánea 7902 se comparan para cada macrobloque 7903, y se detecta un vector de movimiento para cada imagen basándose en el resultado de la comparación. Por ejemplo, el área ocupada por la imagen 7904 que muestra una “casa” en la instantánea 7901 es sustancialmente la misma que la de la instantánea 7902. Por consiguiente, no se detecta un vector de movimiento a partir de estas áreas. Por otra parte, el área ocupada por la imagen 7905 que muestra un “círculo” en la instantánea 7901 es sustancialmente diferente del área en la instantánea 7902. Por consiguiente, se detecta un vector de movimiento de la imagen 7905 a partir de estas áreas.
El codificador 7802 de vídeo usa el vector de movimiento detectado para comprimir las instantáneas 7901 y 7902. Por otra parte, la unidad 7905 de generación de información de profundidad de fotograma usa el vector de movimiento VCT para calcular la paralaje binocular de cada imagen, tal como la imagen de “casa” 7904 y la imagen del “círculo” 7905. El codificador 7802 de vídeo calcula adicionalmente la profundidad de cada imagen de la paralaje binocular de la imagen. La información que indica la profundidad de cada imagen puede organizarse en una matriz 7906 el mismo tamaño que la matriz de los macrobloques en las instantáneas 7901 y 7902, como se muestra en la Figura 79C. En esta matriz 7906, los bloques 7907 están en una correspondencia uno a uno con los macrobloques 7903 en las instantáneas 7901 y 7902. Cada bloque 7907 indica la profundidad de la imagen mostrada por los macrobloques 7903 correspondientes usando, por ejemplo, una profundidad de 8 bits. En el ejemplo mostrado en la Figura 79, la profundidad de la imagen 7905 del “círculo” se almacena en cada uno de los bloques en un área 7908 en la matriz 7906. Esta área 7908 corresponde las áreas completas en las instantáneas 7901 y 7902 que representan la imagen 7905.
El codificador 7802 de vídeo puede usar la información de profundidad para generar un mapa de profundidad para la vista izquierda o vista derecha. En este caso, el codificador 7802 de vídeo respectivamente codifica cualquiera de los datos de flujo de la vista izquierda o de la vista derecha y el correspondiente flujo de mapa de profundidad como el flujo de vídeo de vista de base y el flujo de mapa de profundidad usando la codificación predictiva entre instantáneas incluidas en el mismo codificador 7802 de vídeo. Cada flujo 7812 de vídeo después de la conversión se almacena en la unidad 7801 de base de datos.
El codificador 7802 de vídeo puede usar adicionalmente la información de profundidad para calcular la anchura WDH de la banda AL o AR en la dirección vertical que se incluye en cualquiera de la vista izquierda LV y la vista derecha RV mostradas en las Figuras 60B y 60C, y la altura HGT de la banda AT o AB en la dirección horizontal que se incluye en cualquiera de la vista izquierda LV y la vista derecha RV mostradas en las Figuras 61B y 61c. Realmente, cuando una imagen de un objeto se incluye en una banda vertical u horizontal, el vector de movimiento de esta imagen se detecta indicando “fotograma fuera” desde la vista izquierda a la vista derecha o viceversa. Por consiguiente, el codificador 7802 de vídeo puede calcular la anchura o altura de cada banda a partir de este vector de movimiento. La información 7811 que indica anchura y altura calculadas (en lo sucesivo denominada como “información de área de máscara”) se almacena en la unidad 7801 de base de datos.
Cuando se codifica un flujo de vídeo secundario desde datos de imagen de vídeo en 2D, el codificador 7802 de vídeo puede crear también la información 7810 de compensación para un plano de vídeo secundario de acuerdo con las operaciones del personal de autoría. La información 7810 de compensación generada se almacena en la unidad
5
10
15
20
25
30
35
40
45
50
55
60
7801 de base de datos.
La unidad 7803 de creación de material crea flujos elementales distintos de los flujos de vídeo, tal como un flujo 7813 de audio, el flujo 7814 de PG y el flujo 7815 de IG y almacena los flujos creados en la unidad 7801 de base de datos. Por ejemplo, la unidad 7803 de creación de material recibe datos de audio de LPCM descomprimidos desde el personal de autoría, codifica los datos de audio descomprimidos de LPCM de acuerdo con un procedimiento de codificación de compresión tal como AC-3, y convierte los datos de audio de LPCM codificados en el flujo 7813 de audio. La unidad 7803 de creación de material recibe adicionalmente un fichero de información de subtítulo desde el personal de autoría y crea el flujo 7814 de IG de acuerdo con el fichero de información de subtítulo. El fichero de información de subtítulo define datos de imagen o datos de texto para mostrar subtítulos, temporizaciones de visualización de los subtítulos y efectos visuales a añadirse a los subtítulos, tal como desvanecimiento de entrada y desvanecimiento de salida. Adicionalmente, la unidad 7803 de creación de material recibe datos de mapa de bits y un fichero de menú desde el personal de autoría y crea el flujo 7815 de IG de acuerdo con los datos de mapa de bits y el fichero de menú. Los datos de mapa de bits muestran imágenes que se han de visualizar en un menú. El fichero de menú define cómo cada botón en el menú ha de realizar la transición desde un estado a otro y define efectos visuales a añadirse a cada botón.
En respuesta a las operaciones por el personal de autoría, la unidad 7803 de creación de material crea adicionalmente información 7810 de compensación que corresponde al flujo 7814 de PG y al flujo 7815 de IG. En este caso, la unidad 7803 de creación de material puede usar la información de profundidad dPi generada por el codificador 7802 de vídeo para ajustar la profundidad de las imágenes de vídeo de gráficos en 3D con la profundidad de las imágenes de vídeo en 3D. En este caso, cuando la profundidad de las imágenes de vídeo en 3D cambia enormemente por cada fotograma, la unidad 7803 de creación de material puede procesar adicionalmente una serie de valores de compensación creados con uso de la información de profundidad DPI en el filtro de ruta inferior para reducir el cambio por cada fotograma. La información 7810 de compensación creada de esta manera se almacena en la unidad 7801 de base de datos.
La unidad 7804 de generación de escenario crea datos 7817 de escenario de BD-ROM en respuesta a una instrucción recibida desde el personal de autoría mediante la GUI y a continuación almacena los datos 7817 de escenario de BD-ROM creados en la unidad 7801 de base de datos. Los datos 7817 de escenario de BD-ROM definen procedimientos de reproducción los flujos 7812-7816 elementales almacenados en la unidad 7801 de base de datos. Del grupo de ficheros mostrado en la Figura 2, los datos 7817 de escenario de BD-ROM incluyen el fichero 211 de índice, el fichero 212 de objeto de película y los ficheros 221-223 de lista de reproducción. La unidad 7804 de generación de escenario crea adicionalmente un fichero de parámetro PRF y transfiere el fichero de parámetro creado PRF a la unidad 7806 de procesamiento de multiplexación. El fichero de parámetro PRF define, de entre los flujos 7812-7816 elementales almacenados en la unidad 7801 de base de datos, datos de flujo a multiplexarse en el TS principal y sub-TS.
La unidad 7805 de creación de programa de BD proporciona al personal de autoría con un entorno de programación para programar objetos de BD-J y programas de aplicación Java. La unidad 7805 de creación de programa de BD recibe una solicitud desde un usuario mediante la GUI y crea cada código fuente del programa de acuerdo con la solicitud. La unidad 7805 de creación de programa de BD crea adicionalmente un fichero 251 de objeto BD-J desde los objetos BD-J y comprime los programas de aplicación Java en el fichero 261 JAR. Los ficheros de programa BDP se transfieren a la unidad 7807 de procesamiento de formato.
En este contexto, se supone que un objeto de BD-J se programan de la siguiente manera: el objeto BD-J provoca que la unidad 4234 de ejecución de programa mostrada en la Figura 42 transfiera datos de gráficos para la GUI al decodificador 4225 objetivo de sistema. Adicionalmente, el objeto BD-J provoca que el decodificador 4225 objetivo de sistema procese datos de gráficos como datos de plano de imagen y emita datos de plano de imagen al sumador 4226 de planos en el modo 1 plano + compensación. En este caso, la unidad 7805 de creación de programa de BD puede crear información 7810 de compensación que corresponde al plano de imagen y almacenar la información 7810 de compensación en la unidad 7801 de base de datos. En este punto, la unidad 7305 de creación de programa de BD puede usar la información de profundidad DPI generada por el codificador 7802 de vídeo cuando se crea la información 7810 de compensación.
De acuerdo con el fichero de parámetro PRF, la unidad 7806 de procesamiento de multiplexación multiplexa cada uno de los flujos 7812-7816 elementales almacenados en la unidad 7801 de base de datos para formar un fichero de flujo en formato MPEG-2 TS. Más específicamente, como se muestra en la Figura 4, en primer lugar cada uno de los flujos 7812-7815 elementales se convierte en una secuencia de paquetes de origen, y los paquetes de origen incluidos en cada secuencia se ensamblen para construir una única pieza de datos de flujo multiplexados. De esta manera, se crea el TS principal y sub-TS. Estas piezas de datos de flujo multiplexados MSD se emiten a la unidad 7807 de procesamiento de formato.
Adicionalmente, la unidad 7806 de procesamiento de multiplexación crea los metadatos de compensación basándose en la información 7810 de compensación almacenada en la unidad 7801 de base de datos. Como se muestra en la Figura 11, los metadatos 1110 de compensación creados se almacenan en el flujo de vídeo de vista dependiente. En este punto, la información 7811 de área de máscara almacenada en la unidad 7801 de base de
5
10
15
20
25
30
35
40
45
50
55
datos se almacena en el flujo de vídeo de vista dependiente junto con los metadatos de compensación. Obsérvese que la unidad 7806 de procesamiento de multiplexación puede procesar cada pieza de datos de gráficos para ajustar la disposición de los elementos de gráficos en los fotogramas de imagen de vídeo izquierdo y derecho de modo que las imágenes de gráficos en 3D representadas por cada plano de gráficos no se visualizan solapándose en la misma dirección visual que las imágenes de gráficos en 3D representadas por los otros planos de gráficos. Como alternativa, la unidad 7806 de procesamiento de multiplexación puede ajustar el valor de compensación para cada plano de gráficos de modo que las profundidades de las imágenes de gráficos en 3D no solapan.
Adicionalmente, la unidad 7806 de procesamiento de multiplexación crea un fichero de información de clip en 2D y un fichero de información de clip de vista dependiente mediante las siguientes cuatro etapas. (I) Crear los mapas 2230 de entrada mostrados en la Figura 23 para el fichero en 2D y el fichero DEP. (II) Crear los puntos 2242 y 2420 de inicio de segmento mostrados en las Figuras 24A y 24B usando cada mapa de entrada de fichero. En este punto, alinear tiempos de ATC de segmento entre bloques de datos consecutivos (véase a continuación). Adicionalmente, diseñar la disposición de segmentos de modo que los tamaños de segmentos de 2D, segmentos de vista de base, segmentos de vista dependiente y segmentos SS satisfagan condiciones predeterminadas (véase la «explicación complementaria» con respecto a estas condiciones). (III) Extraer la información 2220 de atributo de flujo mostrada en la Figura 22 desde cada flujo elemental a multiplexarse en el TS principal y sub-TS. (IV) Asociar, como se muestra en la Figura 22, una combinación de un mapa 2230 de entrada, metadatos 2240 en 3D e información 2220 de atributo de flujo con una pieza de información 2210 de clip. Cada fichero de información de clip CLI se crea por lo tanto y se transmite a la unidad 7307 de procesamiento de formato.
La unidad 7807 de procesamiento de formato crea una imagen 7820 de disco BD-ROM de la estructura de directorio mostrada en la Figura 2 desde (i) los datos 7817 de escenario de BD-ROM almacenados en la unidad 7801 de base de datos, (ii) un grupo de ficheros de programa BDP tal como los ficheros de objeto BD-J creados por la unidad 7805 de creación de programa de BD, y (iii) datos de flujo multiplexados MSD y ficheros de información de clip CLI generados por la unidad 7806 de procesamiento de multiplexación. En esta estructura de directorio, se usa UDF como el sistema de ficheros.
Cuando se crean entradas de fichero para cada uno de los ficheros 2D, ficheros DEP y ficheros SS, la unidad 7807 de procesamiento de formato hace referencia a los mapas de entrada y metadatos en 3D incluidos en los ficheros de información de clip en 2D y ficheros de información de clip de vista dependiente. El SPN para cada punto de entrada y punto de inicio de segmento se usa de esta manera al crear cada descriptor de asignación. En particular, se determina el valor del LBN y el tamaño de segmento a representarse por cada descriptor de asignación para expresar una disposición intercalada como la mostrada en la Figura 19. Como resultado, cada bloque de datos de vista de base se comparte por un fichero SS y fichero en 2D, y cada bloque de datos de vista dependiente se comparte por un fichero SS y fichero DEP.
<Procedimiento de registro de imagen de disco de BD-ROM>
La Figura 80 es un diagrama de flujo un procedimiento para registrar contenido de película en un disco BD-ROM usando el dispositivo 7800 de registro mostrado en la Figura 78. Este procedimiento comienza, por ejemplo, cuando se conecta la alimentación al dispositivo 7800 de registro.
En la etapa S8001, se crean los flujos elementales, programas y datos de escenario a registrarse en un disco BD- ROM. En otras palabras, el codificador 7802 de vídeo crea un flujo 7812 de vídeo. La unidad 7803 de creación de material crea un flujo 7813 de audio, flujo 7814 de PG y flujo 7815 de IG. La unidad 7804 de generación de escenario crea datos 7817 de escenario de BD-ROM. Estas piezas de datos 7812-7817 creadas se almacenan en la unidad 7801 de base de datos. Por otra parte, el codificador 7802 de vídeo crea información 7810 de compensación e información 7811 de área de máscara y almacena estas piezas de información en la unidad 7801 de base de datos. La unidad 7803 de creación de material crea información 7810 de compensación y almacena esta información en la unidad 7801 de base de datos. La unidad 7804 de generación de escenario crea un fichero de parámetro PRF y transfiere este fichero a la unidad 7806 de procesamiento de multiplexación. La unidad 7805 de creación de programa de BD crea un grupo de ficheros de programa BDP, que incluyen un fichero de objeto BD-J y un fichero JAR, y transfiere este grupo BDP a la unidad 7807 de procesamiento de formato. La unidad 7805 de creación de programa de BD también crea información 7810 de compensación y almacena esta información en la unidad 7801 de base de datos. Posteriormente, el procesamiento continúa a la etapa S8002.
En la etapa S8002, la unidad 7806 de procesamiento de multiplexación crea metadatos de compensación basándose en la información 7810 de compensación almacenada en la unidad 7801 de base de datos. Los metadatos de compensación creados se almacenan en el flujo de vídeo de vista dependiente junto con la información 7811 de área de máscara. Posteriormente, el procesamiento continúa a la etapa S8003.
En la etapa S8003, la unidad 7806 de procesamiento de multiplexación lee los flujos 7812-7816 elementales desde la unidad 7801 de base de datos de acuerdo con el fichero de parámetro PRF y multiplexan estos flujos en un fichero de flujo en formato MPEG2-TS. Posteriormente, el procesamiento continúa a la etapa S8004.
En la etapa S8004, la unidad 7806 de procesamiento de multiplexación crea un fichero de información de clip en 2D
5
10
15
20
25
30
35
40
45
50
55
y un fichero de información de clip de vista dependiente. En particular, durante la creación del mapa de entrada y puntos de inicio de segmento, el tiempo de ATC de segmento se alinea entre bloques de datos contiguos. Adicionalmente, los tamaños de segmentos de 2D, segmentos de vista de base, segmentos de vista dependiente y segmentos SS se establecen para satisfacer condiciones predeterminadas. Posteriormente, el procesamiento continúa a la etapa S8005.
En la etapa S8005, la unidad 7807 de procesamiento de formato crea una imagen 7820 de disco BD-ROM desde los datos 7817 de escenario de BD-ROM, grupo de ficheros de programa BDP, datos de flujo multiplexados MDS y fichero de información de clip CLI. Posteriormente, el procesamiento continúa a la etapa S8006.
En la etapa S8006, la imagen 7820 de disco BD-ROM se convierte en datos para prensar el BD-ROM. Adicionalmente, estos datos se registran en un disco BD-ROM maestro. Posteriormente, el procesamiento continúa a la etapa S8007.
En la etapa S8007, los discos 101 de BD-ROM se producen en masa prensando el maestro obtenido en la etapa S8006. El procesamiento a continuación concluye.
<Procedimiento para alinear tiempos de ATC de segmento>
La Figura 81 es un diagrama esquemático que muestra un procedimiento para alinear tiempos de ATC de segmento entre bloques de datos consecutivos. En primer lugar, las ATS a lo largo del mismo eje de tiempo de ATC se asignan a los paquetes de origen almacenados en un bloque de datos de vista de base (en lo sucesivo, SP1) y a los paquetes de origen almacenados en un bloque de datos de vista dependiente (en lo sucesivo, SP2). Como se muestra en la Figura 81, los rectángulos 8110 y 8120 respectivamente representan el SP1 n.° p (p=0, 1, 2, 3, ..., k, k + 1, ..., i, i + 1) y el SP2 n.° q (q = 0, 1, 2, 3, ..., m, m + 1, ..., j). Estos rectángulos 8110 y 8120 se disponen en orden a lo largo del eje de tiempo en la ATS de cada paquete de origen. La posición de la parte superior de cada rectángulo 8110 y 8120 representa el valor de la aTs del paquete de origen. La longitud AT1 de cada rectángulo 8110 y 8120 representa la cantidad de tiempo necesaria para que el dispositivo de reproducción en 3D transfiera un paquete de origen desde la memoria intermedia de lectura al decodificador objetivo de sistema.
Desde la ATS A1 del SP1 n.° 0 hasta que haya pasado un tiempo de ATC de segmento Text, SP1, es decir SP1 n.° 0, 1, 2, ..., k, se transfiere desde la memoria intermedia de lectura al decodificador objetivo de sistema y se almacena como el segmento de vista base de orden (n + 1) EXT1[n] en un bloque de datos de vista de base. De manera similar, desde la ATS A3 del SP1 n.° (k + 1) hasta que haya pasado un tiempo de ATC de segmento Text, SP1, es decir SP1 n.° (k + 1), ..., i, se transfiere desde la memoria intermedia de lectura al decodificador objetivo de sistema y se almacena como el segmento de vista base de orden (n + 2) EXT1[n + 1] en el siguiente bloque de datos de vista de base.
Por otra parte, SP2, que se ha de almacenar en el segmento de vista dependiente de orden (n + 1) EXT2[n] en un bloque de datos de vista dependiente, se selecciona como sigue. En primer lugar, la suma de la ATS A1 del SP1 n.° 0 y el tiempo de ATC de segmento Text, A1 + Text, se busca como ATS A3 del SP1 n.° (k + 1) localizado en la parte superior del segmento de vista base de orden (n + 2) EXT1[n + 1]. A continuación, se selecciona SP2, es decir el SP2 n.° 0, 1, 2, ..., m. La transferencia del SP2 desde la memoria intermedia de lectura al decodificador objetivo de sistema comienza durante el periodo desde la ATS A1 del SP1 n.° 0 hasta la ATS A3 del SP1 n.° (k + 1). Por consiguiente, el SP2 superior, es decir la ATS A2 del SP2 n.° 0, es siempre igual a o mayor que el SP1 superior, es decir ATS A1 del SP1 n.° 0: A2 > A1. Adicionalmente, todas las ATS del SP2 n.° 0 - m son menores que la ATS A3 del SP1 n.° (k + 1). En este contexto, la finalización de la transferencia del último SP2, es decir SP n.° m, puede ser en o después de la ATS A3 del SP1 n.° (k + 1).
De manera similar, SP2, que se ha de almacenar como el segmento de vista dependiendo del orden (n + 2) EXT2[n + 1] en un bloque de datos de vista dependiente, se selecciona como sigue. En primer lugar, la ATS A5 del SP1 n.° (i + 1) localizada en la parte superior del segmento de vista base de orden (n + 3) se busca como la ATS A5 = A3 + Text. A continuación, se selecciona el SP2, es decir SP2 n.° (m + 1) - j. La transferencia del SP2 desde la memoria intermedia de lectura al decodificador objetivo de sistema comienza durante el periodo desde la ATS A3 del SP1 n.° (k + 1) hasta la ATS A5 del SP1 n.° (i + 1). Por consiguiente, el SP2 superior, es decir ATS A4 del SP2 n.° (m + 1), es siempre igual a o mayor que el SP1 superior, es decir ATS A3 del SP1 n.° (k + 1): A4 > A3. Adicionalmente, todas las ATS del SP2 n.° (m + 1) -j son menores que ATS A5 del SP1 n.° (k + 1).
Realización 4
La Figura 110 es un diagrama de bloques funcional de un dispositivo de reproducción realizado usando el circuito 3 integrado de acuerdo con la realización 4 de la presente invención. Este dispositivo de reproducción reproduce datos que tienen la estructura descrita en las realizaciones anteriores.
Una unidad 1 de IF de medios recibe o lee datos desde un medio y transmite los datos al circuito 3 integrado. Obsérvese que los datos incluyen datos con la estructura descrita en realizaciones anteriores. La unidad 1 de IF de medios es, por ejemplo, una unidad de disco si el medio es un disco óptico o disco duro; una IF de tarjeta si el medio es una memoria de semiconductores tal como una tarjeta de SD, memoria USB, etc.; un sintonizador CAN o If de
5
10
15
20
25
30
35
40
45
50
55
60
sintonizador si el medio es una onda de difusión tal como CATV o similar; y una IF de red si el medio es una red tal como Ethernet™, LAN inalámbrica, línea pública inalámbrica, etc.
Una memoria 2 almacena temporalmente tanto los datos recibidos como leídos desde el medio y datos que se procesan por el circuito 3 integrado. Una Memoria de Acceso Aleatorio Dinámica Síncrona (SDRAM), Memoria de Acceso Aleatorio Dinámica Síncrona de Doble Tasa de Datos x (DDRx SDRAM; x = 1, 2, 3, ...), etc., se usa como la memoria 2. Cualquier número de memorias 2 puede proporcionarse; según sea necesario, la memoria 2 puede ser un único elemento o una pluralidad de elementos.
Un circuito 3 integrado es un sistema LSI que trata datos transmitidos desde la unidad 1 de IF de medios con procesamiento de vídeo y audio. El circuito 3 integrado incluye una unidad 6 de control principal, unidad 5 de procesamiento de flujo, unidad 7 de procesamiento de señal, unidad 9 de control de memoria y unidad 8 de salida de AV.
La unidad 6 de control principal incluye una memoria de programa y un núcleo procesador. La memoria de programa pre-almacena software básico tal como el SO. El núcleo procesador tiene una función de temporizador y una función de interrupción, y controla la totalidad del circuito 3 integrado de acuerdo con los programas almacenados, por ejemplo, en la memoria de programa.
Bajo el control de la unidad 6 de control principal, la unidad 5 de procesamiento de flujo recibe datos transmitidos desde el medio mediante la unidad 1 de IF de medios, y a continuación almacena los datos en la memoria 2 mediante un bus de datos en el circuito 3 integrado, o separa los datos en datos visuales y datos de audio. Como se ha descrito anteriormente, un fichero de flujo de AV en 2D/vista izquierda incluye un fichero de vídeo de la vista izquierda y un fichero de flujo de AV de la vista derecha incluye un flujo de vídeo de la vista derecha. Adicionalmente, los datos en el medio consisten en el fichero de flujo de AV en 2D/vista izquierda y el fichero de flujo de AV de la vista derecha divido en una pluralidad de segmentos y dispuestos de manera alterna segmento a segmento. Obsérvese que, de los datos en el medio, las porciones que incluyen el flujo de vídeo de vista izquierda son datos de vista izquierda, y las porciones que incluyen el flujo de vídeo de la vista derecha son datos de vista derecha. Cuando el circuito 3 integrado recibe datos de vista izquierda y vista derecha, respectivamente, la unidad 6 de control principal controla la unidad 5 de procesamiento de flujo para almacenar los datos en una primera área y una segunda área en la memoria 2. Obsérvese que la primera y segunda áreas en la memoria 2 pueden ser lógicamente áreas separadas en un único elemento de memoria, o elementos de memoria físicamente diferentes. La siguiente explicación sobre la realización 4 supone que los datos de vista izquierda y los datos de vista derecha son datos de vista principal y datos de sub-vista, respectivamente. Una explicación similar puede cumplirse si los datos de vista derecha y los datos de vista izquierda son los datos de vista principal y los datos de sub-vista, respectivamente.
Bajo el control de la unidad 6 de control principal, la unidad 7 de procesamiento de señal usa un procedimiento apropiado para decodificar datos visuales y datos de audio separados por la unidad 5 de procesamiento de flujo. Los datos visuales se comprimen con un procedimiento de codificación tal como MPEG-2, MPEG-4 AVC, MPEG-4 MVC, SMPTE VC-1, etc. Los datos de audio se comprimen con un procedimiento de codificación tal como Dolby AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, PCM lineal, etc. La unidad 7 de procesamiento de señal decodifica los datos con el procedimiento correspondiente. Obsérvese que el modelo de la unidad 7 de procesamiento de señal puede ser equivalente a cualquiera de la combinación del filtro de prioridad de TS y los diversos decodificadores mostrados en la Figura 45, o los diversos decodificadores mostrados en la Figura 46. Adicionalmente, la unidad 7 de procesamiento de señal extrae los metadatos desde el flujo de vídeo de la vista derecha, y a continuación notifica a la unidad 8 de salida de AV de los metadatos. Obsérvese que, como se ha descrito anteriormente, los metadatos se localizan en cada uno de los GOP que constituyen el flujo de vídeo de la vista derecha, e incluye combinaciones de información de compensación e identificadores de compensación.
Cuando el modelo de la unidad 7 de procesamiento de señal es equivalente a la combinación del filtro de prioridad de TS y los diversos decodificadores mostrados en la Figura 45, la unidad 7 de procesamiento de señal monitoriza en primer lugar las banderas de prioridad de TS de paquetes de TS incluidos en los datos de vista derecha, y a continuación usa los valores de las banderas de prioridad de TS para seleccionar paquetes de TS que contienen los metadatos. La unidad 7 de procesamiento de señal a continuación realiza los siguientes dos procedimientos en paralelo usando módulos separados: un procedimiento de decodificación los paquetes de TS que contienen datos de instantánea en datos de instantánea descomprimidos, y un procedimiento de extracción de los metadatos desde los paquetes de TS que contienen los metadatos. Cuando el modelo de la unidad 7 de procesamiento de señal es equivalente a los diversos decodificadores mostrados en la Figura 46, la unidad 7 de procesamiento de señal permite que se envíen paquetes de TS que contienen los datos de vista derecha al mismo decodificador, independientemente de los valores de banderas de prioridad de TS. El decodificador realiza ambos de los dos procedimientos de decodificación de los paquetes de TS en datos de instantánea descomprimidos y extrae los metadatos desde los paquetes de TS. De esta manera, siempre que los datos tengan la estructura descrita en las realizaciones anteriores, la unidad 7 de procesamiento de señal de cualquier modelo puede ejecutar satisfactoriamente ambos procedimientos de decodificación de los datos en datos de instantánea descomprimidos y extraer metadatos desde los datos.
5
10
15
20
25
30
35
40
45
50
55
La unidad 9 de control de memoria arbitra el acceso a la memoria 2 por los bloques de función en el circuito 3 integrado.
Bajo el control de la unidad 6 de control principal, la unidad 8 de salida de AV superpone piezas de datos visuales decodificadas por la unidad 7 de procesamiento de señal, procesa las piezas de datos visuales con conversión de formato o similares, y a continuación las emite al circuito 3 integrado.
La Figura 111 es un diagrama de bloques funcional que muestra una estructura representativa de la unidad 5 de procesamiento de flujo. La unidad 5 de procesamiento de flujo se proporciona con una unidad 51 de IF de flujo de dispositivo, un demultiplexor 52 y una unidad 53 de conmutación.
La unidad 51 de IF de flujo de dispositivo es una interfaz para transferencia de datos entre la unidad 1 de IF de medios y el circuito 3 integrado. Por ejemplo, la unidad 51 de IF de flujo de dispositivo corresponde a una Tecnología Avanzada de Contacto en Serie (sAta), Tecnología Avanzada de Contacto de Interfaz de Paquetes (ATAPI) o Tecnología Avanzada de Contacto en Paralelo (PATA) si el medio es un disco óptico o un disco duro; una IF de tarjeta si el medio es una memoria de semiconductores tal como una tarjeta de SD, memoria USB, etc.; una IF de sintonizador si el medio es una onda de difusión tal como CATV o similares; y una IF de red SI el medio es una red tal como Ethernet™, una LAN inalámbrica o una línea pública inalámbrica. Obsérvese que, dependiendo del tipo de medio, la unidad 51 de IF de flujo de dispositivo puede conseguir parte de las funciones de la unidad 1 de IF de medios, o la unidad 1 de IF de medios puede embeberse en el circuito 3 integrado y usarse como la unidad 51 de IF de flujo de dispositivo.
El demultiplexor 52 separa datos visuales y datos de audio de datos de reproducción que incluyen las imágenes de vídeo y sonidos; los datos de reproducción se incluyen en datos transmitidos desde el medio. Cada uno de los segmentos anteriormente descritos consiste en paquetes de origen que contienen diversos datos tales como las imágenes de vídeo, sonidos, PG (subtítulos) e iG (menús). En algunos casos, sin embargo, los datos de sub-vista pueden no incluir un flujo de audio. Cada segmento se separa en paquetes de TS visuales y de audio dependiendo de los PID (identificadores) incluidos en los paquetes de origen, y a continuación se transmiten a la unidad 7 de procesamiento de señal. Los datos procesados se transmiten a la unidad 7 de procesamiento de señal directamente o después de almacenamiento temporal en la memoria 2. Obsérvese que el modelo del demultiplexor 52 corresponde a los desempaquetadores de origen y los filtros de PID mostrados en la Figura 45, por ejemplo.
La unidad 53 de conmutación cambia destinos para la salida o almacenamiento de datos que recibe la unidad 51 de IF de flujo de dispositivo. Específicamente, cuando la unidad 51 de IF de flujo de dispositivo recibe datos de vista izquierda, la unidad 53 de conmutación conmuta el destino de los datos al primer área de la memoria 2, mientras que cuando la unidad 51 de IF de flujo de dispositivo recibe datos de vista derecha, la unidad 53 de conmutación conmuta el destino de los datos a la segunda área de la memoria 2. La unidad 53 de conmutación es, por ejemplo, un Controlador de Acceso a Memoria Directo (DMAC). La Figura 112 es un diagrama de bloques funcional de la unidad 53 de conmutación y unidades circundantes cuando la unidad 53 de conmutación es un DMAC. Bajo el control de la unidad 6 de control principal, el DMAC 53 transmite datos recibidos y una dirección de destino a la unidad 9 de control de memoria; los datos recibidos son datos que la unidad 51 de IF de flujo de dispositivo ha recibido, y la dirección de destino es una dirección donde se han de almacenar los datos recibidos. Específicamente, suponiendo que las direcciones 1 y 2 son las direcciones de la primera área y la segunda área en la memoria 2, respectivamente. Cuando los datos recibidos son datos de vista izquierda, el DMAC 53 transmite la dirección 1 a la unidad 9 de control de memoria, mientras que cuando los datos recibidos son datos de vista derecha, la DMAC 53 transmite la dirección 2. La unidad 9 de control de memoria almacena los datos recibidos en la memoria 2 de acuerdo con las direcciones de destino transmitidas desde la unidad 53 de conmutación. El destino para la salida o almacenamiento de los datos recibidos se cambia, dependiendo del tipo de los datos recibidos. Obsérvese que puede proporcionarse un circuito especializado para el control sobre la unidad 53 de conmutación, en lugar de la unidad 6 de control principal.
La unidad 51 de IF de flujo de dispositivo, el demultiplexor 52 y la unidad 53 de conmutación se describieron como una estructura representativa de la unidad 5 de procesamiento de flujo. Sin embargo, la unidad 5 de procesamiento de flujo puede proporcionarse adicionalmente con un motor de encriptación, una unidad de control de seguridad, un controlador para acceso a memoria directo, o similares. El motor de encriptación recibe y desencripta datos encriptados, datos de clave o similares. La unidad de control de seguridad almacena una clave privada y controla la ejecución de un protocolo de autenticación de dispositivo o similares entre el medio y el dispositivo de reproducción. En el ejemplo anteriormente descrito, cuando se almacenan datos recibidos desde el medio en la memoria 2, la unidad 53 de conmutación cambia el destino para el almacenamiento de los datos, dependiendo de si los datos son datos de vista izquierda o datos de vista derecha. Como alternativa, después de que los datos recibidos desde el medio se almacenan temporalmente en la memoria 2, los datos pueden separarse en datos de vista izquierda y datos de vista derecha mientras se están transfiriendo al demultiplexor 52.
La Figura 113 es un diagrama de bloques funcional que muestra una estructura representativa de la unidad 8 de salida de AV. La unidad 8 de salida de Av se proporciona con una unidad 81 de superposición de imagen, unidad 82 de conversión de formato de salida de vídeo y unidad 83 de IF de salida de audio/vídeo.
5
10
15
20
25
30
35
40
45
50
55
60
La unidad 81 de superposición de imagen superpone datos visuales decodificados. Específicamente, la unidad 81 de superposición de imagen superpone datos de PG (subtítulos) y datos de IG (menús) en los datos de vídeo de la vista izquierda y los datos de vídeo de la vista derecha instantánea a instantánea El modelo de la unidad 81 de superposición de imagen se muestra, por ejemplo, en la Figura 47.
La Figura 114 es un diagrama esquemático que muestra un ejemplo del procedimiento de uso de la memoria 2 durante el procedimiento de superposición de imágenes. La memoria 2 incluye un área de almacenamiento de datos de plano que corresponden a la vista izquierda, un área de almacenamiento de datos de plano que corresponden a la vista derecha, un área de almacenamiento de datos de plano que corresponden a gráficos, y un área de almacenamiento de datos de imágenes superpuestas. Cada área de almacenamiento de datos de plano es un área donde los datos decodificados se almacenan temporalmente antes de que se restablezcan en el plano correspondiente. El área de almacenamiento de datos de imágenes superpuestas es un área donde se almacenan los datos resultantes de superponer un plano de gráficos en un plano de la vista izquierda o un plano de vista derecha. Obsérvese que cada plano puede ser un área en la memoria 2 o un espacio virtual.
Las Figuras 115 y 116 son diagramas esquemáticos que muestran los procedimientos de superposición de imágenes usando la memoria 2 mostrada en la Figura 114. La unidad 81 de superposición de imagen proporciona en primer lugar una compensación a un plano de gráficos basándose en la información de compensación incluida en los metadatos extraídos por la unidad 7 de procesamiento de señal. La unidad 81 de superposición de imagen a continuación superpone el plano de gráficos con la compensación en un plano de vídeo. Específicamente, la Figura 115 muestra que la unidad 81 de superposición de imagen proporciona una compensación de +X a un plano de gráficos, y a continuación superpone el plano de gráficos en un plano de vista izquierda. Por otra parte, la Figura 116 muestra que la unidad 81 de superposición de imagen proporciona una compensación de -X al plano de gráficos original, y a continuación superpone el plano de gráficos en un plano de vista derecha. El valor X es el valor de compensación representado por un número de píxeles. Estos procedimientos de superposición como se muestran en las figuras permiten que se combinen entre sí piezas de píxeles de datos localizados en las mismas coordenadas horizontales. Los datos después de superponerse se almacenan en el área de almacenamiento de datos de imágenes superpuestas en la memoria 2.
La Figura 117 es un diagrama esquemático que muestra otro ejemplo del procedimiento de uso de la memoria 2 durante el procedimiento de superposición de imágenes. La memoria 2 incluye adicionalmente “áreas de almacenamiento de datos de plano que corresponden a gráficos con compensación (para vistas izquierda y derecha superpuestas)”. Los planos de gráficos con compensaciones se han de almacenar temporalmente en estas áreas de almacenamiento de datos de plano antes de que superpongan en planos de vista izquierda y de vista derecha. Por ejemplo, la unidad 81 de superposición de imagen proporciona una compensación de +X al plano de gráficos, y almacena temporalmente el plano de gráficos en el “área de almacenamiento de datos de plano que corresponden a gráficos con compensación (para la vista izquierda superpuesta)”. La unidad 81 de superposición de imagen a continuación lee el plano de gráficos desde el área de almacenamiento de datos de plano, superpone el plano de gráficos al plano de vista izquierda, y almacena el resultado de la superposición en el área de almacenamiento de datos de imágenes superpuestas. Por otra parte, la unidad 81 de superposición de imagen proporciona una compensación -X al plano de gráficos, y almacena temporalmente los datos de plano en “el área de almacenamiento de datos de plano que corresponden a gráficos con compensación (para la vista derecha superpuesta)”. La unidad 81 de superposición de imagen a continuación lee el plano de gráficos desde el área de almacenamiento de datos de plano, superpone el plano de gráficos en el plano de vista derecha, y almacena el resultado de superposición en el área de almacenamiento de datos de imágenes superpuestas.
La unidad 82 de conversión de formato de salida de vídeo procesa datos visuales después de decodificarse o superponerse, según sea necesario, con redimensionamiento, conversión de IP, reducción de ruido, velocidad de fotograma conversión, o similares. El redimensionado es un procedimiento para aumentar o reducir los tamaños de imágenes. La conversión de IP es un procedimiento para convertir entre exploración progresiva y exploración entrelazada. La reducción de ruido es un procedimiento para eliminar ruido de las imágenes. La conversión de tasa de fotograma es un procedimiento para cambiar la velocidad de fotogramas. La unidad 82 de conversión de formato de salida de vídeo envía los datos después de procesarse a la unidad 81 de superposición de imagen o a la unidad 83 de IF de salida de audio/vídeo.
La unidad 83 de IF de salida de audio/vídeo convierte los datos visuales procesados por la unidad 82 de conversión de formato de salida de vídeo y los datos de audio decodificados en formatos de transmisión de datos predeterminados por un procedimiento de codificación o similar. Obsérvese que parte de la unidad 83 de IF de salida de audio/vídeo puede proporcionarse externamente al circuito 3 integrado, como se describe a continuación.
La Figura 118 es un diagrama de bloques funcional detallado de la unidad 8 de salida de AV y de la unidad de salida de datos en el dispositivo de reproducción. La unidad 8 de salida de AV y la unidad de salida de datos en el dispositivo de reproducción soportan una pluralidad de formatos de transmisión de datos. Específicamente, como se muestra en la Figura 118, la unidad 83 de IF de salida de audio/vídeo incluye una unidad 83a de IF de salida de vídeo analógico, unidad 83c de IF de salida de audio analógico y unidad 83b de IF de salida de vídeo/audio digital.
La unidad 83a de IF de salida de vídeo analógico convierte los datos visuales procesados por la unidad 82 de
5
10
15
20
25
30
35
40
45
50
55
conversión de formato de salida de vídeo en un formato de señal de vídeo analógico y a continuación emite los datos visuales. La unidad 83a de IF de salida de vídeo analógico incluye, por ejemplo, un codificador de vídeo compuesto que soporta uno de los formatos NTSC, PAL y SECAM, codificador para la señal de S-vídeo (separación Y/C), codificador para señal de vídeo de componentes y convertidor de D/A (DAC).
La unidad 83b de IF de salida de vídeo/audio digital une los datos de audio y los datos visuales decodificados procesados por la unidad 82 de conversión de formato de salida de vídeo, y encripta adicionalmente los datos unidos. Después de eso, la unidad 83b de IF de salida de vídeo/audio digital codifica y emite los datos encriptados de acuerdo con normas de transmisión de datos. Por ejemplo, la unidad de comunicación de HDMI mostrada en la Figura 42 corresponde unidad 83b de IF de salida de vídeo/audio digital.
La unidad 83c de IF de salida de audio analógico procesa los datos de audio decodificados con conversión de D/A, y a continuación emite datos de audio analógicos. Un DAC de audio o similar corresponde a la unidad 83c de IF de salida de audio analógico.
La unidad 8 de salida de AV y la unidad de salida de datos en el dispositivo de reproducción pueden cambiar los formatos de transmisión de los datos visuales y datos de audio, dependiendo de los dispositivos de recepción de datos o terminales de entrada de datos que soportan el dispositivo de visualización y el altavoz 4. La unidad 8 de salida de AV y la unidad de salida de datos en el dispositivo de reproducción pueden también permitir que un usuario seleccione los formatos de transmisión de las mismas. Adicionalmente, pueden transmitir datos convertidos desde el mismo contenido en no únicamente un solo formato de transmisión, sino también dos o más formatos de transmisión en paralelo.
La unidad 81 de superposición de imagen, la unidad 82 de conversión de formato de salida de vídeo y la unidad 83 de IF de salida de audio/vídeo se describieron como una estructura representativa de la unidad 8 de salida de AV. Sin embargo, la unidad 8 de salida de AV puede proporcionarse adicionalmente con un motor de gráficos y similar. El motor de gráficos trata datos decodificados por la unidad 7 de procesamiento de señal con procesamiento de gráficos tal como filtración, pantallas de combinación y curvas de dibujos y visualización en 3D.
Esto concluye la descripción sobre la estructura del dispositivo de reproducción de acuerdo con la realización 4. Obsérvese que todos los bloques de función anteriormente descritos no necesitan crearse en el circuito 3 integrado. A la inversa, la memoria 2 puede crearse en el circuito 3 integrado. La descripción anterior sobre la realización 4 explica la unidad 6 de control principal y la unidad 7 de procesamiento de señal como bloques de función separados. Sin embargo, la unidad 6 de control principal puede realizar parte del procesamiento que debería realizar la unidad 7 de procesamiento de señal.
La topología de un bus de control y un bus de datos que conecta entre los bloques de función en el circuito 3 integrado puede seleccionarse para adecuarse al procedimiento y los detalles de procesamiento por los bloques de función. Las Figuras 119A y 119B son diagramas esquemáticos que muestran ejemplos de la topología del bus de control y del bus de datos en el circuito 3 integrado. Como se muestra en la Figura 119A, tanto el bus 21 de control como el bus 22 de datos están dispuestos de modo que cada uno de los bloques de función 5-9 está conectado directamente con todos los otros bloques de función. Como alternativa, como se muestra en la Figura 119B, el bus 23 de datos está dispuesto de modo que cada uno de los bloques de función 5-8 está conectado directamente únicamente con la unidad 9 de control de memoria. En este caso, cada uno de los bloques de función 5-8 transfiere datos a los otros bloques de función mediante la unidad 9 de control de memoria y además a la memoria 2.
El circuito 3 integrado puede ser un módulo de múltiples chips, en lugar de un LSI implementado en un único chip. En ese caso, una pluralidad de chips que constituyen el circuito 3 integrado se sellan en un único paquete, y por lo tanto el circuito 3 integrado parece como un único LSI. Como alternativa, el circuito 3 integrado puede configurarse usando un Campo de Matriz de Puertas Programables (FPGA) o un procesador reconfigurable. El FPGA es un LSI programable después de fabricarse. El procesador reconfigurable es un LSI que permite conexiones entre células de circuito internas y ajustes para cada célula de circuito a reconfigurarse.
incorporación del circuito 3 integrado en el dispositivo de visualización>
Un circuito integrado similar al circuito 3 integrado anteriormente descrito puede incorporarse en un dispositivo de visualización para provocar que el dispositivo de visualización realice el procesamiento anteriormente descrito por el dispositivo de reproducción de acuerdo con la realización 4. La Figura l2o es un diagrama de bloques funcional que muestra la estructura del circuito integrado incorporado en el dispositivo de visualización y las unidades circundantes del mismo. Como se muestra en la Figura 120, el circuito 3 integrado usa una unidad 1 de IF medios y una memoria 2 para tratar los datos recibidos por la unidad 1 de IF de medios con el procesamiento similar al procesamiento de señal anteriormente descrito. Los datos visuales procesados por el circuito 3 integrado se envían a la unidad 10 de accionamiento de visualización. La unidad 10 de accionamiento de visualización controla el panel 11 de visualización de acuerdo con los datos visuales. Como resultado, los datos visuales se emiten como imágenes en la pantalla del panel 11 de visualización. Por otra parte, los datos de audio procesados por el circuito 3 integrado se emiten como sonidos mediante el altavoz 12.
La Figura 121 es un diagrama de bloques funcional detallado de la unidad 8 de salida de AV mostrada en la Figura
5
10
15
20
25
30
35
40
45
50
55
120. La unidad 8 de salida de AV incluye una unidad 84 de IF de salida de vídeo y una unidad 85 de IF de salida de audio, en contraste a la mostrada en la Figura 118. La unidad 84 de IF de salida de vídeo y la unidad 85 de IF de salida de audio pueden proporcionarse dentro o fuera del circuito 3 integrado. La unidad 84 de IF de salida de vídeo transfiere datos visuales desde la unidad 82 de conversión de formato de salida de vídeo a la unidad 10 de accionamiento de visualización. La unidad 85 de IF de salida de audio transfiere datos de audio desde la unidad 7 de procesamiento de señal al altavoz 12. Obsérvese que pueden proporcionarse dos o más de las unidades cada una similares a la unidad 84 de IF de salida de vídeo o a la unidad 85 de IF de salida de audio. Además, la unidad 84 de IF de salida de vídeo y la unidad 85 de IF de salida de audio pueden integrarse en una unidad.
<Procesamiento de reproducción por el dispositivo de reproducción usando el circuito 3 integrado>
La Figura 122 es un diagrama de flujo procesamiento de reproducción por el dispositivo de reproducción usando el circuito 3 integrado. El procesamiento de reproducción se inicia cuando la unidad 1 de IF de medios está conectada con un medio para poder recibir datos desde el mismo, por ejemplo, cuando un disco óptico se inserta en la unidad de disco. Durante el procesamiento de reproducción, el dispositivo de reproducción recibe y decodifica datos desde el medio. El dispositivo de reproducción a continuación emite los datos decodificados como una señal de vídeo y una señal de audio.
En la etapa S1, la unidad 1 de IF de medios recibe o lee datos desde el medio y transfiere los datos a la unidad 5 de procesamiento de flujo. El procesamiento a continuación continúa a la etapa S2.
En la etapa S2, la unidad 5 de procesamiento de flujo separa datos visuales y datos de audio desde los datos recibidos o leídos en la etapa S1. El procesamiento a continuación continúa a la etapa S3.
En la etapa S3, la unidad 7 de procesamiento de señal decodifica cada tipo de datos separado en la etapa S2 por un procedimiento apropiado para el procedimiento de codificación de los datos. En paralelo con la decodificación, la unidad 7 de procesamiento de señal extrae adicionalmente metadatos desde los datos de vista derecha, y notifica a la unidad 8 de salida de AV de los metadatos. Obsérvese que la unidad 7 de procesamiento de señal puede monitorizar las banderas de prioridad de TS de los paquetes de TS incluidos en los datos de vista derecha para seleccionar paquetes de TS que contienen los metadatos. Como alternativa, la unidad 7 de procesamiento de señal puede provocar que el mismo decodificador tanto decodifique los paquetes de TS en datos de instantánea descomprimidos como extraiga los metadatos desde los paquetes de TS. El procesamiento a continuación continúa a la etapa S4.
En la etapa S4, la unidad 8 de salida de AV superpone los datos visuales decodificados en la etapa S3. Según sea necesario, la unidad 8 de salida de AV recupera y usa la información de compensación desde los metadatos extraídos en la etapa S3. El procesamiento a continuación continúa a la etapa S5.
En la etapa S5, la unidad 8 de salida de AV emite los datos visuales y datos de audio procesados en las etapas S2- S4. El procesamiento a continuación continúa a la etapa S6.
En la etapa S6, la unidad 6 de control principal determina si continuar o no el procesamiento de reproducción. El procesamiento de nuevo continúa desde la etapa S1, por ejemplo, cuando los datos a recibirse o leerse por la unidad 1 de IF de medios permanecen el medio. Por otra parte, el procesamiento finaliza cuando la unidad 1 de IF de medios finaliza la recepción o lectura de datos desde el medio puesto que, por ejemplo, el disco óptico se ha retirado de la unidad de disco o el usuario ha ordenado detener la reproducción.
La Figura 123 es un diagrama de flujo que muestra detalles de las etapas S1-S6 mostradas en la Figura 122. Las etapas S101-S110 mostradas en la Figura 123 se realizan bajo el control de la unidad 6 de control principal. Las etapas S101-S103 corresponden principalmente a detalles de la etapa S1, la etapa S104 a los detalles de la etapa S2, la etapa S105 a los detalles de la etapa S3, las etapas S106-S108 a los detalles de la etapa S4, y las etapas S109 y S110 a los detalles de la etapa S5.
En la etapa S101, antes de recibir o leer datos a reproducirse desde el medio mediante la unidad 1 de IF de medios, la unidad 51 de IF de flujo de dispositivo recibe o lee datos requeridos para el procesamiento de reproducción tal como un fichero de lista de reproducción, fichero de información de clip y similares, desde el medio mediante la unidad 1 de IF de medios. La unidad 51 de IF de flujo de dispositivo almacena adicionalmente los datos requeridos en la memoria 2 mediante la unidad 9 de control de memoria. El procesamiento a continuación continúa a la etapa S102.
En la etapa S102, la unidad 6 de control principal identifica los formatos de codificación de datos de vídeo y datos de audio almacenados en el medio, basándose en la información de atributo de flujo incluida en el fichero de información de clip. La unidad 6 de control principal inicializa adicionalmente la unidad 7 de procesamiento de señal para que pueda realizar la decodificación de una manera correspondiente al formato de codificación identificado. El procesamiento a continuación continúa a la etapa S103.
En la etapa S103, la unidad 51 de IF de flujo de dispositivo recibe o lee datos de vídeo y de audio a reproducirse desde el medio mediante la unidad 1 de IF de medios. En particular, los datos se reciben o leen segmento a
5
10
15
20
25
30
35
40
45
50
55
segmento. La unidad 51 de IF de flujo de dispositivo almacena adicionalmente los datos en la memoria 2 mediante la unidad 53 de conmutación y la unidad 9 de control de memoria. En particular, cuando se reciben o leen datos de la vista izquierda, la unidad 6 de control principal controla la unidad 53 de conmutación para conmutar el destino para almacenamiento de los datos de vista izquierda a la primera área en la memoria 2. Por otra parte, cuando se reciben o leen datos de vista derecha, la unidad 6 de control principal controla la unidad 53 de conmutación para conmutar al destino para almacenamiento de los datos de vista derecha a la segunda área en la memoria 2. El procesamiento a continuación continúa a la etapa S104.
En la etapa S104, los datos almacenados en la memoria 2 se transfieren al demultiplexor 52 en la unidad 5 de procesamiento de flujo. El demultiplexor 52 lee en primer lugar los PID desde paquetes de origen que constituyen los datos. El demultiplexor 52 a continuación usa los PID para distinguir si los paquetes de TS incluidos en los paquetes de origen son datos visuales o datos de audio. El demultiplexor 52 transmite adicionalmente cada paquete de TS a un decodificador correspondiente en la unidad 7 de procesamiento de señal dependiendo del resultado de la distinción. Obsérvese que la unidad 7 de procesamiento de señal puede monitorizar las banderas de prioridad de TS de los paquetes de TS incluidos en los datos de vista derecha para enviar los paquetes de TS que contienen los metadatos a un módulo especializado separado del decodificador de vídeo primario, es decir, la unidad de procesamiento de metadatos de compensación. El procesamiento a continuación continúa a la etapa S105.
En la etapa S105, cada decodificador en la unidad 7 de procesamiento de señal decodifica los paquetes de TS transmitidos con un procedimiento apropiado. En paralelo con la decodificación, la unidad 7 de procesamiento de señal extrae adicionalmente los metadatos desde los datos de la vista derecha y notifica a la unidad 8 de salida de AV de los metadatos. Obsérvese que la extracción puede realizarse por la unidad de procesamiento de metadatos de compensación separada del decodificador de vídeo primario, o puede realizarse por el decodificador de vídeo primario simultáneamente con la decodificación. El procesamiento a continuación continúa a la etapa S106.
En la etapa S106, las instantáneas del flujo de vídeo de vista izquierda y del flujo de vídeo de vista derecha decodificadas por la unidad 7 de procesamiento de señal se envían a la unidad 82 de conversión de formato de salida de vídeo. La unidad 82 de conversión de formato de salida de vídeo redimensiona las instantáneas para adaptar la resolución del dispositivo 4 de visualización. El procesamiento a continuación continúa a la etapa S107.
En la etapa S107, la unidad 81 de superposición de imagen recibe datos de plano de vídeo compuestos de las instantáneas redimensionadas en la etapa S106 desde la unidad 82 de conversión de formato de salida de vídeo. La unidad 81 de superposición de imagen también recibe datos de plano de PG y de IG decodificados desde la unidad 7 de procesamiento de señal. La unidad 81 de superposición de imagen superpone adicionalmente los datos de plano de PG y de PG decodificados. El procesamiento a continuación continúa a la etapa S108.
En la etapa S108, la unidad 82 de conversión de formato de salida de vídeo recibe datos de plano superpuestos en la etapa S107 desde la unidad 81 de superposición de imagen. La unidad 82 de conversión de formato de salida de vídeo procesa adicionalmente los datos de plano con conversión de IP. El procesamiento a continuación continúa a la etapa S109.
En la etapa S109, la unidad 83 de IF de salida de audio/vídeo recibe los datos visuales procesados con la conversión de IP en la etapa S108 desde la unidad 82 de conversión de formato de salida de vídeo, y recibe datos de audio decodificados desde la unidad 7 de procesamiento de señal. La unidad 83 de IF de salida de audio/vídeo procesa adicionalmente los datos visuales y de audio con codificación, conversión de D/A y similares, de acuerdo con el procedimiento de emisión de datos mediante el dispositivo de visualización y el altavoz 4 y el procedimiento de transmisión de datos al dispositivo de visualización y altavoz 4. Con estos procedimientos, los datos visuales y datos de audio se convierten ahora cada uno en un formato de salida analógico o un formato de salida digital. Los datos visuales en el formato de salida analógico incluyen una señal de vídeo compuesta, señal de S-vídeo, señal de vídeo por componentes y similares. También, se soporta HDMI o similar como el formato de salida digital. El procesamiento a continuación continúa a la etapa S110.
En la etapa S110, la unidad 83 de IF de salida de audio/vídeo transmite los datos visuales y datos de audio procesados en la etapa S109 al dispositivo de visualización y al altavoz 4. El procesamiento a continuación continúa a la etapa S6. Los detalles de la etapa S6 pueden hallarse en la descripción anterior.
En cada una de las etapas anteriormente descritas, cada vez que se procesan datos, los datos pueden almacenarse temporalmente en la memoria 2. El redimensionamiento y conversión de IP por la unidad 82 de conversión de formato de salida de vídeo en las etapas S106 y S108 puede omitirse, si no es necesario. En lugar de o además de estos procedimientos, otros procedimientos tales como reducción de ruido y conversión de velocidad de fotograma pueden realizarse adicionalmente. Además, el orden de los procedimientos puede cambiarse en la medida que sea posible.
Cuando el dispositivo de visualización mostrado en la Figura 120 se usa en el procesamiento de reproducción, el diagrama de flujo del procesamiento de reproducción es básicamente similar al diagrama de flujo mostrado en las Figuras 122 y 123. Los bloques de función mostrados en las Figuras 120 y 121 operan de una manera similar a aquellos mostrados en las Figuras 110 y 113.
5
10
15
20
25
30
35
40
45
50
55
Explicación complementaria
<Principio de imagen de vídeo en reproducción en 3D>
Los procedimientos de reproducción de las imágenes de vídeo en 3D se clasifican de manera aproximada en dos categorías: procedimientos que usan una técnica holográfica y procedimientos que usan vídeo de paralaje.
Un procedimiento que usa una técnica holográfica está caracterizado por permitir que el observador perciba objetos en vídeo como estereoscópicos proporcionando a la percepción visual del observador sustancialmente la misma información que la información óptica proporcionada a la percepción visual por los seres humanos de los objetos reales. Se ha establecido una teoría técnica para utilizar estos procedimientos para visualización de vídeo en movimiento. Sin embargo, es extremadamente difícil construir, con la tecnología actual, un ordenador que pueda realizar procesamiento en tiempo real de la enorme cantidad de cálculo requerida para visualización de vídeo en movimiento y un dispositivo de visualización que tenga súper alta resolución de varios miles de líneas por 1 mm. Por consiguiente, hoy en día, la realización de estos procedimientos para uso comercial apenas está a la vista.
El “vídeo de paralaje” hace referencia a un par de imágenes de vídeo en 2D mostradas a cada uno de los ojos del observador para la misma escena, es decir el par de una vista izquierda y una vista derecha. Un procedimiento que usa vídeo de paralaje está caracterizado por reproducir la vista izquierda y vista derecha de una única escena de modo que el observador ve cada vista en únicamente un ojo, permitiendo de esta manera que el usuario perciba la escena como estereoscópica.
Las Figuras 82A, 82B y 82C son diagramas esquemáticos que ilustran el principio detrás de la reproducción de imágenes de vídeo en 3d (imágenes de vídeo estereoscópico) en un procedimiento usando imágenes de vídeo de paralaje. La Figura 82A es una vista superior del observador VWR que observa un cubo CBC colocado directamente delante de la cara del observador. Las Figuras 82B y 82C son diagramas esquemáticos que muestran la apariencia exterior del cubo CBC como una imagen de vídeo en 2D según se percibe respectivamente por el ojo izquierdo LEY y el ojo derecho REY del observador VWR. Como es evidente a partir de comparar la Figura 82B y la Figura 82C, las apariencias exteriores del cubo CBC según se perciben por los ojos son ligeramente diferentes. La diferencia en las apariencias exteriores, es decir, la paralaje binocular permite que el observador VWR reconozca el cubo CBC como tridimensional. Por lo tanto, de acuerdo con un procedimiento que usa vídeo de paralaje, se preparan en primer lugar las imágenes de vídeo en 2D izquierda y derecha con diferentes puntos de vista para una única escena. Por ejemplo, para el cubo CBC mostrado en la Figura 82A, se prepara la vista izquierda del cubo CBC mostrada en la Figura 96B y la vista derecha mostrada en la Figura 82C. En este contexto, la posición de cada punto de vista se determina por la paralaje binocular del observador VWR. A continuación, cada imagen de vídeo en 2D se reproduce para percibirse únicamente por el ojo correspondiente del observador VWR. En consecuencia, el observador VWR reconoce la escena reproducida en la pantalla, es decir, la imagen de vídeo del cubo CBC, como estereoscópica. A diferencia de procedimientos que usan una técnica holográfica, los procedimientos que usan vídeo de paralaje por lo tanto tienen la ventaja de requerir la preparación de imágenes de vídeo en 2D desde simplemente dos puntos de vista.
Se han propuesto varios procedimientos concretos para cómo usar vídeo de paralaje. Desde el punto de vista de cómo estos procedimientos muestran imágenes de vídeo en 2D izquierda y derecha a los ojos del observador, los procedimientos se dividen en procedimientos de generación de secuencias de fotogramas alternos, procedimientos que usan una lente lenticular, procedimientos de separación de dos colores, etc.
En el procedimiento de generación de secuencias de fotogramas alternos, las imágenes de vídeo en 2D izquierda y derecha se visualizan de manera alterna en una pantalla durante un tiempo predeterminado, mientras el observador ve la pantalla usando gafas de obturador. Cada lente en las gafas de obturador está formada por un panel de cristal líquido, por ejemplo. Las lentes dejan pasar o bloquean luz de una manera uniforme y alterna en sincronización con la conmutación de las imágenes de vídeo en 2D en la pantalla. Es decir, cada lente funciona como un obturador que bloquea periódicamente un ojo del observador. Más específicamente, mientras se visualiza una imagen del vídeo izquierdo en la pantalla, las gafas de obturador hacen que la lente del lado izquierdo transmita luz y la lente del lado a la derecha bloquee la luz. A la inversa, mientras se visualiza una imagen de vídeo derecho en la pantalla, las gafas de obturador hacen que la lente del lado derecho transmita luz y la lente del lado izquierdo bloquee la luz. Como resultado, el observador ve imágenes residuales de las imágenes de vídeo derecho e izquierdo superpuestas entre sí y por lo tanto percibe una única imagen de vídeo en 3D.
De acuerdo con el procedimiento de generación de secuencias de fotogramas alternos, como se ha descrito anteriormente, las imágenes de vídeo derecho e izquierdo se visualizan de manera alterna en un ciclo predeterminado. Por ejemplo, cuando se visualizan 24 fotogramas de vídeo por segundo para reproducir imágenes de vídeo en 2D normales, es necesario en total 48 fotogramas de vídeo para ambos ojos derecho e izquierdo para que se visualicen imágenes de vídeo en 3D. Por consiguiente, se prefiere un dispositivo de visualización que pueda ejecutar rápidamente la reescritura de la pantalla para este procedimiento.
En un procedimiento que usa una lente lenticular, un fotograma de vídeo derecho y un fotograma de vídeo izquierdo se dividen respectivamente en áreas pequeñas con forma rectangular largas y estrechas verticales. Las áreas
5
10
15
20
25
30
35
40
45
50
55
60
pequeñas del fotograma de vídeo derecho y las áreas pequeñas del fotograma de vídeo izquierdo se disponen de manera alterna en una dirección horizontal en la pantalla y se visualizan al mismo tiempo. La superficie de la pantalla está cubierta por una lente lenticular. La lente lenticular es una lente con forma de lámina constituida de múltiples lentes largas y finas apoyadas dispuestas en paralelo. Cada lente apoyada radica en la dirección longitudinal en la superficie de la pantalla. Cuando el observador ve los fotogramas de vídeo izquierdo y derecho a través de la lente lenticular, únicamente el ojo izquierdo del observador percibe la luz desde las áreas de visualización del fotograma de vídeo izquierdo, y únicamente el ojo derecho del observador percibe luz desde las áreas de visualización del fotograma de vídeo derecho. El observador por lo tanto ve una imagen de vídeo en 3D desde la paralaje binocular entre las imágenes de vídeo respectivamente percibidas por los ojos izquierdo y derecho. Obsérvese que de acuerdo con este procedimiento, puede usarse otro componente óptico que tiene funciones similares, tal como un dispositivo de cristal líquido, en lugar de la lente lenticular. Como alternativa, por ejemplo, puede proporcionarse un filtro de polarización longitudinal en las áreas de visualización del fotograma de la imagen izquierda, y puede proporcionarse un filtro de polarización lateral en las áreas de visualización del fotograma de la imagen derecha. En este caso, el observador ve la pantalla a través de gafas de polarización. En las gafas de polarización, se proporciona un filtro de polarización longitudinal para la lente izquierda, y se proporciona un filtro de polarización lateral para la lente derecha. En consecuencia, las imágenes de vídeo derecho e izquierdo se perciben cada una únicamente por el ojo correspondiente, permitiendo de esta manera que el observador perciba imágenes de vídeo en 3D.
En un procedimiento que usa vídeo de paralaje, además de construirse desde el inicio por una combinación de imágenes de vídeo izquierdo y derecho, el contenido de vídeo en 3D puede construirse también desde una combinación de imágenes de vídeo en 2D y un mapa de profundidad. Las imágenes de vídeo en 2D representan imágenes de vídeo en 3D proyectadas en una hipotética pantalla en 2D, y el mapa de profundidad representa la profundidad de cada píxel en cada porción de las imágenes de vídeo en 3D en comparación con la pantalla en 2D. Cuando el contenido en 3D se construye desde una combinación de imágenes de vídeo en 2D con un mapa de profundidad, el dispositivo de reproducción en 3D o el dispositivo de visualización construye en primer lugar las imágenes de vídeo izquierdo y derecho desde la combinación de imágenes de vídeo en 2D con un mapa de profundidad y a continuación crea imágenes de vídeo en 3D desde estas imágenes de vídeo izquierdo y derecho usando uno de los procedimientos anteriormente descritos.
La Figura 83 es un diagrama esquemático que muestra un ejemplo de construcción de una vista izquierda LVW y una vista derecha RVW desde la combinación de una imagen de vídeo en 2D MVW y un mapa de profundidad DPH. Como se muestra en la Figura 83, se muestra un plato circular DSC en el fondo BGV de la imagen de vídeo en 2D MVW. El mapa de profundidad DPH indica la profundidad para cada píxel en cada porción de la imagen de vídeo en 2D MVW. De acuerdo con el mapa de profundidad DPH, en la imagen de vídeo en 2d MVW, el área de visualización DA1 del plato circular DSC está más cerca del observador que la pantalla, y el área de visualización DA2 del fondo BGV está más profunda que la pantalla. La unidad de generación de vídeo de paralaje PDG en el dispositivo de reproducción calcula en primer lugar la paralaje binocular para cada porción de la imagen de vídeo en 2D MVW usando la profundidad de cada porción indicada por el mapa de profundidad DPH. A continuación, la unidad de generación de vídeo de paralaje PDG desplaza la posición de presentación de cada porción en la imagen de vídeo en 2D MVW a la izquierda o derecha de acuerdo con la paralaje binocular calculada para construir la vista izquierda LVW y la vista derecha RVW. En el ejemplo mostrado en la Figura 83, la unidad de generación de vídeo de paralaje PDG desplaza la posición de presentación del plato circular DSC en la imagen de vídeo en 2D MVW como sigue: la posición de presentación del plato circular DSL en la vista izquierda LVW se desplaza a la derecha en la mitad de su paralaje binocular, S1, y la posición de presentación del plato circular DSR en la vista derecha RVW se desplaza a la izquierda en la mitad de su paralaje binocular, S1. De esta manera, el observador percibe el plato circular DSC como que está más cerca que la pantalla. A la inversa, la unidad de generación de vídeo de paralaje PDG desplaza la posición de presentación del fondo BGV en la imagen de vídeo en 2D MVW como sigue: la posición de presentación del fondo BGL en la vista izquierda LVW se desplaza a la izquierda en la mitad de su paralaje binocular, S2, y la posición de presentación del fondo BGR en la vista derecha RVW se desplaza a la derecha en la mitad de su paralaje binocular, S2. De esta manera, el observador percibe el fondo BGV como que está más profundo que la pantalla.
Se usa en general un sistema de reproducción para imágenes de vídeo en 3D con uso de vídeo de paralaje, habiéndose ya establecido para uso en cines de películas, atracciones en parques de atracciones y similares. Por consiguiente, este procedimiento es también útil para implementar sistemas de cine en casa que pueden reproducir imágenes de vídeo en 3D. En las realizaciones de la presente invención, entre los procedimientos que usan vídeo de paralaje, se supone que se usa un procedimiento de generación de secuencias de fotogramas alternos o un procedimiento que usa gafas de polarización. Sin embargo, aparte de estos procedimientos, la presente invención puede aplicarse también a otros procedimientos diferentes, siempre que usen vídeo de paralaje. Esto será evidente para los expertos en la materia a partir de la explicación anterior de las realizaciones.
<Sistema de ficheros en el disco BD-ROM>
Cuando se usa UDF como el sistema de ficheros para el disco 101 BD-ROM, el área 202B de volumen mostrada en la Figura 2 generalmente incluye áreas en las que se registran respectivamente una pluralidad de directorios, un descriptor de conjunto de ficheros y un descriptor de terminación. Cada “directorio” es un grupo de datos que
5
10
15
20
25
30
35
40
45
50
55
compone el directorio. Un “descriptor de conjunto de ficheros” indica el LBN del sector en el que se almacena una entrada de fichero para el directorio raíz. El “descriptor de terminación” indica el final del área de registro para el descriptor de conjunto de fichero.
Cada directorio comparte una estructura de datos común. En particular, cada directorio incluye una entrada de fichero, fichero de directorio y un grupo de ficheros subordinado.
La “entrada de fichero” incluye una etiqueta de descriptor, etiqueta de Bloque de Control de Información (ICB), y descriptor de asignación. La “etiqueta de descriptor” indica que el tipo de los datos que incluye la etiqueta de descriptor es una entrada de fichero. Por ejemplo, cuando el valor de la etiqueta de descriptor es “261”, el tipo de esos datos es una entrada de fichero. La “etiqueta ICB” indica información de atributo para la misma entrada de fichero. El “descriptor de asignación” indica el LBN en el que se registra el fichero de directorio que pertenece al mismo directorio.
El “fichero de directorio” típicamente incluye una pluralidad de cada uno de un descriptor de identificador de fichero para un directorio subordinado y un descriptor de identificador de fichero para un fichero subordinado. El “descriptor de identificador de fichero para un directorio subordinado” es información para acceder al directorio subordinado localizado directamente por debajo de ese directorio. Este descriptor de identificador de fichero incluye información de identificación para el directorio subordinado, longitud de nombre de directorio, dirección de entrada de fichero y nombre de directorio real. En particular, la dirección de entrada de fichero indica el LBN del sector en el que se registra la entrada de fichero del directorio subordinado. El “descriptor de identificador de fichero para un fichero subordinado” es información para acceder al fichero subordinado localizado directamente por debajo de ese directorio. Este descriptor de identificador de fichero incluye información de identificación para el fichero subordinado, longitud de nombre de fichero, dirección de entrada de fichero y nombre de fichero real. En particular, la dirección de entrada de fichero indica el LBN del sector en el que se registra la entrada de fichero del fichero subordinado. La “entrada de fichero del fichero subordinado”, como se describe a continuación, incluye información de dirección para los datos que constituyen el fichero subordinado real.
Trazando los descriptores de conjunto de ficheros y los descriptores de identificador de ficheros de directorios/ficheros subordinados en orden, puede accederse a la entrada de fichero de un directorio/fichero arbitrario registrado en el área 202B de volumen. Específicamente, la entrada de fichero del directorio raíz se especifica en primer lugar desde el descriptor de conjunto de fichero, y se especifica el fichero de directorio para el directorio raíz desde el descriptor de asignación en esta entrada de fichero. A continuación, se detecta el descriptor de identificador de fichero para el directorio inmediatamente por debajo del directorio raíz desde el fichero de directorio, y la entrada de fichero para ese directorio se especifica desde la dirección de entrada de fichero en el mismo. Adicionalmente, el fichero de directorio para ese directorio se especifica desde el descriptor de asignación en la entrada de fichero. Posteriormente, desde dentro del fichero de directorio, se especifica la entrada de fichero para el directorio subordinado o fichero subordinado desde la dirección de entrada de fichero en el descriptor de identificador de fichero para ese directorio subordinado o fichero subordinado.
“Ficheros subordinados” incluyen segmentos y entradas de fichero. Los “segmentos” son un múltiplo general en número y son secuencias de datos cuyas direcciones lógicas, es decir LBN, son consecutivos en el disco. La totalidad de los segmentos comprende el fichero subordinado real. La “entrada de fichero” incluye una etiqueta de descriptor, etiqueta de ICB y descriptores de asignación. La “etiqueta de descriptor” indica que el tipo de los datos que incluye la etiqueta de descriptor es una entrada de fichero. La “etiqueta de ICB” indica información de atributo para la misma entrada de fichero. Los “descriptores de asignación” se proporcionan en una correspondencia uno a uno con cada segmento e indican la disposición de cada segmento en el área 202B de volumen, específicamente el tamaño de cada segmento y el LBN para la parte superior del segmento. Por consiguiente, haciendo referencia a cada descriptor de asignación, puede accederse a cada segmento. También, los dos bits más significativos de cada descriptor de asignación indican si un segmento se registra realmente en el sector para el LBN indicado por el descriptor de asignación. Específicamente, cuando los dos bits más significativos son “0”, se ha asignado un segmento al sector y se ha registrado realmente en el mismo. Cuando los dos bits más significativos son “1 “, se ha asignado un segmento al sector pero no se ha registrado aún en el mismo.
Como el sistema de ficheros anteriormente descrito que emplea un UDF, cuando cada fichero registrado en el área 202B de volumen se divide en una pluralidad de segmentos, el sistema de ficheros para el área 202B de volumen también almacena en general la información que muestra las localizaciones de los segmentos, como con los descriptores de asignación anteriormente mencionados, en el área 202B de volumen. Haciendo referencia a la información, puede hallarse la localización de cada segmento, particularmente la dirección lógica del mismo.
<Tamaño de bloques de datos y bloques de segmento>
Como se muestra en la Figura 19, los datos de flujo multiplexados en el disco 101 BD-ROM están dispuestos dividiéndose en bloques de datos de vista dependiente D[n] y bloques de datos de vista de base B[n] (n = 0, 1, 2, 3, ...). Adicionalmente, estos grupos de bloques de datos D[n] y B[n] se registran consecutivamente en una pista en una disposición intercalada para formar una pluralidad de bloques 1901-1903 de segmento. Para asegurar la reproducción ininterrumpida de tanto imágenes de vídeo en 2D como imágenes de vídeo en 3D desde estos bloques
5
10
15
20
25
30
35
40
45
50
55
1901-1903 de segmento, el tamaño de cada bloque de datos y cada bloque 1901-1903 de segmento debería cumplir las siguientes condiciones basándose en la capacidad del dispositivo 102 de reproducción.
«Condiciones basadas en la capacidad en modo de reproducción en 2D>>
La Figura 84 es un diagrama de bloques que muestra el procesamiento de reproducción en el dispositivo 102 de reproducción en modo de reproducción en 2d. Como se muestra en la Figura 84, este sistema de procesamiento de reproducción incluye la unidad 3701 de BD-ROM, memoria intermedia 3721 de lectura y decodificador 4225 objetivo de sistema mostrados en la Figura 37. La unidad 3701 de BD-ROM lee segmentos de 2D desde el disco 101 BD- ROM y transfiere los segmentos de 2D a la memoria intermedia 3721 de lectura a una tasa de lectura Rud54. El decodificador 4225 objetivo de sistema lee paquetes de origen desde cada segmento en 2D almacenado en la memoria intermedia 3721 de lectura a una tasa de transferencia media Rext2d y decodifica los paquetes de origen en datos de vídeo VD y datos de audio AD.
La tasa de transferencia media Rext2d equivale a 192 / 188 veces la tasa media de procesamiento por el decodificador 4225 objetivo de sistema para extraer paquetes de TS de cada paquete de origen. En general, esta tasa de transferencia media Rext2d cambia para cada segmento en 2D. El valor máximo Rmax2d de la tasa de transferencia media Rext2d equivale a 192 / 188 veces la tasa de sistema Rts para el fichero en 2D. En este caso, el coeficiente 192 / 188 es la relación de bytes en un paquete de origen a bytes en un paquete de TS. La tasa de transferencia media Rext2d se representa convencionalmente en bits/segundo y específicamente equivale al valor del tamaño de un segmento de 2D expresado en bits dividido por el tiempo de ATC de segmento. El “tamaño de un segmento expresado en bits” es ocho veces el producto del número de paquetes de origen en el segmento y el número de bytes por paquete de origen (= 192 bytes x 8 bits/byte).
La tasa de lectura Rud54 se expresa de manera convencional en bits/segundo y se establece a un valor superior, por ejemplo 54 Mbps, que el valor máximo Rmax2d de la tasa de transferencia media Rext2d: Rud54 > Rmax2d. Esto evita la infrautilización en la memoria intermedia 3721 de lectura debido al procesamiento de decodificación por el decodificador 4225 objetivo de sistema mientras la unidad 3701 de BD-ROM está leyendo un segmento de 2D desde el disco 101 BD-ROM.
La Figura 85A es un gráfico que muestra el cambio en la cantidad de datos DA almacenado en la memoria intermedia 3721 de lectura durante la operación en modo de reproducción en 2D. La Figura 85B es un diagrama esquemático que muestra la correspondencia entre un bloque 8510 de segmento para reproducción y una ruta 8520 de reproducción en modo de reproducción en 2D. Como se muestra en la Figura 85B, de acuerdo con la ruta 8520 de reproducción, los bloques de datos de vista de base B[n] (n = 0, 1, 2, ...) en el bloque 8510 de segmento cada uno se leen como un segmento en 2D EXT2D[n] desde el disco 101 BD-ROM en la memoria intermedia 3721 de lectura. Como se muestra en la Figura 85A, durante el periodo de lectura PR2ü[n] para cada segmento en 2D EXT2D[n], la cantidad de datos almacenada de DA aumenta a una tasa igual a Rud54 - Rext2dM, la diferencia entre la tasa de lectura Rud54 y la tasa de transferencia media Rext2dM. Un salto J2D[n], sin embargo, tiene lugar entre dos segmentos de 2D contiguos EXT2D[n - 1] y EXT2D[n]. Puesto que la lectura de dos bloques contiguos de datos de vista dependiente Dn se omite durante el correspondiente periodo de salto PJ2D[n], la lectura de datos desde el disco 101 BD-ROM se interrumpe. Por consiguiente, la cantidad de datos almacenada de DA se reduce a una tasa de transferencia media REXT2D[n] durante cada periodo de salto PJ2D[n].
Las operaciones de lectura y transferencia por la unidad 3701 de BD-ROM no se realizan realmente de manera continua, como se sugiere por el gráfico en la Figura 85A, sino más bien de manera intermitente. Durante el periodo de lectura PR2D[n] para cada segmento en 2D, esto evita que la cantidad de datos almacenada de DA supere la capacidad de la memoria intermedia 3721 de lectura, es decir el desbordamiento en la memoria intermedia 3721 de lectura. Por consiguiente, el gráfico en la Figura 85A representa lo que realmente es un aumento gradual como un aumento aproximadamente recto.
Para reproducir imágenes de vídeo en 2D de manera ininterrumpida desde el bloque 8510 de segmento mostrado en la Figura 85B, deberían cumplirse las siguientes condiciones [1] y [2].
[1] Mientras se proporcionan datos de manera continua desde la memoria intermedia 3721 de lectura al decodificador 4225 objetivo de sistema durante cada periodo de salto PJ2D[n], necesita asegurarse la salida continua desde el decodificador 4225 objetivo de sistema. Para hacer esto, debería cumplirse la siguiente condición: el tamaño Sext2dM de cada segmento en 2D EXT2D[n] es el mismo que la cantidad de datos transferida desde la memoria intermedia 3721 de lectura al decodificador 4225 objetivo de sistema desde el periodo de lectura PR2D[n] a través del siguiente periodo de salto PJ2D[n + 1]. Si este es el caso, a continuación como se muestra en la Figura 85A, la cantidad de datos almacenada de DA al final del periodo de salto PJ2D[n + 1] no debe caer por debajo del valor en el inicio del periodo de lectura PR2D[n]. En otras palabras, durante cada periodo de salto PJ2D[n], se proporcionan de manera continua datos desde la memoria intermedia 3721 de lectura al decodificador 4225 objetivo de sistema. En particular, no tiene lugar la infrautilización en la memoria intermedia 3721 de lectura. En este caso, la longitud del periodo de lectura PR2D[n] equivale a Sext2dM/Rud54, el valor obtenido dividiendo el tamaño Sext2dM de un segmento de 2D EXT2D[n] por la tasa de lectura Rud54. Por consiguiente, el tamaño Sext2dM de cada segmento en 2D EXT2D[n] debería ser igual a o mayor que el mínimo
5
10
15
20
25
30
35
40
45
50
tamaño de segmento expresado en el lado de la derecha de la expresión 1.
imagen1
En la expresión 1, el tiempo de salto TjuMP-2D[n] representa la longitud del periodo de salto PJ2D[n] en segundos. La tasa de lectura Rud54 y la tasa de transferencia media Rext2d se expresan ambas en bits por segundo. Por consiguiente, en la expresión 1, la tasa de transferencia media Rext2d se divide por 8 para convertir el tamaño SEXT2D[n] del segmento de 2D de bits a bytes. Es decir, el tamaño SEXT2D[n] del segmento de 2D se expresado en bytes. La función TECHO() es una operación para redondear hacia arriba números fraccionales después del punto decimal del valor en paréntesis.
[2] Puesto que la capacidad de la memoria intermedia 3721 de lectura está limitada, el valor máximo del periodo de salto TJUMP-2D[n] está limitado. En otras palabras, incluso si la cantidad de datos almacenada de DA inmediatamente antes de un periodo de salto PJ2ü[n] es la capacidad máxima de la memoria intermedia 3721 de lectura, si el tiempo de salto TjuMP-2D[n] es demasiado largo, la cantidad de datos almacenada de DA alcanzará cero durante el periodo de salto PJ2ü[n], y existe un peligro de que tenga lugar la infrautilización en la memoria intermedia 3721 de lectura. En lo sucesivo, el tiempo para que la cantidad de datos almacenada de DA reduzca de la capacidad máxima de la memoria intermedia 3721 de lectura a cero mientras se ha detenido el suministro de datos desde el disco 101 BD-ROM a la memoria intermedia 3721 de lectura, es decir, el valor máximo del tiempo de salto Tjump-2d que garantiza la reproducción ininterrumpida, se hace referencia como el “tiempo de salto máximo Tjump-max”
En normas de discos ópticos, la correspondencia entre distancias de salto y tiempos de salto máximo se determina a partir de la velocidad de acceso de la unidad de disco óptico y otros factores. La Figura 86 es un ejemplo de una tabla de correspondencia entre distancias de salto Sjump y tiempos de salto máximo Tjump_max para un disco BD- ROM. Como se muestra en la Figura 86, las distancias de salto Sjump se representan en unidades de sectores, y los tiempos de salto máximo Tjump_max se representan en milisegundos. Un sector equivale a 2048 bytes. Cuando una distancia de salto Sjump es cero sectores o está dentro de un intervalo de 1-10000 sectores, 10001-20000 sectores, 20001-40000 sectores, 40001 sectores-1 / 10 de una fracción y 1 / 10 de una fracción o mayor, el correspondiente tiempo de salto máximo Tjump_max es 0 ms, 250 ms, 300 ms, 350 ms, 700 ms y 1400 ms, respectivamente. Cuando la distancia de salto Sjump equivale a cero sectores, el tiempo de salto máximo Tjump_max equivale a un tiempo de transición de sector cero Tjump0. En el ejemplo en la Figura 86, el tiempo de transición de sector cero Tjump0 se considera que es 0 ms.
Basándose en las consideraciones anteriores, el tiempo de salto TjuMP-2D[n] a sustituirse en la expresión 1 es el tiempo de salto máximo Tjump_max especificado para cada distancia de salto en normas de disco de BD-ROM. Específicamente, la distancia de salto Sjump entre los segmentos de 2D EXT2D[n - 1] y EXT2D[n] se sustituye en la expresión 1 como el tiempo de salto TjuMP-2D[n]. Esta distancia de salto Sjump equivale al tiempo de salto máximo Tjump_max que corresponde al número de sectores desde el final del segmento de 2D de orden (n + 1) EXT2D[n] hasta la parte superior del segmento de 2D de orden (n + 2) EXT2D[n + 1] como se halla en la tabla en la Figura 86.
Puesto que el tiempo de salto TjuMP-2D[n] para el salto entre dos segmentos en 2D EXT2D[n] y EXT2D[n + 1] está limitado al tiempo de salto máximo Tjump_max, la distancia de salto Sjump, es decir la distancia entre los dos segmentos en 2D EXT2D[n] y EXT2D[n + 1], está también limitada. Cuando el tiempo de salto Tjump equivale a un tiempo de salto máximo Tjump_max, la distancia de salto Sjump alcanza un valor máximo, denominado como la “distancia de salto máxima Sjump_max”. Para reproducción de imágenes de vídeo en 2D sin interrupciones, además del tamaño de segmentos de 2D que satisfacen la expresión 1, la distancia entre segmentos de 2D necesita ser igual a o menor que la distancia de salto máxima Sjump_max.
Dentro de cada bloque de segmento, la distancia entre segmentos de 2D equivale al tamaño de un bloque de datos de vista dependiente. Por consiguiente, este tamaño está limitado para que sea igual a o menor que la distancia de salto máxima Sjump_max. Específicamente, cuando el tiempo de salto máximo Tjump_max entre segmentos de 2D está limitado al valor mínimo 250 ms especificado en la Figura 86, entonces la distancia entre segmentos de 2D, es decir el tamaño de bloques de datos de vista dependiente, está limitado a la distancia de salto máxima correspondiente Sjump_max = 10000 sectores o menor.
Cuando se reproducen de manera ininterrumpida dos bloques de segmento dispuestos en diferentes capas de registro, tiene lugar un salto largo entre el segmento de 2D de orden (n + 1) EXT2D[n] localizado al final del bloque de segmento anterior y el segmento de 2D de orden (n + 2) EXT2D[n + 1] localizado en la parte superior del último bloque de segmento. Este salto largo se provoca por una operación, tal como un salto de enfoque, para conmutar la capa de registro. Por consiguiente, además del tiempo de salto máximo Tjump_max especificado en la tabla en la Figura 86, el tiempo requerido para este salto largo incluye adicionalmente un “tiempo de conmutación de capa”, que
5
10
15
20
25
30
35
40
45
50
55
es el tiempo necesario para que una operación conmute a la capa de registro. Este “tiempo de conmutación de capa” es, por ejemplo, 350 ms. Como resultado, en la expresión 1, que debería satisfacer el tamaño del segmento de 2D de orden (n + 1) EXT2D[n], el tiempo de salto Tjump_2dM se determina por la suma de dos parámetros TJ[n] y TL[n]: TjUMP-2D[n] = TJ[n] + TL[n]. El primer parámetro TJ[n] representa el tiempo de salto máximo Tjump_max especificado para la distancia de salto Sjump del salto largo de acuerdo con las normas del disco BD-ROM. Este tiempo de salto máximo Tjump_max equivale al valor, en la tabla en la Figura 86, que corresponde al número de sectores desde el final del segmento de 2D de orden (n + 1) EXT2D[n] a la parte superior del segmento de 2D de orden (n + 2) EXT2D[n + 1]. El segundo parámetro TL[n] representa el tiempo de conmutación de capa, por ejemplo 350 ms. Por consiguiente, la distancia entre dos segmentos en 2D EXT2D[n] y EXT2D[n + 1] está limitada a que sea igual a o menor que la distancia de salto máxima Sjump_max que corresponde, en la tabla en la Figura 86, al tiempo de salto máximo Tjump_max del salto largo menos el tiempo de conmutación de capa.
«Condiciones basadas en la capacidad en un modo de reproducción en 3D>>
La Figura 87 es un diagrama de bloques que muestra el procesamiento de reproducción en el dispositivo 102 de reproducción en un modo de reproducción en 3D. Como se muestra en la Figura 87, de entre los elementos mostrados en la Figura 42, este sistema de procesamiento de reproducción incluye la unidad 4201 de BD-ROM, el conmutador 4220, el par de RB1 4221 y Rb2 4222 y el decodificador 4225 objetivo de sistema. La unidad 4201 de BD-ROM lee segmentos SS desde el disco 101 BD-ROM y transfiere los segmentos SS al conmutador 4220 a una tasa de lectura Rud72. El conmutador 4220 separa segmentos SS en bloques de datos de vista de base y bloques de datos de vista dependiente. Los bloques de datos de vista de base se almacenan en la RB1 4221, y los bloques de datos de vista dependiente se almacenan en la RB2 4222. El decodificador 4225 objetivo de sistema lee paquetes de origen desde los bloques de datos de vista de base almacenados en la RB1 4221 a una tasa de transferencia de vista de base Rext1 y lee paquetes de origen desde los bloques de datos de vista dependiente almacenados en la RB2 4222 a una tasa de transferencia de vídeo dependiente Rext2. El decodificador 4225 objetivo de sistema también decodifica pares de bloques de datos de vista de base y de vista dependiente leídos en datos de vídeo VD y datos de audio AD.
La tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 equivalen a 192/188 veces la tasa media de procesamiento por el decodificador 4225 objetivo de sistema para extraer paquetes de TS respectivamente de cada paquete de origen en los bloques de datos de vista de base y los bloques de datos de vista dependiente. El valor máximo Rmax1 de la tasa de transferencia de vista de base Rext1 equivale a 192 / 188 veces la tasa de sistema Rts1 para el fichero en 2D. El valor máximo Rmax2 de la tasa de transferencia de vista dependiente Rext2 equivale a 192 / 188 veces la tasa de sistema Rts2 para el fichero DEP. Las tasas de transferencia Rext1 y Rext2 se representan de manera convencional en bits/segundo y específicamente equivalen al valor del tamaño de cada bloque de datos expresado en bits dividido por el tiempo de ATC de segmento. El tiempo de ATC de segmento equivale al tiempo requerido para transferir todos los paquetes de origen en el bloque de datos desde las memorias intermedias 4221,4222 de lectura al decodificador 4225 objetivo de sistema.
La tasa de lectura Rud72 se expresa de manera convencional en bits/segundo y se establece a un valor más alto, por ejemplo 72 Mbps, que los valores máximos Rmax-i, Rmax2 de las tasas de transferencia Rext-i, Rext2: Rud72 > Rmax-i, Rud72 > Rmax2. Esto evita la infrautilización en la RB1 4221 y la RB2 4222 debido al procesamiento de decodificación por el decodificador 4225 objetivo de sistema mientras la unidad de BD-ROM 4201 está leyendo un segmento SS desde el disco 101 BD-ROM.
[Conexión ininterrumpida dentro de un bloque de segmento]
Las Figuras 88A y 88B son gráficos que muestran cambios en cantidades de datos DA1 y DA2 almacenados en RB1 4221 y RB2 4222 cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde un único bloque de segmento. La Figura 88C es un diagrama esquemático que muestra una correspondencia entre el bloque 8810 de segmento y una ruta 8820 de reproducción en un modo de reproducción en 3D. Como se muestra en la Figura 88C, de acuerdo con la ruta 8820 de reproducción, todo el bloque 8810 de segmento se lee a la vez como un segmento SS. Posteriormente, el conmutador 4220 separa el segmento SS en bloques de datos de vista dependiente D[k] y bloques de datos de vista de base B[k] (k = ..., n, n + 1, n + 2, ...).
Las operaciones de lectura y transferencia por la unidad 4201 de BD-ROM no se realizan realmente de manera continua, como se sugiere por los gráficos en las Figuras 88A y 88B, sino más bien de manera intermitente. Durante los periodos de lectura PRD[k] y PRB[k] para los bloques de datos D[k], B[k], esto evita el desbordamiento en la RB1 4221 y RB2 4222. Por consiguiente, los gráficos en las Figuras 88A y 88B representan lo que realmente es un aumento gradual como un aumento recto aproximado.
Como se muestra en las Figuras 88A y 88B, durante el periodo de lectura PRD[n] del enésimo bloque de datos de vista dependiente D[n], la cantidad de datos almacenada de DA2 en la RB2 4222 aumenta a una tasa igual a Rud72 - REXT2[n], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vídeo dependiente REXT2[n], mientras que la cantidad de datos almacenada de DA1 en la RB1 4221 se reduce a una tasa de transferencia de vista de base REXT1[n -1]. Como se muestra en la Figura 88C, tiene lugar una transición de sector cero J0 [2n] desde el bloque de datos de vista dependiente de orden (n + 1) D[n] al bloque de datos de vista de base de orden (n + 1)
5
10
15
20
25
30
35
40
45
B[n]. Como se muestra en las Figuras 88A y 88B, durante el periodo de transición de sector cero PJo[n], la cantidad de datos almacenada de DA1 en la RB1 4221 continúa reduciendo a la tasa de transferencia de la vista de base REXTi[n - 1], mientras que la cantidad de datos almacenada de DA2 en la RB2 4222 se reduce a la tasa de transferencia de vista dependiente REXT2[n].
Como se muestra adicionalmente en las Figuras 88A y 88B, durante el periodo de lectura PRB[n] del enésimo bloque de datos de vista de base B[n], la cantidad de datos almacenada de DA1 en la RB1 4221 aumenta a una tasa igual a Rud72 - REXT1[n], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vista de base RextiM. Por otra parte, la cantidad de datos almacenada de DA2 en la RB2 4222 continúa reduciendo a la tasa de transferencia de vista dependiente REXT2[n]. Como se muestra adicionalmente en la Figura 88C, tiene lugar una transición de sector cero J0[2n + 1] desde el bloque de datos de vista de base B[n] al siguiente bloque de datos de vista dependiente D(n + 1). Como se muestra en las Figuras 88A y 88B, durante el periodo de transición de sector cero PJ0[2n + 1], la cantidad de datos almacenada de DA1 en la RB1 4221 se reduce a la tasa de transferencia de vista de base RextiM, y la cantidad de datos almacenada de DA2 en la RB2 4222 continúa reduciendo a la tasa de transferencia de vista dependiente REXT2[n].
Para reproducir imágenes de vídeo en 3D de manera ininterrumpida desde un bloque 8810 de segmento, deberían cumplirse las siguientes condiciones [3] y [4].
[3] El tamaño SEXT1[n] del bloque de datos de vista de base de orden (n + 1) B[n] es al menos igual a la cantidad de datos transferida desde la RB1 4221 al decodificador 4225 objetivo de sistema desde el periodo de lectura correspondiente PRB[n] hasta inmediatamente antes del periodo de lectura PRB[n + 1] del siguiente bloque de datos de vista de base B[n + 1]. En este caso, como se muestra en la Figura 88A, inmediatamente antes del periodo de lectura PRB[n + 1] del siguiente bloque de datos de vista de base B[n + 1], la cantidad de datos almacenada de DA1 en la RB1 4221 no cae por debajo de la cantidad inmediatamente antes del periodo de lectura PRB[n] del enésimo bloque de datos de vista de base B[n]. La longitud del periodo de lectura PRB[n] del bloque de datos de vista de base de orden (n + 1) B[n] equivale a SEXT1[n]/RUD72, el valor obtenido dividiendo el tamaño SEXT1[n] de este bloque de datos de vista de base B[n] por la tasa de lectura Rud72. Por otra parte, la longitud del periodo de lectura PRR[n + 1] del bloque de datos de vista dependiente de orden (n + 2) D[n + 1] equivale a SEXT2[n + 1]/Rud72, el valor obtenido dividiendo el tamaño SEXT2[n + 1] de este bloque de datos de vista dependiente D[n + 1] por la tasa de lectura Rud72. Por consiguiente, el tamaño SEXT1[n] de este bloque de datos de vista de base B[n] debería ser igual a o mayor que el mínimo tamaño de segmento expresado en el lado de la derecha de la expresión 2.
imagen2
[4] El tamaño SEXT2[n] del bloque de datos de vista dependiente de orden (n + 1) D[n] es al menos igual a la cantidad de datos transferida desde la RB2 4222 al decodificador 4225 objetivo de sistema desde el periodo de lectura correspondiente PRR[n] hasta inmediatamente antes del periodo de lectura PRD[n + 1] del siguiente bloque de datos de vista dependiente D[n + 1]. En este caso, como se muestra en la Figura 88B, inmediatamente antes del periodo de lectura PRD[n + 1] del siguiente bloque de datos de vista dependiente D[n + 1], la cantidad de datos almacenada de DA2 en la RB2 4222 no cae por debajo de la cantidad inmediatamente antes del periodo de lectura PRD[n] del enésimo bloque de datos de vista dependiente D[n]. La longitud del periodo de lectura PRD[n] del bloque de datos de vista dependiente de orden (n + 1) D[n] equivale a Sext2M/Rud72, el valor obtenido dividiendo el tamaño SEXT2[n] de este bloque de datos de vista dependiente D[n] por la tasa de lectura Rud72. Por consiguiente, el tamaño SEXT2[n] de este bloque de datos de vista dependiente D[n] debería ser igual a o mayor que el mínimo tamaño de segmento expresado en el lado de la derecha de la expresión 3.
imagen3
[Conexión ininterrumpida entre bloques de segmento]
La Figura 89B es un diagrama esquemático que muestra un bloque 8901 de segmento de orden (M + 1) (la letra M representa un número entero mayor o igual a 1) y el bloque 8902 de segmento de orden (M + 2) y la correspondencia entre estos bloques 8901 y 8902 de segmento y una ruta 8920 de reproducción en un modo de
5
10
15
20
25
30
35
40
45
50
55
60
reproducción en 3D. Como se muestra en la Figura 89B, los dos bloques 8901 y 8902 de segmento se separan por un límite de capa LB o un área de registro para otros datos. De acuerdo con la ruta 8920 de reproducción, todo el bloque 8901 de segmento de orden M se lee en primer lugar a la vez como el segmento de orden (M + 1) SS EXTSS[M]. Un salto J[M] tiene lugar inmediatamente después. Posteriormente, el bloque 8902 de segmento de orden (M + 2) se lee a la vez como el segmento de orden (M + 1) SS EXTSS[M + 1].
La Figura 89A es un grupo de gráficos que muestra cambios en cantidades de datos DA1 y DA2 almacenadas en RB1 4221 y RB2 4222, así como los cambios en la suma DA1 + DA2, cuando se reproducen continuamente imágenes de vídeo en 3D de manera ininterrumpida desde dos bloques 8901 y 8902 de segmento. En la Figura 89A, la línea discontinua larga y corta alterna indica cambios en la cantidad de datos DA1 almacenados en la RB1 4221, la línea discontinua indica cambios en la cantidad de datos DA2 almacenados en la RB2 4222, y la línea continua indica cambios en la suma DA1 + DA2 de las dos cantidades de datos. En este gráfico, la línea continua es una aproximación que promedia pequeños cambios cada vez que se lee un bloque de datos. Adicionalmente, el tiempo de transición de sector cero Tjump0 se considera que es “cero segundos”.
Como se muestra en la Figura 89A, durante el periodo PRblk[M] durante el cual se lee todo el bloque 8901 de segmento de orden (M + 1) se lee desde el disco 1o1 BD-ROM en la RB1 4221 y RB2 4222, las cantidades de datos DA1 y DA2 respectivamente almacenadas en la RB1 4221 y RB2 4222 ambas aumentan. Específicamente, durante el periodo PRblk[M] durante el cual se lee todo el bloque 8901 de segmento de orden (M + 1), la suma DA1 + DA2 de las cantidades de datos almacenadas aumenta a una tasa igual a la diferencia Rud72 - Rextss[M] entre la tasa de lectura Rud72 y una tasa de transferencia media Rextss[M]. Esto significa que la tasa de transferencia Rextss[M] se evalúa como el valor obtenido dividiendo el tamaño de todo el bloque 8701 de segmento de orden (M + 1), es decir el tamaño Sextss[M] del segmento de orden (M + 1) SS Extss[M], por el tiempo de ATC de segmento Textss.
En el punto en el que se lee el último bloque de datos de vista de base en el bloque 8901 de segmento de orden (M + 1) en la RB1 4221, la suma DA1 + DA2 de la cantidad de datos almacenada alcanza su valor máximo. Durante el periodo PJ[M] del salto inmediatamente posterior J[M], la suma DA1 + DA2 de la cantidad de datos almacenada se reduce a la tasa de transferencia media Rextss[M]. Por consiguiente, ajustando el valor máximo de la suma DA 1 + DA2 de la cantidad de datos almacenada para que sea suficientemente grande, puede evitarse la infrautilización en la RB1 4221 y RB2 4222 durante el salto J[M]. Como resultado, los dos bloques 8901 y 8902 de segmento pueden conectarse de manera ininterrumpida.
El valor máximo de la suma DA1 + DA2 de la cantidad de datos almacenada se determina por el tamaño del bloque 8701 de segmento de orden (M + 1). Por consiguiente, para conectar de manera ininterrumpida el bloque 8901 de segmento de orden (M + 1) al bloque 8902 de segmento de orden (M + 2), el tamaño del bloque 8901 de segmento de orden (M + 1), es decir el tamaño Sextss[M] del segmento de orden (M + 1) SS EXTSS[M], debería satisfacer la condición 5.
[5] Durante el periodo de lectura PRd[iti] del bloque de datos de vista dependiente D localizado en la parte superior del bloque 8901 de segmento de orden (M + 1), se realiza precarga (la letra m representa un número entero mayor o igual a 1). Durante este periodo de precarga PRd[ti], el bloque de datos de vista de base B que corresponde al bloque de datos de vista dependiente D no se ha almacenado en la RB1 4221, y por lo tanto el bloque de datos de vista dependiente D no puede transferirse la RB2 4222 al decodificador 4225 objetivo de sistema. Por consiguiente, los datos en el bloque de segmento de orden M se transfieren desde la RB2 4222 al decodificador 4225 objetivo de sistema durante el periodo de precarga PRd[ti]. Esto mantiene la provisión de datos al decodificador 4225 objetivo de sistema. De manera similar, durante el periodo de lectura PRdM del bloque de datos de vista dependiente D localizado en la parte superior del bloque 8902 de segmento de orden (M + 2), se realiza la precarga (la letra n representa un número entero mayor o igual a m + 1). Por consiguiente, durante el periodo de precarga PKD[n], continuado desde el periodo de salto inmediatamente anterior J[M], los datos en el bloque 8901 de segmento de orden (M + 1) se transfieren desde la RB2 4222 al decodificador 4225 objetivo de sistema. Esto mantiene la provisión de los datos al decodificador 4225 objetivo de sistema. Por lo tanto, para evitar la infrautilización en ambas RB1 4221 y RB2 4222 durante el salto J[M], el tiempo de ATC de segmento Textss del segmento de orden (M + 1) SS EXTSS[M] debería ser al menos igual a la longitud del periodo desde el tiempo de finalización T0 del periodo de precarga PRd[ti] en el bloque 8901 de segmento de orden (M + 1) hasta el tiempo de finalización T1 del periodo de precarga PRdM en el bloque 8902 de segmento de orden (M + 2). En otras palabras, el tamaño Sextss[M] del segmento de orden (M + 1) SS EXTSS[M] debería ser al menos igual a la suma de las cantidades de datos transferidas desde la RB1 4221 y la RB2 4222 al decodificador 4225 objetivo de sistema durante el periodo T0-T1.
Como es evidente a partir de la Figura 89A, la longitud del periodo T0-T1 equivale a la suma de la longitud del periodo de lectura PRblk[M] del bloque 8901 de segmento de orden (M + 1), el tiempo de salto Tjump[M] del salto J[M], y la diferencia Tdiff[M] en las longitudes de los periodos de precarga PRdM y PRd[ti] en los bloques 8901 y 8002 de segmento. Adicionalmente, la longitud del periodo de lectura PRblk[M] del bloque 8901 de segmento de orden (M + 1) equivale a Sextss[M]/Rud72, el valor obtenido dividiendo el tamaño Sextss[M] del segmento de orden (M + 1) SS EXTSS[M] por la tasa de lectura Rud72. Por consiguiente, el tamaño Sextss[M] del segmento de orden (M + 1) SS EXTSS[M] debería ser igual a o mayor que el mínimo tamaño de segmento expresado en el lado de la derecha de la expresión 4
5
10
15
20
25
30
35
40
45
50
Sf'YTSS —
^ i-:xrss ] V R-UDn
~l~ Tjimp [M] +
Tdiff [M]
X ReXTSS [M]
,„ssW]> mx(tjuuf[M] + tdiff[M])
R(JD72 ReáTSS [^1
Las longitudes de los periodos de precarga PRd[iti] y PRdM equivalen respectivamente a Sext2[iti]/Rud72 y SEXT2[n]/RuD72, los valores obtenidos dividiendo los tamaños Sext2[t] y SEXT2[n] del bloque de datos de vista dependiente D localizado en los bloques de la parte superior de los bloques 8901 y 8902 de segmento por la tasa de lectura Rud72. Por consiguiente, la diferencia Tdiff en las longitudes de los periodos de precarga PRd[t] y PRü[n] equivale a la diferencia en estos valores: Tdiff = Sext2M/Rud72 - Sext2[t]/Rud72. Obsérvese que, como el lado de la derecha de las expresiones 1-3, el lado de la derecha de la expresión 4 puede expresarse como un valor entero en unidades de bytes.
También, cuando se mejora la decodificación de los datos de flujo multiplexados como sigue, la diferencia Tdiff en el lado a la derecha de la expresión 4 puede considerarse que es cero. En primer lugar, se busca el valor máximo de la diferencia Tdiff a través de todos los datos de flujo multiplexados, es decir el peor valor de Tdiff. A continuación, cuando se reproducen los datos de flujo multiplexados, el inicio de la decodificación se retarda después del inicio de la lectura en un tiempo igual al peor valor de Tdiff.
«Condiciones para reducir las capacidades de las memorias intermedias de lectura»
Las Figuras 90A y 90B son gráficos que muestran cambios en cantidades de datos DA1 y DA2 almacenados en la RB1 4221 y RB2 4222 cuando las imágenes de vídeo en 3D se reproducen de manera ininterrumpida desde los dos bloques 8901 y 8902 de segmento consecutivos mostrados en la Figura 89B. Como se muestra en la Figura 90A, la cantidad de datos almacenada de DA1 en la RB1 4221 alcanza un valor máximo DM1 en el punto cuando el bloque de datos de vista de base B[n - 1] al final del bloque 8901 de segmento de orden (M + 1) se lee en la RB1 4221. Adicionalmente, la cantidad de datos almacenada de DA1 se reduce a la tasa de transferencia de vista de base REXT-i[n - 1] desde el periodo PJ[M] del salto inmediatamente posterior J[M] a través del periodo de precarga PRD[n] en el bloque 8902 de segmento de orden (M + 2). Por consiguiente, para evitar que la cantidad de datos almacenada de DA1 alcance cero antes de la finalización del periodo de precarga PRD[n], el valor máximo DM1 de la cantidad de datos almacenada de DA1 debería ser igual a o mayor que la cantidad de datos transferida desde la RB1 4221 al decodificador 4225 objetivo de sistema durante el periodo de salto PJ[M] y el periodo de precarga PRD[n]. En otras palabras, el valor máximo DM1 de la cantidad de datos almacenada de dA1 debería ser mayor que o igual a la suma de la longitud Tjump[M] del periodo de salto PJ[M] y la longitud del periodo de precarga PRD[n], SEXT2[n]/RuD72, multiplicado por la tasa de transferencia de la vista de base REXT1[n -1]: DM1 > (Tjump[M] + SEXT2[n]/RuD72) x REXT1[n - 1]. Cuando la longitud Tjump[M] del periodo de salto PJ[M] equivale al tiempo de salto máximo Tjump_max del salto J[M], y la tasa de transferencia de vista de base REXT1[n -1] equivale a su valor máximo Rmax-i, el valor máximo DM1 de la cantidad de datos almacenada de DA1 está a su valor más grande. Por consiguiente, la RB1 4221 se requiere que tenga una capacidad RB1 igual a o mayor que el valor máximo DM1 en este caso: RB1 > (Tjump_max + SEXT2[n]/RuD72) X RmAX1
Por otra parte, como se muestra en la Figura 90B, en el punto cuando se inicia la lectura del final bloque de datos de vista de base B[n -1] en el bloque 8901 de segmento de orden (M + 1), la cantidad de datos almacenada de DA2 en la RB2 4222 alcanza su valor máximo DM2. Adicionalmente, la cantidad de datos almacenada de DA2 se reduce a una tasa de transferencia de vídeo dependiente REXT2[n -1] desde el periodo de lectura del bloque de datos de vista de base B[n - 1] a través del periodo de precarga PRD[n] en el bloque 8902 de segmento de orden (M + 2). Por consiguiente, para mantener la provisión de datos al decodificador 4225 objetivo de sistema a través del final del periodo de precarga PRD[n], el valor máximo DM2 de la cantidad de datos almacenada de DA2 debería ser igual a o mayor que la cantidad de datos transferida desde la RB2 4222 al decodificador 4225 objetivo de sistema durante el periodo de lectura del bloque de datos de vista de base B[n - 1], el periodo de salto PJ[M], y el periodo de precarga PRD[n]. En otras palabras, el valor máximo DM2 de la cantidad de datos almacenada de DA2 debería ser mayor que o igual a la suma de la longitud del periodo de lectura del bloque de datos de vista de base B[n -1] SEXT1[n - 1]/Rud72, la longitud Tjump[M] del periodo de salto PJ[M], y la longitud del periodo de precarga PRdM, SEXT2[n]/RuD72, multiplicado por la tasa de transferencia de vista dependiente REXT2[n - 1]: DM2 > (SEXT2[n - 1]/Rud72 + Tjump[M] + SEXT2[n]/RuD72) x Rext^ - 1]. Cuando la longitud Tjump[M] del periodo de salto PJ[M] equivale al tiempo de salto máximo Tjump_max del salto J[M], y la tasa de transferencia de vista dependiente REXT2[n - 1] equivale a su valor máximo Rmax2, el valor máximo dM2 de la cantidad de datos almacenada de DA2 está a su valor más grande. Por consiguiente, la RB2 4222 se requiere que tenga una capacidad RB2 igual a o mayor que el valor máximo DM2 en este caso: RB2 > (SEXT1[n - 1]/Rud72 + Tjump_max + SEXT2[n]/RuD72) x Rmax2. Adicionalmente, puesto que cualquier bloque de datos de vista dependiente puede ser el primer bloque de datos leído durante la reproducción interrumpida, la capacidad RB2 de la RB2 4222 no debería ser menor que el tamaño de cualquiera de los bloques de datos de vista dependiente: RB2 > SEXT2[k] (la letra k representa un número entero arbitrario).
5
10
15
20
25
30
35
40
45
50
De conformidad con la descripción anterior, los límites inferiores de las capacidades RB1 y RB2 de la RB1 4221 y RB2 4222 se determinan por los tamaños SEXTi[k] y SEXT2[k] de los bloques de datos. Por consiguiente, para economizar las capacidades RB1 y RB2, el límite superior de los tamaños SEXT1[k] y SEXT2[k] de los bloques de datos, es decir el tamaño de segmento máximo, se limita mediante la siguiente condición [6].
[6] Como se muestra en la Figura 19, los bloques de datos de vista de base B[k] en cada bloque 1901-1903 de segmento se comparten por un fichero en 2D y un fichero SS. Por consiguiente, el tamaño SEXTi[k] de los bloques de datos de vista de base B[k] debería satisfacer la expresión 1. Por otra parte, para reducir la capacidad RB1 de la RB1 4221 tanto como sea posible, el tamaño Sext-iM de los bloques de datos de vista de base B[k] debería ser igual a o menor que el límite inferior del mínimo tamaño de segmento de segmentos de 2D. En otras palabras, el tamaño SEXTi[k] debería ser igual a o menor que el tamaño de segmento máximo expresado en el lado de la derecha de la expresión 5.
imagen4
Obsérvese que el límite inferior del mínimo tamaño de segmento de segmentos de 2D se evalúa por la expresión 1 en la que la tasa de transferencia media Rext2d incluida en el denominador del lado de la derecha de la expresión 1 se ha sustituido por el valor máximo Rmax. En esta expresión, el tiempo de salto Tjump-2d_min es el valor mínimo del tiempo de salto necesario en cada bloque 1901-1903 de segmento, es decir el valor mínimo del tiempo de salto máximo Tjump_ max entre segmentos de 2D. Específicamente, el tiempo de salto Tjump-2d_min se establece al valor mínimo 250 ms especificado en la tabla en la Figura 86. Mientras tanto, la distancia entre segmentos de 2D equivale al tamaño SEXT2[k] de un bloque de datos de vista dependiente D[k]. Por consiguiente, cuando el tiempo de salto Tjump-2d_min se establece a 250 ms, el tamaño SEXT2[k] del bloque de datos de vista dependiente D[k] se limita a la distancia de salto máxima Sjump_max = 10000 sectores o menor que corresponde al tiempo de salto máximo Tjump_max = 250 ms en la tabla en la Figura 86. En otras palabras, el tamaño de segmento máximo de bloques de datos de vista dependiente es 10000 sectores.
«Conclusión»
Para reproducir de manera ininterrumpida tanto imágenes de vídeo en 2D como imágenes de vídeo en 3D desde una pluralidad de bloques de segmento, deberían satisfacerse todas las condiciones anteriores [1] - [6]. En particular, los tamaños de los bloques de datos y bloques de segmento deberían satisfacer las siguientes condiciones 1-5.
Condición 1: El tamaño Sext2d de un segmento de 2D debería satisfacer la expresión 1.
Condición 2: El tamaño Sexti de un bloque de datos de vista de base debería satisfacer la expresión 2. Condición 3: El tamaño Sext2 un bloque de datos de vista dependiente debería satisfacer la expresión 3. Condición 4: El tamaño Sextss de un bloque de segmento debería satisfacer la expresión 4.
Condición 5: El tamaño Sexti de un bloque de datos de vista de base debería satisfacer la expresión 5.
«Modificaciones a la condición 1>>
Como es evidente a partir de la ruta 2101 de reproducción en modo de reproducción en 2D mostrado en la Figura 21, tienen lugar saltos de manera frecuente en modo de reproducción en 2D. Por consiguiente, para asegurar adicionalmente la reproducción ininterrumpida, se prefiere añadir adicionalmente un margen (tolerancia) al mínimo tamaño de segmento de los segmentos de 2D representados por el lado de la derecha de la expresión 1. Sin embargo, la adición de este margen no debería cambiar la expresión 5. Esto es debido a que puede provocar que la capacidad de memoria intermedia de lectura aumente. Lo siguiente son tres procedimientos para añadir un margen de este tipo sin cambiar la expresión 5.
El primer procedimiento añade un margen al mínimo tamaño de segmento de un segmento de 2D sustituyendo la tasa de transferencia media Rext2d incluida en el denominador del lado de la derecha de la expresión 1 con el valor máximo Rmax. En otras palabras, la condición 1 se cambia de modo que el tamaño Sext2d de un segmento de 2D satisface la expresión 6 en lugar de la expresión 1.
imagen5
Obsérvese que, en la expresión 5, se usa una expresión que se obtiene sustituyendo la tasa de transferencia media Rext2d incluida en el denominador del lado de la derecha de la expresión 1 con el valor máximo Rmax2d. Por consiguiente, incluso si la expresión 1 se cambia a la expresión 6, la expresión 5 no se cambia.
El segundo procedimiento añade un margen al mínimo tamaño de segmento de un segmento de 2D extendiendo el
5
10
15
20
25
30
35
tiempo de ATC de segmento del segmento de 2D en AT segundos. En otras palabras, la condición 1 se cambia de modo que el tamaño Sext2d de un segmento de 2D satisface la expresión 7A o 7B en lugar de la expresión 1.
imagen6
El tiempo de extensión AT puede determinarse por la longitud de un GOP, o por el límite superior del número de segmentos que pueden reproducirse durante un tiempo predeterminado. Por ejemplo, si la longitud de un GOP es un segundo, AT se establece a 1,0 segundos. Por otra parte, si el límite superior del número de segmentos que pueden reproducirse durante un tiempo predeterminado en segundos es n, entonces AT se establece a el tiempo predeterminado / n.
El tercer procedimiento añade un margen al mínimo tamaño de segmento del segmento de 2D sustituyendo la tasa de transferencia media Rext2d incluida a través del lado de la derecha de la expresión 1 por el valor máximo Rmax2d. En otras palabras, la condición 1 se cambia de modo que el tamaño Sext2d de un segmento de 2D satisface la expresión 8 en lugar de las expresiones 1.
imagen7
En este procedimiento, puede añadirse un margen incluso mayor al mínimo tamaño de segmento. A la inversa, sin embargo, incluso cuando la tasa de bits del segmento de 2D es baja, el tamaño necesita mantenerse suficientemente grande. Por consiguiente, es necesario comparar el tamaño del margen con la eficacia de registro de datos en el disco BD-ROM.
Obsérvese que, cuando se adopta el segundo procedimiento y si puede priorizarse más seguridad de la reproducción ininterrumpida de imágenes de vídeo en 2D a través de la reducción de la capacidad de la memoria intermedia de lectura, la expresión 5 puede cambiarse a la expresión 9.
imagen8
<Velocidad de transferencia de los datos de flujo>
La Figura 91 es un diagrama de bloques que muestra el sistema de procesamiento de flujo de vídeo proporcionado en el decodificador 4225 objetivo de sistema en el modo de reproducción en 3D. Como se muestra en la Figura 91, el sistema de procesamiento incluye el par de desempaquetadores 4511 y 4512 de origen, el par de filtros 4513 y 4514 de PID, y el decodificador 4515 de vídeo primario que se muestran en la Figura 45.
El primer desempaquetador 4511 de origen lee paquetes de origen desde cada bloque de datos de vista de base en la RB1 4221 a la tasa de transferencia de vista de base Rext-i. El primer desempaquetador 4511 de origen extrae adicionalmente paquetes de TS desde los paquetes de origen y transfiere los paquetes de TS al primer filtro 4513 de PID. La velocidad de transferencia media alcanza la tasa de sistema Rtsi para el fichero en 2D en el máximo. Por lo tanto el valor máximo Rmaxi de la tasa de transferencia de vista de base Rexti equivale a 192/188 veces la tasa de sistema Rts-i. El primer filtro 4513 de PID transmite paquetes de TS que incluyen el flujo de vídeo de vista de base a la TB1 4501 en el decodificador 4515 de vídeo primario. La TB1 4501 restaura paquetes de PES desde los paquetes de TS y transfiere los paquetes de PES a la MB1 4502 a la velocidad media Rx-i. La MB1 4502 extrae las vAu del flujo de vídeo de vista de base desde los paquetes de PES, y transfiere las VAU a la EB1 4503 a la velocidad media Rbx1.
El segundo desempaquetador 4512 de origen lee paquetes de origen desde cada bloque de datos de vista dependiente en la RB2 4222 a la tasa de transferencia de vista dependiente Rext2. El segundo desempaquetador 4512 de origen extrae adicionalmente paquetes de TS desde los paquetes de origen y transfiere los paquetes de TS
5
10
15
20
25
30
35
40
45
50
55
60
al segundo filtro 4514 de PID. La velocidad de transferencia media alcanza la tasa de sistema Rts2 para el fichero DEP en el máximo. Por lo tanto el valor máximo Rmax2 de la tasa de transferencia de vista dependiente Rext2 equivale a 192/188 veces la tasa de sistema Rts2. El segundo filtro 4514 de PID transmite paquetes de TS que incluyen el flujo de vídeo de vista dependiente a la TB2 4508 en el decodificador 4515 de vídeo primario. La TB2 4508 restaura paquetes de PES desde los paquetes de TS y transfiere los paquetes de PES a la MB2 4509 a la velocidad media Rx2. La MB2 4509 extrae las VAU del flujo de vídeo de vista dependiente desde los paquetes de PES, y transfiere las VAU a la EB2 4510 a la velocidad media Rbx2.
Las VAU almacenadas en cada una de la EB1 4503 y la EB2 4510 se transfieren de manera alterna al DEC 4504 por el conmutador 4506 de memoria intermedia, y se decodifican a datos de instantánea descomprimidos por el DEC 4504. En este punto, como se muestra en la Figura 7, las instantáneas de vista dependiente se comprimen con referencia a las instantáneas de vista de base. Por consiguiente, la tasa de bits media de las instantáneas de vista dependiente es más baja que la de las instantáneas de vista de base. Por lo tanto la tasa de sistema Rts2 para el fichero DEP puede establecerse para que sea más baja que la tasa de sistema Rts1 para el fichero en 2D. Por ejemplo, cuando la tasa de sistema Rts1 para el fichero en 2d se establece para que sea igual a o más baja que 45 Mbps, la tasa de sistema Rts2 para el fichero DEP puede establecerse para que sea igual a o menor que 30 Mbps: Rts1 á 45 Mbps, Rts2 á 30 Mbps.
En este punto, se supone que la suma de las tasas de sistema Rts1 y Rts2 está restringida a igual a o menor que un valor umbral predeterminado. El valor umbral predeterminado se establece para que sea igual a o menor que la anchura de una banda de transferencia asignada al decodificador 4225 objetivo de sistema, por ejemplo, igual a 60 Mbps: Rts1 + Rts2 á 60 Mbps. En ese caso, cuando la tasa de sistema Rts1 para el fichero en 2D se establece a 45 Mbps, la tasa de sistema Rts2 para el fichero DEP está restringida a igual a o menor que 15 Mbps: Rts1 = 45 Mbps, Rts2 á 15 Mbps. Siempre que la tasa de bits de cada flujo de vídeo se mantenga al valor medio, la restricción en la suma de las tasas de sistema Rts1 y Rts2 es ventajoso para usar la banda de transferencia de manera eficaz. En la actualidad, sin embargo, hay casos donde la tasa de bits del flujo de vídeo de vista dependiente supera temporalmente la tasa de bits del flujo de vídeo de vista de base. Por ejemplo, en imágenes de vídeo en 3D que representan escenas naturales, puede tener lugar una inversión de este tipo de las tasas de bits cuando la vista de base (es decir la vista izquierda) se vuelve desenfocada repentinamente y únicamente se enfoca la vista dependiente (es decir la vista derecha). En ese caso, aunque la tasa de transferencia de vista de base Rext1 es más inferior que la tasa de sistema Rts1 = 45 Mbps, la tasa de transferencia de vista dependiente Rext2 no puede superar la tasa de sistema Rts2 á 15 Mbps (de manera precisa, 192 / 188 “ 1,02 veces de la misma. En lo sucesivo, el coeficiente se considera como “1” a menos que se indique de otra manera.). Como se entiende a partir de esto, cuando se restringe la suma de las tasas de sistema Rts1 y Rts2, la tasa de transferencia de vista dependiente Rext2 no puede responder a un aumento temporal en la tasa de bits del flujo de vídeo de vista dependiente.
Una respuesta de este tipo al aumento temporal puede realizarse restringiendo, en lugar de la suma de las tasas de sistema Rts1 y Rts2, la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 en unidades de segmentos: REXT1[n]+ REXT2[n] < 60 Mbps. La tasa de transferencia de vista de base Rext-iM es un valor medio de velocidades de transferencia a las que se transfieren paquetes de origen que incluyen el segmento de orden (n+1) EXT1[n] en el fichero base, y la tasa de transferencia de vista dependiente REXT2[n] es un valor medio de velocidades de transferencia a las que se transfieren paquetes de origen que incluyen el segmento de orden (n+1) EXT2[n] en el fichero base. Las Figuras 92A y 92B son gráficos que muestran cambios temporales en la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 en ese caso, respectivamente. Como se muestra en la Figura 92A, la tasa de transferencia de vista de base Rext1 cae desde el valor máximo Rmax1 “ 45 Mbps en el primer tiempo T0, y permanece a un nivel bajo = 15 Mbps durante un periodo Tstr desde el primer tiempo T0 al segundo tiempo T1. Como se indica por el gráfico de línea continua GR1 en la Figura 92B, la tasa de transferencia de vista dependiente Rext2 puede cambiar en respuesta al cambio de la tasa de transferencia de vista de base Rext1 de una manera similar finalización mutua. En particular, en el periodo anteriormente mencionado Tstr, el pico P1 puede alcanzar el valor máximo Rmax2 “ 30 Mbps. De esta manera, cuando la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 se restringe en unidades de segmentos, la tasa de transferencia de vista dependiente Rext2 puede responder a un aumento temporal en la tasa de bits del flujo de vídeo de vista dependiente.
Para usar la banda de transferencia asignada al decodificador 4225 objetivo de sistema más eficazmente en la transferencia de los datos de flujo, se prefiere establecer la tasa de sistema Rts2 para el fichero DEP a un valor más superior. La Figura 92C es un gráfico que muestra el cambio temporal en la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 mostrada en las Figuras 92A y 92B. Como se indica por la cóncava CV en el gráfico de línea continua GR3 mostrado en la Figura 92C, la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 está por debajo de un valor umbral 60 Mbps durante el periodo Tstr desde el primer tiempo T0 al segundo tiempo T1. Esto es debido a que la tasa de transferencia de vista dependiente Rext2 está restringida a igual a o menor que la tasa de sistema Rts2 (= 30 Mbps) para el fichero DEP, como se indica por el gráfico de línea continua GR1 en la Figura 92B. Como se muestra en la Figura 92A, puesto que la tasa de transferencia de vista de base Rext1 ha caído a 15 Mbps en el periodo Tstr, la banda de transferencia tiene al menos tolerancia igual a la diferencia entre el valor y el valor umbral 60 - 15 = 45 Mbps. Por lo tanto, la tasa de sistema Rts2 para el fichero DEP se establece para que esté en un intervalo superior a 30 Mbps, preferentemente en el mismo intervalo que la tasa de sistema Rts1 para el fichero en
5
10
15
20
25
30
35
40
45
50
55
60
2D, por ejemplo, igual a o inferior a 45 Mbps: Rtsi ^ 45 Mbps, Rts2 ^ 45 Mbps. Los gráficos de línea discontinua GR2 y gR4 en las Figuras 92B y 92C mientras la tasa de transferencia de vista dependiente Rext2 y la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 En ese caso, respectivamente. Como se indica por el gráfico de línea discontinua GR2 en la Figura 92B, el pico P2 de la tasa de transferencia de vista dependiente Rext2 puede superar 30 Mbps. Como resultado, como se indica por el gráfico de línea discontinua GR4 en la Figura 92C, la suma de la tasa de transferencia de vista de base Rext1 y la tasa de transferencia de vista dependiente Rext2 se mantiene en la proximidad del valor umbral 60 Mbps durante el periodo Tstr. De esta manera, la eficacia de uso de la banda de transferencia puede mejorarse adicionalmente.
Debería observarse en este punto que cuando la tasa de sistema Rts2 para el fichero DEP se establece a un valor que es tan alto como la tasa de sistema Rts1 para el fichero en 2D, la suma de ellas Rts1 + Rts2 es generalmente superior que la banda de transferencia anchura del decodificador 4225 objetivo de sistema. Por otra parte, puesto que la tasa de transferencia de vista de base Rext-iM y la tasa de transferencia de vista dependiente REXT2[n] son cada una un valor medio, incluso si se proporciona un valor umbral de la suma de estos valores medios, la suma de valores instantáneos de velocidades de transferencia puede superar el valor umbral sin restricción. En este punto, se supone como un ejemplo específico que cada una de las tasas de sistema Rts1 y Rts2 se establece a 45 Mbps, el tiempo de ATC de segmento de cada segmento es tres segundos, y la suma de velocidades de transferencia se mantiene a 30 Mbps en la primera parte (1,5 segundos) del tiempo de ATC de segmento. En ese caso, incluso si cada velocidad de transferencia aumenta hasta 45 Mbps en la segunda parte (1,5 segundos) del tiempo de ATC de segmento, la suma de valores medios de las velocidades de transferencia en el segmento total se mantiene a 60 Mbps. Por consiguiente, incluso si la suma de la tasa de transferencia de vista de base Rext-i[N] y la tasa de transferencia de vista dependiente REXT2[n] está restringida a igual a o menor que 60 Mbps, no puede evitarse el aumento de la suma de valores instantáneos de velocidades de transferencia a 90 Mbps. De esta manera, simplemente restringiendo la suma de la tasa de transferencia de vista de base REXT1[n] y la tasa de transferencia de vista dependiente REXT2[n], el riesgo de que la banda de transferencia del decodificador 4225 objetivo de sistema se sature no puede eliminarse completamente.
Para reducir adicionalmente el riesgo de que la banda de transferencia del decodificador 4225 objetivo de sistema se sature, la restricción sobre la suma de las velocidades de transferencia puede modificarse como sigue. La Figura 93 es un diagrama esquemático que muestra las relaciones entre los paquetes de TS que se han de transferir en el decodificador objetivo de sistema desde el desempaquetador de origen al filtro de PID y los tiempos de ATC. Como se muestra en la Figura 93, los rectángulos 9310 en la fila superior representan los periodos de transferencia de paquetes de TS TS1 n.° p (p = 0, 1, 2, 3, ..., k, k+1, k+2) que constituyen el segmento de vista de base, y los rectángulos 9320 en la fila inferior representan los periodos de transferencia de paquetes de TS TS2 n.° q (q = 0, 1, 2, 3, ..., m-1, m, m+1) que constituyen el segmento de vista dependiente. Estos rectángulos 9310, 9320 están dispuestos en orden de transferencia de paquetes de TS a lo largo del eje de tiempo del ATC. La posición de la parte superior de cada rectángulo 9310 y 9320 representa el tiempo de inicio de transferencia del paquete de TS. Las longitudes AT1 y AT2 de cada rectángulo 9310 y 9320 representan la cantidad de tiempo necesario para un paquete de TS a transferirse desde la memoria intermedia de lectura al decodificador objetivo de sistema. Cada vez que se inicia la transferencia de un paquete de TS desde el desempaquetador de origen, el dispositivo de reproducción en 3D establece una ventana (WIN1, WIN2 y WIN3 en la Figura 93) que tiene una longitud de tiempo predeterminado (por ejemplo un segundo) que se inicia desde el tiempo de inicio de transferencia. El dispositivo de reproducción en 3D promedia adicionalmente cada velocidad de transferencia de TS1 y TS2 en cada una de las ventanas WIN1, WIN2, y WIN3, y restringe la suma de los valores promedio a un valor umbral predeterminado o inferior. En el ejemplo mostrado en la Figura 93, en primer lugar se establece la primera ventana WlN1, cuyo punto de inicio es el tiempo de inicio de transferencia A1 de TS1 n.° 0, y con respecto a TS1 n.° 0-k y TS2 n.° 0-m que se transfieren en la ventana, la suma de la velocidades de transferencia está restringida a igual a o menor que el valor umbral. De manera similar, con respecto a TS1 n.° 0-(k+1) y TS2 n.° 0-m que se transfieren en la segunda ventana WIN2 cuyo punto de inicio es el tiempo de inicio de transferencia A2 de TS2 n.° 0, la suma de la velocidades de transferencia está restringida a igual a o menor que el valor umbral, y con respecto a TS1 n.° 1 -(k+1) y TS2 n.° 0- (m+1) que se transfieren en la tercera ventana WIN3 cuyo punto de inicio es el tiempo de inicio de transferencia A3 de TS1 n.° 1, la suma de la velocidades de transferencia está restringida a igual a o menor que el valor umbral. De esta manera, la suma de las velocidades de transferencia promedio en cada ventana está restringida a igual a o menor que un valor umbral predeterminado desplazando desde una ventana a otra, teniendo cada una una longitud predeterminada, por el tiempo de transferencia por paquete de TS. Con esta estructura, a medida que la ventana se hace más corta, el riesgo de que la banda de transferencia del decodificador 4225 objetivo de sistema se sature se hace más bajo.
Cuando la tasa de sistema Rts2 para el fichero DEP se establece para que sea tan alta como la tasa de sistema Rts1 para el fichero base, la tasa de transferencia de vista dependiente Rext2 puede aumentar a un nivel similar. Cuando la tasa de transferencia de vista dependiente REXT2[n] para el segmento de vista dependiente de orden (n+1) aumenta de tal manera, la tasa de transferencia de vista de base Rext-iM para el segmento de vista de base de orden (n+ 1) cae a un valor que es bastante más bajo que el valor máximo Rmax-i. Por otra parte, en la expresión 5 que define el tamaño de segmento máximo, la tasa de transferencia media Rext2d incluida en el denominador se evalúa como el valor máximo Rmax2d de la misma. Adicionalmente, el límite superior del tiempo de ATC de segmento del segmento de vista base de orden (n+1) es un valor que se representa como una relación de su tamaño de
5
10
15
20
25
30
35
40
45
50
55
segmento máximo a la tasa de transferencia de vista de base RextiM. Por consiguiente, el valor de límite superior es bastante más largo que el tiempo de ATC de segmento real. Puesto que el segmento de vista base de orden (n+1) y el segmento de vista dependiente de orden (n+1) tienen el tiempo de ATC de segmento en común, el tamaño del segmento de vista dependiente en el máximo es igual a un producto de la tasa de transferencia de vista dependiente REXT2[n] y el valor del límite superior del tiempo de ATC de segmento. Puesto que el tamaño es bastante más grande que un valor que es realmente necesario para la reproducción ininterrumpida, la capacidad de RB2 no puede reducirse adicionalmente. Por consiguiente, cuando la tasa de sistema Rts2 para el fichero DEP se establece para que sea tan alta como la tasa de sistema Rtsi para el fichero base, preferentemente la condición 5 para el tamaño de segmento máximo, en concreto la expresión 5, se sustituye por la expresión 10.
imagen9
En el lado de la derecha de la expresión 10, el valor máximo Rmax2d de la tasa de transferencia media para el segmento de 2D, o la diferencia entre la suma de la tasa de transferencia valores máximos Rmaxi + Rmax2 y la tasa de transferencia de vista dependiente Rext2, sea cual sea la más baja se adopta como la velocidad de transferencia para incluirse en el denominador. En este punto, la suma de la tasa de transferencia valores máximos Rmaxi + Rmax2 equivale a 192/188 veces la suma de las tasas de sistema Rtsi + Rts2. Por consiguiente, cuando la tasa de transferencia de vista dependiente Rext2 aumenta a un nivel similar a la tasa de sistema, el tamaño de segmento máximo se evalúa como la diferencia anteriormente descrita. Con esta estructura, el límite superior del tiempo de ATC de segmento del segmento de la vista de base está restringido a un valor que está más cerca del tiempo de ATC de segmento real. Por esta razón, el tamaño del segmento de vista dependiente está restringido a un valor que es realmente necesario para la reproducción ininterrumpida. De esta manera, es posible mantener la capacidad de RB2 para que sea suficientemente pequeña.
<Disposición de bloques de datos cuando la tasa de sistema para el fichero DEP es alta>
La Figura 94A es una tabla que muestra, con respecto a un par de segmentos, los tamaños de segmento máximo maxSEXT-i[n] y maxSEXT2[n] para cada combinación de la tasa de transferencia de vista de base Rext-iM y la tasa de transferencia de vista dependiente REXT2[n]. En este punto, “par de segmentos” hace referencia a un par del segmento de vista base de orden (n+1) incluido en el fichero base y el segmento de vista dependiente de orden (n+1) incluido en el fichero DEP (n = 0, 1, 2, ...). Los tamaños de segmento máximo maxSEXTi[n] y maxSEXT2[n] son valores que se calculan usando la expresión 5. Como es evidente a partir del hecho de que la expresión 5 incluye la tasa de lectura Rud54 de la unidad de BD-ROM en el modo de reproducción en 2D, los tamaños de segmento máximo maxSEXTi[n] y maxSEXT2[n] dependen del rendimiento de la unidad de BD-ROM. Por consiguiente, los valores mostrados en la Figura 94A son únicamente un ejemplo.
Como se muestra en la Figura 94A, cuando la tasa de transferencia de vista de base RextiM es 45 Mbps y la tasa de transferencia de vista dependiente REXT2[n] es 15 Mbps, el tamaño de segmento máximo maxSEXT2[n] para el segmento de vista dependiente es 6 MB. A la inversa, cuando la tasa de transferencia de vista de base Rext-i^] es 15 Mbps y la tasa de transferencia de vista dependiente REXT2[n] es 45 Mbps, el tamaño de segmento máximo maxSEXT2[n] para el segmento de vista dependiente es 8 MB. Como se explica con referencia a la Figura 90, cuanto mayor es el tamaño del bloque de datos de vista dependiente localizado en la parte superior de cada bloque de segmento, mayor es la capacidad requerida para la memoria intermedia de lectura. Por lo tanto no se prefiere que la tasa de transferencia de vista dependiente REXT2[n] aumente durante el periodo de precarga del bloque de segmento puesto que provoca que el tamaño de segmento máximo maxSEXT2[n] para el segmento de vista dependiente aumente, evitando una reducción adicional de la capacidad de la memoria intermedia de lectura.
Por lo tanto, en el par de segmentos EXT1[n], EXT2[n] localizados en el bloque de la parte superior del segmento, cuando la tasa de transferencia de vista dependiente REXT2[n] supera la tasa de transferencia de vista de base RextiM, el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n]. Es decir, en el par de segmentos, un bloque de datos con tamaño pequeño está dispuesto antes de un bloque de datos con tamaño grande. Esto posibilita que la capacidad de la memoria intermedia de lectura se mantenga pequeña como se muestra a continuación.
La Figura 94B es un diagrama esquemático que muestra el caso donde se adopta la disposición anteriormente descrita para dos bloques 9401 y 9402 de segmento que están dispuestos con un límite de capa LB entre ellos. Como se muestra en la Figura 94B, entre los pares de segmentos entre el fichero base 9411 y el fichero DEP 9412, el par de segmentos de orden (n+1) EXT1[n], EXT2[n] está dispuesto antes del bloque 9402 de segmento de orden M. En el par de segmentos, la tasa de transferencia de vista dependiente REXT2[n] es más alta que la tasa de transferencia de la vista de base RextiM, y por lo tanto el bloque de datos de vista dependiente D[n] es mayor en tamaño que el bloque de datos de vista de base B[n]. Por consiguiente, en el par de segmentos, el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n]. Por otra parte, en los pares de segmentos de orden (n-1), n, y (n+2) EXTl[k], EXT2[k] (k = n-2, n-1, n+1), la tasa de transferencia de vista dependiente REXT2[k] es más baja que la tasa de transferencia de vista de base Rext-i^], y por lo tanto el bloque de
5
10
15
20
25
30
35
40
45
50
55
60
datos de vista dependiente D[k] es menor en tamaño que el bloque de datos de vista de base B[k]. Por consiguiente, en estos pares de segmentos, el bloque de datos de vista dependiente D[k] está dispuesto antes del bloque de datos de vista de base B[k].
Las Figuras 95A y 95B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 y RB2, respectivamente, cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde los dos bloques 9401 y 9402 de segmento mostrados en la Figura 94B. Los gráficos G1P, G2P dibujados por la línea continua muestran cambios en cantidades de datos almacenados DA1, DA2 cuando el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n] en el par de segmentos de orden (n+1) EXT1[n], EXT2[n] localizado en la parte superior del bloque 9402 de segmento de orden M. Los gráficos G1Q, G2Q dibujados por la línea discontinua muestran cambios en cantidades de datos almacenados DA1, DA2 cuando el bloque de datos de vista dependiente D[n] está dispuesto antes del bloque de datos de vista de base B[n] en el par de segmentos EXT1[n], EXT2[n].
Como se muestra en la Figura 95A, la cantidad de datos almacenada de DA1 en RB1 alcanza un valor máximo DM10, DM11 en el punto cuando el bloque de datos de vista de base B[n - 1] al final del bloque 9401 de segmento de orden M se lee en RB1. Adicionalmente, la cantidad de datos almacenada de DA1 se reduce a la tasa de transferencia de vista de base REXT1[n - 1] desde el periodo de salto inmediatamente posterior PJ[M] a través del periodo de precarga PRB[n], PRü[n] en el bloque 9402 de segmento de orden M. En este punto, en el par de segmentos de orden (n+1) EXT1[n], EXT2[n], el bloque de datos de vista de base B[n] es menor en tamaño que el bloque de datos de vista dependiente D[n]. Por consiguiente, la longitud SEXT1[n]/RUD72 del periodo de precarga PRB[n] cuando el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n] es más corta que la longitud Sext2^]/Rud72 del periodo de precarga pRdM de la disposición invertida. Como resultado, el valor máximo DM11 de la cantidad de datos almacenada de DA1 cuando el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n] es más baja que el valor máximo DM10 de la disposición invertida.
Como se muestra en la Figura 95B, la cantidad de datos almacenada de DA2 en RB2 alcanza un valor máximo DM20, DM21 en el punto cuando el bloque de datos de vista de base B[n - 1] al final del bloque de segmento de orden (M-1) 9401 se lee en RB2. Adicionalmente, la cantidad de datos almacenada de DA2 se reduce a una tasa de transferencia de vídeo dependiente REXT2[n -1] desde el periodo de lectura del bloque de datos de vista de base B[n - 1] a través del periodo de precarga PRB[n], PRD[n] en el bloque 9402 de segmento de orden M. En este punto, la longitud Sext1m/Rud72 del periodo de precarga PRB[n] cuando el bloque de datos de vista de base B[n] está dispuesto antes del bloque de datos de vista dependiente D[n] es más corta que la longitud SEXT2[n]/RUD72 del periodo de precarga PRD[n] de la disposición invertida. Como resultado, el valor máximo DM21 de la cantidad de datos almacenada de DA2 cuando el bloque de datos de vista dependiente D[n] está dispuesto antes del bloque de datos de vista de base B[n] es más baja que el valor máximo DM20 de la disposición invertida.
Como se ha descrito anteriormente, en el par de segmentos dispuestos en el bloque de parte superior del segmento, es posible mantener la capacidad de la memoria intermedia de lectura pequeña disponiendo un bloque de datos con tamaño pequeño antes de un bloque de datos con tamaño grande.
De manera similar, en el par de segmentos dispuestos en una posición donde puede iniciarse una reproducción interrumpida, un bloque de datos con tamaño pequeño está dispuesto antes de un bloque de datos con tamaño grande. Esto posibilita que la capacidad de la memoria intermedia de lectura se mantenga pequeña. En ese caso, el orden de bloques de datos puede invertirse incluso en el par de segmentos localizados en el medio del bloque de segmento, así como en el par de segmentos localizados en la parte superior de los mismos. La Figura 96A es un diagrama esquemático que muestra la sintaxis del punto de inicio de segmento para una disposición de este tipo. Este punto de inicio de segmento (Extent_Start_Point), como los puntos de inicio de segmento mostrados en las Figuras 24A y 24B, se establece para cada del fichero en 2D y el fichero DEP. Como se muestra en la Figura 96A, en el punto de inicio de segmento, una bandera de inicio de segmento (is_located_first_in_extent_pair) se asigna a cada par de un ID de segmento (extent_id) y un SPN (SPN_extent_start).
La Figura 96B es un diagrama esquemático que muestra las relaciones entre el segmento de vista de base EXT1[k] (k = 0, 1, 2, ...) que pertenecen al fichero base y la bandera de inicio de segmento indicado por el punto de inicio de segmento. La Figura 96C es un diagrama esquemático que muestra las relaciones entre el segmento de vista dependiente EXT2[k] que pertenece al fichero DEP y la bandera de inicio de segmento. La Figura 96D es un diagrama esquemático que muestra las relaciones entre el segmento SS EXTSS[0] que pertenece al fichero SS y los bloques de segmento en el disco BD-ROM. Como se muestra en las Figuras 96B y 96c, en el par de segmentos EXT1[k], EXT2[k] que tienen el mismo ID de segmento, el valor de la bandera de inicio de segmento se establece a la inversa. En particular, los segmentos cuya bandera de inicio de segmento se establece a “1” tienen un número menor de paquetes de origen que los segmentos cuya bandera de inicio de segmento se establece a “0”. Como se muestra en la Figura 96D, un segmento cuya bandera de inicio de segmento se establece a “1” está dispuesto antes de un segmento cuya bandera de inicio se segmento se establece a “0”. De esta manera, la bandera de inicio de segmento indica cuál de EXT1[n] y EXT2[n] en el par de segmentos está dispuesto antes del otro. Por lo tanto es posible reconocer la disposición de bloques de datos en el par de segmentos EXT1[n], EXT2[n] desde el valor de la bandera de inicio de segmento. Por consiguiente, la unidad 4235 de control de reproducción puede notificar al
5
10
15
20
25
30
35
40
45
50
55
60
conmutador 4220 del número de paquetes de origen desde el inicio de cada segmento SS a cada límite entre bloques de datos usando el punto de inicio de segmento incluso si el orden de bloques de datos se diferencia entre pares de segmentos. Como resultado, el conmutador 4220 puede separar los segmentos de vista de base y segmentos de vista dependiente de los segmentos SS.
Cuando el orden de bloques de datos en cada par de segmentos es constante, los valores mínimos de las capacidades de RB1 y RB2 se calculan usando la Figura 90 como sigue: RB1 > (Tjump_max + SEXT2[n]/RuD72) x Rmaxi, RB2 > max{(SEXTi[n- 1]/Rud72 + Tjump_max + SEXT2[n]/RuD72) x Rmax2, SEXT2[n]}. Por otra parte, cuando el orden de bloques de datos puede invertirse en el par de segmentos localizados en el medio del bloque de segmento, los valores mínimos de las capacidades de RBl y RB2 se cambian como sigue.
La Figura 97C es un diagrama esquemático que muestra una disposición de un bloque de datos que requiere la mayor capacidad de RB1 4221. Como se muestra en la Figura 97C, el bloque 9701 de segmento de orden (M-1) y el bloque 9702 de segmento de orden M están dispuestos con un límite de capa LB entre ellos (la letra M representa un número entero mayor o igual a 2). El par de segmentos de orden (n+1) D[n], B[n] está dispuesto en la parte superior del bloque 9702 de segmento de orden M. En particular, el bloque de datos de vista dependiente D[n] está situado antes del bloque de datos de vista de base B[n] (la letra n representa un número entero mayor que 0). Por otra parte, el enésimo par de segmentos D[n-1], B[n-1] está dispuesto al final del bloque 9701 de segmento de orden (M-1). En particular, el bloque de datos de vista de base B[n-1] está situado antes del bloque de datos de vista dependiente D[n-1].
Las Figuras 97A y 97B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB 1 4221 y RB2 4222, respectivamente, cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde los dos bloques 9701 y 9702 de segmento mostrados en la Figura 97C. Como se muestra en la Figura 97A, la cantidad de datos almacenada de DA1 en RB1 4221 alcanza un valor máximo DM1 en el punto cuando se lee el enésimo bloque de datos de vista de base B[n -1] en RB1 4221. No se leen bloques de datos en RB1 4221 desde el periodo inmediatamente posterior AT1 de lectura del bloque de datos de vista dependiente D[n-1] a través del periodo AT2 en el que tiene lugar un salto largo a través del límite de capa LB y el periodo de precarga AT3 en el bloque 9702 de segmento de orden M. Por lo tanto durante estos periodos, la cantidad de datos almacenada de DA1 se reduce. En estos periodos AT1-AT3, los bloques de datos de vista de base B[k] (k = ..., n-3, n-2) hasta el bloque de datos de vista de base de orden (n-1) se transfieren a una tasa de transferencia media Rexti[..., n-3, n-2], y a continuación el enésimo bloque de datos de vista de base se transfiere a una tasa de transferencia media RExn[n-1]. Para evitar que la cantidad de datos almacenada de DA1 alcance “0” antes del punto de tiempo de finalización del periodo de precarga AT3, la cantidad de datos almacenada de DA1 debería ser al menos igual al tamaño SExn[n-1] del bloque de datos de vista de base B[n-1] en el punto de tiempo que es anterior al punto de tiempo de finalización en el tiempo de ATC de segmento TExn[n-1] del enésimo bloque de datos de vista de base B[n-1]. Por consiguiente, el valor máximo DM1 de la cantidad de datos almacenada de DA1 debería ser mayor que el tamaño SExn[n-1] en la cantidad de datos Rext1[ ..., n-3, n-2] 3 (AT1 + AT2 + AT3 - TExn[n-1]) o mayor de los datos que se transfieren desde RB1 4221 al decodificador 4225 objetivo de sistema en los periodos restantes AT1 + AT2 + AT3 - TExn[n-1]. Es decir, se requiere que RB1 4221 tenga la capacidad RB1 que es mayor que el valor máximo DM1 de la misma: RB1 > SEXT1[n-1] + Rext1[..., n-3, n-2] 3 (AT1 + AT2 + AT3 - TExn[n-1]). En este punto, el tiempo AT2 de un salto largo se evalúa como el tiempo de salto máximo Tjump_max del salto largo.
La Figura 97F es un diagrama esquemático que muestra una disposición de un bloque de datos que requiere la mayor capacidad de RB2 4222. Como se muestra en la Figura 97F, el bloque 9703 de segmento de orden (N-1) y el enésimo bloque 9704 de segmento están dispuestos con un límite de capa LB entre ellos (la letra N representa un número entero mayor o igual a 2). El par de segmentos de orden (n+1) D[n], B[n] está dispuesto en la parte superior del enésimo bloque 9704 de segmento. En particular, el bloque de datos de vista dependiente D[n] está situado después del bloque de datos de vista de base B[n]. Por otra parte, el enésimo par de segmentos D[n-1], B[n-1] está dispuesto al final del bloque 9703 de segmento de orden (N-1). En particular, el bloque de datos de vista de base B[n-1] está situado después del bloque de datos de vista dependiente D[n-1].
Las Figuras 97D y 97E son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 4221 y RB2 4222, respectivamente, cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde los dos bloques 9703 y 9704 de segmento mostrados en la Figura 97F. Como se muestra en la Figura 97E, la cantidad de datos almacenada de DA2 en RB2 4222 alcanza un valor máximo DM2 en el punto cuando se lee el enésimo bloque de datos de vista dependiente D[n - 1] en la RB2 4222. No se lee bloque de datos en RB2 4222 desde el periodo inmediatamente posterior AT4 de lectura del bloque de datos de vista de base B[n-1] a través del periodo AT5 en el que tiene lugar un salto largo a través del límite de capa LB y el periodo de precarga AT6 en el enésimo bloque 9704 de segmento. Por lo tanto durante estos periodos, la cantidad de datos almacenada de DA2 se reduce. En estos periodos AT4-AT6, los bloques de datos de vista dependiente D[k] (k = ..., n- 3, n-2) hasta el bloque de datos de vista dependiente de orden (n-1) se transfieren a una tasa de transferencia media Rext2[.., n-3, n-2], y a continuación el enésimo bloque de datos de vista dependiente se transfiere a una tasa de transferencia media REXT2[n-1]. Para evitar que la cantidad de datos almacenada de DA2 alcance “0” antes del punto de tiempo de finalización del periodo de precarga AT6, la cantidad de datos almacenada de DA2 debería ser al menos igual al tamaño SEXT2[n-1] del bloque de datos de vista dependiente D[n-1] en el punto de tiempo que es anterior al punto de
5
10
15
20
25
30
35
40
45
50
55
tiempo de finalización en el tiempo de ATC de segmento TEXT2[n-1] del enésimo bloque de datos de vista dependiente D[n-1]. Por consiguiente, el valor máximo DM2 de la cantidad de datos almacenada de DA2 debería ser mayor que el tamaño SEXT2[n-1] en la cantidad de datos Rext2[..., n- 3, n-2] 3 (AT4 + AT5 + AT6 - TEXT2[n-1]) o mayor de los datos que se transfieren desde RB2 4222 al decodificador 4225 objetivo de sistema en los periodos restantes AT4 + AT5 + AT6 - TEXT2[n-1]. Es decir, se requiere que RB2 4222 tenga la capacidad RB2 que es mayor que el valor máximo DM2 de la misma: RB2 > SEXT2[n-1] + Rext2[ ..., n-3, n-2] 3 (AT4 + AT5 + AT6 - TEXT2[n-1]). En este punto, el tiempo AT5 de un salto largo se evalúa como el tiempo de salto máximo Tjump_max del salto largo.
Cuando el orden de bloques de datos puede invertirse en el par de segmentos localizados en el medio del bloque de segmento, las condiciones 2, 3 para el par de segmentos, en concreto las expresiones 2, 3 se modifican adicionalmente como sigue.
La Figura 98C es un diagrama esquemático que muestra un bloque 9810 de segmento que incluye en medio del mismo un par de segmentos en los que se invierte el orden de bloques de datos. Como se muestra en la Figura 98C, en el par de segmentos de orden (n+2) D[n+1], B[n+1], el bloque de datos de vista dependiente D[n+1] está después del bloque de datos de vista de base B[n]. En el pares de segmentos D[n], B[n] y D[n+1], B[n+1] que están antes y después de los mismos, el bloque de datos de vista de base B[n], B[n+1] está dispuesto después del bloque de datos de vista dependiente D[n], D[n+1], respectivamente.
Las Figuras 98A y 98B son gráficos que muestran cambios en cantidades DA1, DA2 de datos almacenados en RB1 4221 y RB2 4222, respectivamente, cuando se reproducen imágenes de vídeo en 3D de manera ininterrumpida desde el bloque 9801 de segmento mostrado en la Figura 98C. En este punto, el periodo de tiempo de transición de sector cero se desprecia porque es suficientemente más corto que los otros periodos. Como se muestra en las Figuras 98A y 98B, durante el periodo de lectura PRü[n] del bloque de datos de vista dependiente de orden (n+1) D[n], la cantidad de datos almacenada de DA2 en la RB2 4222 aumenta a una tasa igual a Rud72 - REXT2[n], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vídeo dependiente REXT2[n], mientras que la cantidad de datos almacenada de DA1 en la RB1 4221 se reduce a una tasa de transferencia de vista de base REXTi[n - 1]. Durante el periodo de lectura PRB[n] del bloque de datos de vista de base de orden (n+1) B[n], la cantidad de datos almacenada de DA1 en la RB1 4221 aumenta a una tasa igual a Rud72 - RextiM, la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vista de base RextiM, mientras que la cantidad de datos almacenada de DA2 en la RB2 4222 se reduce a una tasa de transferencia de vídeo dependiente REXT2[n]. Durante el periodo de lectura PRB[n+1] del bloque de datos de vista de base de orden (n+2) B[n+1], la cantidad de datos almacenada de DA1 en la RB1 4221 aumenta a una tasa igual a Rud72 - RExn[n+1], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vista de base RExn[n+1], mientras que la cantidad de datos almacenada de DA2 en la RB2 4222 se reduce adicionalmente a una tasa de transferencia de vídeo dependiente REXT2[n + 1]. Adicionalmente, durante el periodo de lectura PRD[n+1] del bloque de datos de vista dependiente de orden (n+2) D[n+1], la cantidad de datos almacenada de DA2 en la RB2 4222 aumenta a una tasa igual a Rud72 - REXT2[n+1], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vídeo dependiente REXT2[n+1], mientras que la cantidad de datos almacenada de DA1 en la RB1 4221 se reduce a una tasa de transferencia de vista de base RextiM. Siguiendo esto, durante el periodo de lectura PRD[n+2] del bloque de datos de vista dependiente de orden (n+3) D[n+2], la cantidad de datos almacenada de DA2 en la RB2 4222 aumenta a una tasa igual a Rud72 - REXT2[n+2], la diferencia entre la tasa de lectura Rud72 y una tasa de transferencia de vídeo dependiente REXT2[n+2], mientras que la cantidad de datos almacenada de DA1 en la RB1 4221 se reduce a una tasa de transferencia de vista de base REXTi[n+1].
En este caso, para reproducir imágenes de vídeo en 3D de manera ininterrumpida desde el bloque 9810 de segmento, en primer lugar, el tiempo de ATC de segmento del bloque de datos de vista dependiente de orden (n+1) D[n] debería ser igual a o mayor que el periodo de tiempo desde el punto de tiempo de inicio del periodo de lectura PRD[n] del mismo hasta el punto de tiempo de inicio del periodo de lectura PRD[n+1] del siguiente bloque de datos de vista dependiente D[n+1]. A continuación, el tiempo de ATC del bloque de datos de vista de base de orden (n+1), (n+2) B[n], B[n+1] debería ser igual a o mayor que el periodo de tiempo desde el punto de tiempo de inicio del periodo de lectura PRB[n], PRB[n+1] del mismo al punto de tiempo de inicio del periodo de lectura PRB[n+2] del siguiente bloque de datos de vista dependiente B[n+2]. Estas condiciones se representan por las expresiones 2a y 3A en lugar de las expresiones 2 y 3 cuando el segmento B (EXTB) se supone que está situado antes del segmento A (EXTA) en el enésimo par de segmentos.
imagen10
En este punto, la expresión 2A se obtiene sustituyendo el tamaño SEXTi[n] del bloque de datos de vista de base B[n], el tamaño SEXT2[n + 1] del bloque de datos de vista dependiente D[n + 1], y la tasa de transferencia de vista de base REXTi[n] incluida en la expresión 2 por el tamaño SextaM del segmento A, el tamaño SExm[n + 1] del segmento B, y la tasa de transferencia media RextaM para el segmento A, respectivamente. La expresión 3A se obtiene
5
10
15
20
25
30
35
40
45
50
55
60
sustituyendo el tamaño SEXTi[n] del bloque de datos de vista de base B[n], el tamaño SEXT2[n] del bloque de datos de vista dependiente D[n], y la tasa de transferencia de vista dependiente REXT2[n] incluida en la expresión 3 con el tamaño SextaM del segmento A, el tamaño SextbM del segmento B, y la tasa de transferencia media RextbM para el segmento B, respectivamente. Obsérvese que en cada una de las expresiones 2A y 3A, el tiempo de transición de sector cero Tjump0 se considera como “0”.
La Figura 99 es un diagrama esquemático que muestra las relaciones entre un bloque 9900 de segmento que incluye en medio del mismo un par de segmentos en las que se invierte el orden de bloques de datos y los ficheros 9910-9920 de flujo de AV. Como se muestra en la Figura 99, en el tercer par de segmentos D[2], B[2], el bloque de datos de vista dependiente D[2] está situado después del bloque de datos de vista de base B[2]. En los otros pares de segmentos D[k], B[k] (k = 0, 1, 3), el bloque de datos de vista de base B[k] está situado después del bloque de datos de vista dependiente D[k]. Cada uno de los bloques de datos de vista de base B[n] (n = 0, 1, 2, 3, ...) pertenece al fichero base 9911 como un segmento de vista base EXT1[n]. Cada uno de los bloques de datos de vista dependiente D[n] pertenece al fichero DEP 9911 como un segmento de vista dependiente EXT2[n]. La totalidad del bloque 9900 de segmento pertenece al fichero SS 9920 como un segmento SS EXTSS[0]. Los bloques de datos de vista de base B[n] (n = 0, 1, 2, 3, ...) pertenecen adicionalmente al fichero en 2D 9910 como el segmento de 2D EXT2D[n]. En este punto, dos bloques de datos de vista de base B[1] y B[2] consecutivos se denominan como un segmento en 2D EXT2D[1]. Con esta estructura, el tamaño Sext2d[1] del segmento de 2D EXT2D[1] satisface la expresión 1 incluso si todo el tamaño Sext2[2] + Sext2[3] de los dos bloques de datos de vista dependiente D[2], D[3] dispuestos inmediatamente después del mismo es grande.
<Separación de una ruta de reproducción antes y después de un límite de capa>
En la Figura 21, la ruta 2101 de reproducción en modo de reproducción en 2D y la ruta 2102 de reproducción en un modo de reproducción en 3D ambas atraviesan el mismo bloque de datos de vista de base B[3] inmediatamente antes de un salto largo Jly que salta sobre un límite de capa LB. En otras palabras, este bloque de datos de vista de base B[3] se lee como el segundo segmento en 2D EXT2D[1] por el dispositivo 102 de reproducción en modo de reproducción en 2D y como el último bloque de datos en el segmento SS EXTSS[1] por el dispositivo 102 de reproducción en un modo de reproducción en 3D. La cantidad de datos a procesarse por el decodificador objetivo de sistema durante el salto largo Jly se garantiza por el tamaño del bloque de datos de vista de base B[3] mediante la condición 1 en modo de reproducción en 2D. Por otra parte, en un modo de reproducción en 3D, la cantidad de datos se garantiza por el tamaño de todo el segundo bloque 1902 de segmento mediante la condición 4. Por consiguiente, el tamaño de segmento mínimo del bloque de datos de vista de base B[3] según se requiere por la condición 1 es en general mayor que el mínimo tamaño de segmento de conformidad con la condición 2. Por lo tanto, la capacidad de la RB1 4221 tiene que ser mayor que el valor mínimo necesario para reproducción ininterrumpida en un modo de reproducción en 3D. Adicionalmente, los tiempos de ATC de segmento son los mismos para el bloque de datos de vista de base B[3] y el bloque de datos de vista dependiente D[3] inmediatamente anterior. Por consiguiente, el tamaño del bloque de datos de vista dependiente D[3] es en general mayor que el mínimo tamaño de segmento requerido para el bloque de datos D[3] de conformidad con la condición 2. Por lo tanto, la capacidad de la RB2 4222 es en general mayor que el valor mínimo necesario para reproducción ininterrumpida en un modo de reproducción en 3D. En la disposición mostrada en la Figura 21, dos bloques 1902 y 1903 de segmento pueden conectarse por lo tanto de manera ininterrumpida, pero las capacidades de la RB1 4221 y RB2 4222 necesitan mantenerse suficientemente grandes.
Para reducir la capacidad de la RB1 4221 y RB2 4222 mientras aún se permite la reproducción ininterrumpida de imágenes de vídeo durante un salto largo Jly, pueden realizarse cambios en la disposición intercalada de bloques de datos antes y después de una posición donde es necesario un salto largo Jly, tal como un límite de capa LB, para crear rutas de reproducción separadas en modo de reproducción en 2D y modo de reproducción en 3D. Estos cambios se representan, por ejemplo, mediante los siguientes dos tipos de disposiciones 1 y 2. Con cualquiera de las disposiciones 1 y 2, la ruta de reproducción inmediatamente antes de un salto largo Jly atraviesa diferentes bloques de datos de vista de base en cada modo de operación. Como se describe a continuación, esto posibilita que el dispositivo 102 de reproducción realice fácilmente la reproducción ininterrumpida de imágenes de vídeo durante un salto largo Jly mientras mantiene la capacidad necesaria de la RB1 4221 y rB2 4222 a un mínimo.
«Disposición 1>>
La Figura 100 es un diagrama esquemático que muestra la disposición 1 de un grupo de bloques de datos registrados antes y después de un límite de capa LB en un disco 101 BD-ROM. Como se muestra en la Figura 100, un primer bloque A001 de segmento se registra antes del límite de capa LB, y un segundo bloque A002 de segmento se registra después del límite de capa LB. En los bloques A001 y A002 de segmento, los bloques de datos de vista dependiente D[n] y los bloques de datos de vista de base B[n] forman una disposición intercalada (n = ..., 0, 1, 2, 3, ...). En particular, los tiempos de ATC de segmento son los mismos entre el enésimo par de segmentos D[n] y B[n]. En la disposición 1, un bloque de datos de vista de base B[2]2d se sitúa adicionalmente entre el final B[1] del primer bloque A001 de segmento y el límite de capa LB. Este bloque de datos de vista de base B[2]2d coincide bit a bit con un bloque de datos de vista de base B[2]ss en la parte superior del segundo bloque A002 de segmento. En lo sucesivo, B[2]2d se denomina como un “bloque exclusivamente para reproducción en 2D”, y B[2]ss se denomina como un “bloque exclusivamente para reproducción SS”.
5
10
15
20
25
30
35
40
45
50
55
60
Los bloques de datos de vista de base mostrados en la Figura 100 pueden accederse como segmentos en un fichero en 2D A010, es decir como segmentos de 2D EXT2D[], con la excepción del bloque exclusivamente para reproducción SS B[2]ss. Por ejemplo, el bloque de datos de vista de base B[0] segundo desde el extremo del primer bloque A001 de segmento, el par B[1] + B[2]2d del último bloque de datos de vista de base B[1] y el bloque exclusivamente para reproducción en 2D B[2]2d, y el segundo bloque de datos de vista de base B[3] en el segundo bloque A002 de segmento pueden accederse respectivamente como segmentos de 2D individuales EXT2D[0], ExT2D[1] y EXT2D[2]. Por otra parte, los bloques de datos de vista dependiente D[n] (n = ..., 0, 1, 2, 3, ...) mostrados en la Figura 100 puede accederse a cada uno como un único segmento en el fichero DEP A012, es decir como segmentos de vista dependiente EXT2[n].
Para los grupos de bloque de datos mostrados en la Figura 100, el enlace cruzado de los ficheros de flujo de AV se realiza como sigue. La totalidad de los bloques A001 y A002 de segmento puede accederse respectivamente como un segmento EXTSS[0] y EXTSS[1] en el fichero SS A020. Por consiguiente, los bloques de datos de vista de base B[0], B[1] y B[3] en los bloques A001 y A002 de segmento se comparten por el fichero en 2D A010 y el fichero SS A020. Por otra parte, el bloque exclusivamente para reproducción en 2D B[2]2d puede accederse únicamente como parte del segmento de 2D eXT2D[1] localizado inmediatamente antes del límite de capa LB. Por otra parte, el bloque exclusivamente para reproducción Ss B[2]ss puede accederse únicamente como parte del segmento SS EXTSS[1] localizado inmediatamente después del límite de capa LB. Por lo tanto, los bloques de datos de vista de base distintos del bloque exclusivamente para reproducción en 2D B[2]2d, es decir B[0], B[1], B[2]ss y B[3], pueden extraerse desde segmentos SS EXTSS[0], EXTSS[1] como segmentos en el fichero base A011, es decir segmentos de vista de base EXT1[n] (n = 0, 1, 2, 3).
La Figura 101 es un diagrama esquemático que muestra una ruta A110 de reproducción en modo de reproducción en 2D y una ruta A120 de reproducción en un modo de reproducción en 3D para el grupo de bloques de datos en la disposición 1 mostrado en la Figura 100. El dispositivo 102 de reproducción en modo de reproducción en 2D reproduce el fichero en 2D A010. Por consiguiente, como se muestra por la ruta A110 de reproducción en modo de reproducción en 2D, el bloque de datos de vista de base B[0] segundo desde el extremo del primer bloque A001 de segmento se lee como el primer segmento en 2D EXT2D[0], y a continuación se omite la lectura del bloque de datos de vista dependiente inmediatamente posterior D[1] por un salto J2d1. A continuación, un par B[1] + B[2]2d del último bloque de datos de vista de base B[1] en el primer bloque A001 de segmento y el bloque inmediatamente posterior exclusivamente para reproducción en 2D B[2]2d se leen de manera continua como el segundo segmento en 2D EXT2D[1]. Un salto largo J ly tiene lugar en el límite de capa inmediatamente posterior LB, y se omite la lectura de los tres bloques de datos D[2], B[2]ss y D[3] localizados en la parte superior del segundo bloque A002 de segmento. Posteriormente, el segundo bloque de datos de vista de base B[3] en el segundo bloque A002 de segmento se lee como el tercer segmento en 2D EXT2D[2]. Por otra parte, el dispositivo 102 de reproducción en un modo de reproducción en 3D reproduce el fichero SS A020. Por consiguiente, como se muestra por la ruta A120 de reproducción en un modo de reproducción en 3D, el primer bloque de segmento completo A001 se lee de manera continua como el primer segmento SS EXTSS[0]. Inmediatamente después, tiene lugar un salto largo Jly, y se omite la lectura del bloque exclusivamente para reproducción en 2D B[2]2d. Posteriormente, todo el segundo bloque A002 de segmento se lee de manera continua como el segundo segmento SS EXTSS[1].
Como se muestra en la Figura 100, en modo de reproducción en 2D, se lee el bloque exclusivamente para reproducción en 2D B[2]2d, mientras que se omite la lectura del bloque exclusivamente para reproducción SS B[2]ss. A la inversa, en un modo de reproducción en 3D, se omite la lectura del bloque exclusivamente para reproducción en 2D B[2]2d, mientras que se lee el bloque exclusivamente para reproducción SS B[2]ss. Sin embargo, puesto que los bloques de datos B[2]2d y B[2]ss coinciden bit a bit, los fotogramas de vídeo de vista de base que se reproduce son los mismos en ambos modos de reproducción. En la disposición 1, la ruta A110 de reproducción en modo de reproducción en 2D y la ruta A120 de reproducción en un modo de reproducción en 3D se dividen antes y después del salto largo Jly de esta manera. Por consiguiente, a diferencia de la disposición mostrada en la Figura 21, el tamaño Sext2d[1] del segmento de 2D EXT2D[1] localizado inmediatamente antes del límite de capa LB y el tamaño Sext2[1] del bloque de datos de vista dependiente D[1] inmediatamente anterior puede determinarse de manera separada como sigue.
El tamaño Sext2d[1] del segmento de 2D EXT2D[1] equivale a Sext-i[1] + S2D, la suma del tamaño Sext-i[1] del bloque de datos de vista de base B[1] y el tamaño S2D del bloque exclusivamente para reproducción en 2D B[2]2d. Por consiguiente, para reproducción de imágenes de vídeo en 2D de manera ininterrumpida, esta suma Sext-i[1] + S2D debería satisfacer la expresión 1. El tiempo de salto máximo Tjump max del salto largo Jly se sustituye en el lado de la derecha de la expresión 1 como el tiempo de salto Tjump-2d. A continuación, el número de sectores desde el final del bloque exclusivamente para reproducción en 2D B[2]2d al primer segmento en 2D EXT2D[2] = B[3] en el segundo bloque A002 de segmento debería ser igual a o menor que la distancia de salto máxima Sjump_max para el salto largo Jly especificado de acuerdo con las capacidades del dispositivo de reproducción en 2D.
Por otra parte, para reproducción de imágenes de vídeo en 3D de manera ininterrumpida, los tamaños Sext2[1] y Sext-i[1] del bloque de datos de vista dependiente D[1] y del bloque de datos de vista de base B[1] localizado al final del primer segmento SS EXTSS[0] deberían satisfacer las expresiones 3 y 2. Independientemente de la aparición de un salto largo Jly, un valor típico para un tiempo de transición de sector cero debería sustituirse en el lado de la derecha de las expresiones 3 y 2 como el tiempo de transición de sector ceros TjuMP0[2n + 1] y TjuMP0[2n + 2]. A
5
10
15
20
25
30
35
40
45
50
55
continuación, el tamaño del primer segmento SS EXTSS[0] debería satisfacer la condición 4. Adicionalmente, el número de sectores desde el final de este segmento SS EXTSS[0] a la parte superior del segmento SS EXTSS[1] debería ser igual a o menor que la distancia de salto máxima Sjump_max para un salto largo Jly especificado de acuerdo con las capacidades del dispositivo de reproducción en 3D.
Dentro del segmento de 2D EXT2D[1] localizado inmediatamente antes de un límite de capa LB, únicamente el bloque de datos de vista de base B[1] localizado delante del segmento de 2D EXT2D[1] se comparte con el primer segmento SS EXTSS[0]. Por consiguiente, ampliando apropiadamente el tamaño S2D del bloque exclusivamente para reproducción en 2D B[2]2d, el tamaño Sext-i[1] del bloque de datos de vista de base B[1] puede limitarse adicionalmente mientras se mantiene el tamaño Sext2D[1] = Sext1[1] + S2D del segmento de 2D EXT2D[1] constante. En este caso, el tiempo de ATC de segmento del bloque de datos de vista de base B[1] se acorta. Como resultado, el tamaño Sext2[1] del bloque de datos de vista dependiente D[1] localizado inmediatamente antes puede limitarse también adicionalmente.
Puesto que el bloque exclusivamente para reproducción SS B[2]ss y el bloque exclusivamente para reproducción en 2D B[2]2d coinciden bit a bit, ampliar el tamaño S2D del bloque exclusivamente para reproducción en 2D B[2]2d amplía el tamaño del bloque de datos de vista dependiente D[2] localizado inmediatamente antes del bloque exclusivamente para reproducción SS B[2]ss. Sin embargo, este tamaño puede hacerse suficientemente menor que el tamaño del bloque de datos de vista dependiente D[3] localizado inmediatamente antes del límite de capa LB mostrado en la Figura 21. La capacidad de la RB1 4221 y RB2 4222 puede llevarse por lo tanto incluso más cerca de la cantidad mínima necesaria para reproducción de imágenes de vídeo en 3D de forma ininterrumpida. Por lo tanto es posible establecer cada bloque de datos en la disposición 1 para que sea un tamaño en el que es posible la reproducción ininterrumpida de tanto imágenes de vídeo en 2D como en 3D durante un salto largo mientras se mantiene la capacidad de la memoria intermedia de lectura que se ha de garantizar en el dispositivo 102 de reproducción al mínimo necesario.
En la disposición 1, los datos duplicados del bloque exclusivamente para reproducción en 2D B[2]2d están dispuestos en el primer bloque A001 de segmento como un único bloque exclusivamente para reproducción SS B[2]ss. Como alternativa, estos datos duplicados pueden dividirse en dos o más bloques exclusivamente para reproducción SS.
«Disposición 2>>
La Figura 102 es un diagrama esquemático que muestra la disposición 2 de un grupo de bloques de datos registrados antes y después de un límite de capa LB en un disco 101 BD-ROM. Como se muestra comparando la Figura 102 con la Figura 100, la disposición 2 se diferencia de la disposición 1 en que un bloque A202 de segmento, que incluye bloques exclusivamente para reproducción SS B[2]ss y B[3]ss, está localizado inmediatamente antes de un límite de capa LB.
Como se muestra en la Figura 102, un primer bloque A201 de segmento, bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d, y el segundo bloque A202 de segmento están localizados antes de un límite de capa LB en este orden, y un bloque A203 de tercer segmento está localizado después del límite de capa LB. En los bloques A201-A203 de segmento, los bloques de datos de vista dependiente D[n] y bloques de datos de vista de base B[n] forman una disposición intercalada (n = ..., 0, 1,2, 3, 4, ...). En particular, los tiempos de ATC de segmento son los mismos entre el enésimo par de segmentos D[n] y B[n]. En el segundo bloque A202 de segmento, los datos del flujo son continuos con los bloques de datos D[1] y B[1] localizados al final del primer bloque A201 de segmento y los bloques de datos D[4] y B[4] localizados en la parte superior del tercer bloque A203 de segmento. Los bloques de datos de vista de base incluidos en el segundo bloque A202 de segmento son tanto bloques exclusivamente para reproducción SS, B[2]ss como B[3]ss, y la combinación de estos bloques B[2]ss + B[3]ss coincide bit a bit con el bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d localizado antes del segundo bloque A202 de segmento.
Dentro del bloque de datos de vista de base mostrado en la Figura 102, los bloques de datos distintos de los bloques exclusivamente para reproducción SS B[2]ss y B[3]ss pueden accederse como segmentos EXT2D[0], EXT2D[1] y EXT2D[2] en un fichero en 2D A210. En particular, el par del último bloque de datos de vista de base B[1] y el bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d en el primer bloque A201 de segmento pueden accederse como un único segmento de 2D EXT2D[1], Adicionalmente, los bloques de datos de vista de base no localizados en el segundo bloque A202 de segmento, es decir los bloques de datos B[0], B[1] y B[4] en los bloques de segmento A201 y A203, pueden extraerse también como los segmentos EXT1[0], EXT1[1] y EXT1[4] en el fichero base A211 desde los segmentos EXTSS[0] y EXTSS[1] en el fichero SS A220. A la inversa, el bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d puede accederse únicamente como parte del segmento de 2D EXT2D[1]. Por otra parte, los bloques exclusivamente para reproducción SS B[2]ss y B[3]ss pueden extraerse desde el segmento SS EXTSS[1] como segmentos de vista de base EXT1[2] y EXTl[3].
La Figura 103 es un diagrama esquemático que muestra una ruta A310 de reproducción en modo de reproducción en 2D y una ruta A320 de reproducción en un modo de reproducción en 3D para el grupo de bloques de datos en la disposición 2 mostrada en la Figura 102. El dispositivo 102 de reproducción en modo de reproducción en 2D
5
10
15
20
25
30
35
40
45
50
55
60
reproduce el fichero en 2D A210. Por consiguiente, como se muestra por la ruta A310 de reproducción en modo de reproducción en 2D, el bloque de datos de vista de base B[0] segundo desde el extremo del primer bloque A201 de segmento se lee como el primer segmento en 2D EXT2D[0], y a continuación se omite la lectura del bloque de datos de vista dependiente inmediatamente posterior D[1] por un salto J2d1. A continuación, el par del último bloque de datos de vista de base B[1] en el primer bloque A201 de segmento y el bloque inmediatamente posterior exclusivamente para reproducción en 2D (B[2] + B[3])2d se leen de manera continua como el segundo segmento en 2D EXT2D[1]. Un salto largo J ly tiene lugar inmediatamente después, y se omite la lectura del segundo bloque A202 de segmento y el bloque de datos de vista dependiente D[4] localizados en la parte superior del tercer bloque A203 de segmento. Posteriormente, el primer bloque de datos de vista de base B[4] en el tercer bloque A203 de segmento se lee como el tercer segmento en 2D EXT2D[2]. El dispositivo 102 de reproducción en un modo de reproducción en 3D reproduce el fichero SS A220. Por consiguiente, como se muestra por la ruta A320 de reproducción en un modo de reproducción en 3D, el primer bloque de segmento completo A201 se lee de manera continua como el primer segmento SS EXTSS[0]. Un salto Jex tiene lugar inmediatamente después, y se omite la lectura del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d. A continuación, todo el segundo bloque A202 de segmento se lee de manera continua como el segundo segmento SS EXTSS[1]. Inmediatamente después, tiene lugar un salto largo Jly para omitir a través de un límite de capa LB. Posteriormente, todo el tercer bloque A203 de segmento se lee de manera continua como el tercer segmento SS EXTSS[2].
Como se muestra en la Figura 103, en modo de reproducción en 2D, se lee el bloque exclusivamente para reproducción en 2D (B[2]+B[3])2d, mientras que se omite la lectura de los bloques exclusivamente para reproducción sS B[2]ss y B[3]ss. A la inversa, en un modo de reproducción en 3D, se omite la lectura del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d, mientras que se leen los bloques exclusivamente para reproducción SS B[2]ss y B[3]ss. Sin embargo, puesto que el bloque exclusivamente para reproducción en 2D (B[2]+B[3])2d coincide con la totalidad de los bloques exclusivamente para reproducción Ss B[2]ss + B[3]ss bit a bit, los fotogramas de vídeo de vista de base que se reproducen son los mismos en ambos modos de reproducción. En la disposición 2, la ruta A310 de reproducción en modo de reproducción en 2D y la ruta A320 de reproducción en un modo de reproducción en 3D se divide antes y después del salto largo Jly de esta manera. Por consiguiente, el tamaño Sext2d[1] del segmento de 2D EXT2D[1] localizado inmediatamente antes del límite de capa LB y el tamaño Sext2[1] del bloque de datos de vista dependiente inmediatamente anterior D[1] puede determinarse de manera separada como sigue.
El tamaño Sext2d[1] del segmento de 2D EXT2D[1] equivale a Sext[1] + S2D, la suma del tamaño Sexti[1] del bloque de datos de vista de base B[1] y el tamaño S2D del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d. Por consiguiente, para reproducción ininterrumpida de imágenes de vídeo en 2D, esta suma Sexti[1] + S2D debería satisfacer la expresión 1. El tiempo de salto máximo Tjump_max del salto largo Jly se sustituye en el lado de la derecha de la expresión 1 como el tiempo de salto Tjump-2d. A continuación, el número de sectores desde el final del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d al primer segmento en 2D EXT2D[2] = B[4] en el tercer bloque A203 de segmento debería ser igual a o menor que la distancia de salto máxima Sjump_max para el salto largo Jly especificado de acuerdo con las capacidades del dispositivo de reproducción en 2D.
Por otra parte, para reproducción ininterrumpida de imágenes de vídeo en 3D, los tamaños Sext2[1] y Sexti[1] del bloque de datos de vista dependiente D[1] y del bloque de datos de vista de base B[1] localizado al final del primer segmento SS EXTSS[0] deberían satisfacer las expresiones 3 y 2. Independientemente de la aparición de un salto Jex, un valor típico para una transición de sector cero time debería sustituirse en el lado de la derecha de las expresiones 3 y 2 como los tiempos de transición de sector cero TjuMP0[2n + 1] y TjuMP0[2n + 2]. A continuación, los tamaños Sext2[3] y Sexti[3] del bloque de datos de vista dependiente D[3] y del bloque exclusivamente para reproducción SS B[3]ss localizados al final del segundo segmento SS EXTSS[1] deberían satisfacer las expresiones 3 y 2. Independientemente de la aparición de un salto largo Jly, un valor típico para un tiempo de transición de sector cero debería sustituirse en el lado derecho de las expresiones 3 y 2 como los tiempos de transición de sector cero TjuMP0[2n + 1] y TjuMP0[2n + 2].
Únicamente el bloque de datos de vista de base B[1] localizado delante del segmento de 2D EXT2D[1] se comparte con el segmento SS EXTSS[1]. Por consiguiente, ampliando apropiadamente el tamaño s2d del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d, el tamaño Sexti[1] del bloque de datos de vista de base B[1] puede limitarse adicionalmente mientras se mantiene el tamaño Sext2D[1] = Sexti[1] + S2D del segmento de 2d EXT2D[1] constante. Como resultado, el tamaño Sext2[1] del bloque de datos de vista dependiente D[1] localizado inmediatamente antes puede limitarse también adicionalmente.
Los bloques exclusivamente para reproducción SS B[2]ss + B[3]ss coinciden completamente con el bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d bit a bit. Por consiguiente, ampliar el tamaño S2D del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d amplía los tamaños de los bloques de datos de vista dependiente D[2] y D[3] respectivamente localizados inmediatamente antes de los bloques exclusivamente para reproducción SS B[2]ss y B[3]ss. Sin embargo, existen dos bloques exclusivamente para reproducción SS B[2]ss y B[3]ss en comparación con un bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d. Como resultado, los tamaños de cada uno de los bloques exclusivamente para reproducción SS B[2]ss y B[3]ss pueden hacerse suficientemente pequeños. La capacidad de la RB1 4221 y RB2 4222 puede reducirse por lo tanto adicionalmente a una cantidad mínima necesaria para reproducción ininterrumpida de imágenes de vídeo en 3D. Por lo tanto es
5
10
15
20
25
30
35
40
45
50
55
posible establecer cada bloque de datos en la disposición 2 para que sea un tamaño en el que es posible la reproducción ininterrumpida tanto de imágenes de vídeo en 2D como 3D mientras se mantiene la capacidad de memoria intermedia de lectura que se ha de garantizar en el dispositivo 102 de reproducción al mínimo necesario.
Como se explica con referencia a la Figura 90, el bloque de datos menor en tamaño dispuesto al final de un bloque de segmento situado inmediatamente antes de un salto largo es, el que es el límite inferior más pequeño de la capacidad de RB2 4222. Por consiguiente, la disposición 2 se establece preferentemente para satisfacer las siguientes dos condiciones. En ese caso, en el segundo bloque A202 de segmento, que incluye bloques exclusivamente para reproducción en 3D B[2]ss y B[3]ss, cada bloque de datos es suficientemente pequeño en tamaño. Como resultado, el límite inferior de la capacidad de RB2 4222 puede reducirse adicionalmente.
La primera condición es que se especifique un límite superior para el tamaño del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d dispuesto inmediatamente antes del segundo bloque A202 de segmento. Por ejemplo, como se muestra en la Figura 103, el tamaño S2D del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d está restringido a igual a o menor que 20000 sectores. El límite superior depende del rendimiento de salto del dispositivo de reproducción en 2D. La segunda condición es que se especifique un límite superior Text_3d_max para el tiempo de ATC de segmento de los bloques exclusivamente para reproducción en 3D b[2]ss y B[3]ss. Es decir, el tamaño de los bloques exclusivamente para reproducción en 3D B[2]ss y B[3]ss satisface, en lugar de la expresión 1, la siguiente expresión: SEXT1[n] < REXT1[n] 3 Text_3d_max. El límite superior Text_3d_max se establece a, por ejemplo, 0,5 segundos.
La Figura 104 es un diagrama esquemático que muestra las relaciones entre el tiempo de lectura Sext-i[3]/Rud72 del bloque exclusivamente para reproducción en 3D B[3]ss localizado al final del segundo bloque A202 de segmento y el límite inferior de la capacidad de RB2 4222. Como se muestra en la Figura 104, la cantidad de datos almacenada de DA2 en la RB2 4222 alcanza un valor máximo DM2 en el punto en el inicio de lectura del bloque exclusivamente para reproducción en 3D B[3]ss. El valor máximo DM2 es igual a o mayor que un valor que se obtiene multiplicando la tasa de transferencia de vista dependiente Rext2[3] por la suma de la longitud Sext-i[3]/Rud72 del periodo de lectura del bloque exclusivamente para reproducción en 3D B[3]ss, el tiempo requerido para un salto largo Tly, y la longitud Sext2[4]/Rud72 del periodo de precarga: DM2 > (Sext1[3]/Rud72+Tly+Sext2[4]/Rud72)xRext2[3]. Por consiguiente, si el tamaño del bloque exclusivamente para reproducción en 3D B[3]ss es un valor Sl[3] que es mayor que, la longitud Sl[3]/Rud72 del periodo de lectura aumenta. Por lo tanto, como se muestra por la línea discontinua en la Figura 104, el valor máximo DM20 de la cantidad de datos almacenada de DA2 en la RB2 4222 aumenta. Por esta razón, se usan las dos condiciones anteriormente descritas para restringir el tamaño de cada uno de los bloques exclusivamente para reproducción en 3D B[2]ss, B[3]ss a un valor pequeño. Esto posibilita que el límite inferior de la capacidad de rB2 4222 se reduzca adicionalmente.
Obsérvese que, para que se satisfaga la condición 4, el tamaño del bloque de datos situado en la parte superior de cada bloque de segmento, en concreto la longitud del periodo de precarga, necesita mantenerse suficientemente grande. Por lo tanto con respecto al bloque exclusivamente para reproducción en 3D situado en la parte superior del bloque de segmento, el tiempo de ATC de segmento del mismo puede superar el límite superior Text_3d_max.
La disposición 2 puede proporcionarse en una posición donde puede iniciarse una reproducción interrumpida, así como antes del límite de capa LB. En la Figura 102, los vértices de los triángulos A230, A231 y A232 indican posiciones donde puede iniciarse una reproducción interrumpida, en concreto las posiciones en el disco BD-ROM donde se registran puntos de entrada. El punto de entrada indicado por el triángulo blanco A230 representa una posición donde puede iniciarse una reproducción interrumpida en el modo de reproducción en 2D. El punto de entrada indicado por los triángulos negros A231 y A232 representa posiciones donde puede iniciarse una reproducción interrumpida en el modo de reproducción en 3D. Cada uno de los bloques exclusivamente para reproducción en 3D B[2]ss, B[3]ss es suficientemente menor en tamaño que el bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d, y por lo tanto el tamaño del bloque de datos de vista dependiente correspondiente D[2], D[3] es suficientemente pequeño. Como resultado, cuando se realiza una reproducción interrumpida en el modo de reproducción en 3D, el tiempo requerido desde el inicio de acceso al punto de entrada A231, a232 al inicio de decodificación del bloque de datos D[2], B[2]ss es corto. Es decir, se inicia rápidamente una reproducción interrumpida en el modo de reproducción en 3D.
En la disposición 2, los datos duplicados del bloque exclusivamente para reproducción en 2D (B[2] + B[3])2d se dividen en dos bloques exclusivamente para reproducción SS B[2]ss y B[3]ss. Como alternativa, los datos duplicados pueden ser un bloque exclusivamente para reproducción SS o pueden dividirse en tres o más bloques exclusivamente para reproducción SS.
<Bandera de par de segmentos>
La Figura 105 es un diagrama esquemático que muestra puntos A510 y A520 de entrada establecidos para los segmentos EXT1[k] y EXT2[k] (la letra k representa un número entero mayor o igual a 0) en una base de fichero A501 y un fichero DEP A502. El punto A510 de entrada en el fichero base A501 se define por el mapa de entrada en el fichero de información de clip en 2D, y el punto A520 de entrada en el fichero DEP A502 se define por el mapa de entrada en el fichero de información de clip de vista dependiente. Cada punto A510 de entrada y A520
5
10
15
20
25
30
35
40
45
50
55
60
particularmente incluye una bandera de par de segmentos. Cuando un punto de entrada en el fichero base A501 y un punto de entrada en el fichero DEP A502 indican la misma PTS, una “bandera de par de segmentos” indica si los segmentos en los que se establecen estos puntos de entrada EXT1[i] y EXT2[j] están o no en el mismo orden desde la parte superior de los ficheros A501 y a502 (i = j o i t j). Como se muestra en la Figura 105, la PTS del primer punto A530 de entrada establecida en el segmento de vista base de orden (n + 1) EXT1[n] (la letra n representa un número entero mayor o igual a 1) equivale a la PTS del último punto A540 de entrada establecida en el segmento de vista dependiente de orden (n - 1) EXT2[n - 1]. Por consiguiente, el valor de la bandera de par de segmentos para los puntos A530 y A540 de entrada se establece a “0”. De manera similar, la PTS del último punto A531 de entrada establecida en el segmento de vista base de orden (n + 1) EXT1[n] equivale a la PTS del primer punto A541 de entrada establecida en el segmento de vista dependiente de orden (n + 1) EXT2[n + 1]. Por consiguiente, el valor de la bandera de par de segmentos para los puntos A531 y A541 de entrada se establece a “0”. Para otros puntos A510 y A520 de entrada, cuando las PTS son iguales, el orden de los segmentos EXT1[] y EXT2[] en los que se establecen estos puntos es también igual, y por lo tanto el valor de la bandera de par de segmentos se establece a “1”.
Cuando el dispositivo 102 de reproducción en un modo de reproducción en 3D comienza la reproducción interrumpida, hace referencia a la bandera de par de segmentos en el punto de entrada de la posición de inicio de reproducción. Cuando el valor de la bandera es “1”, la reproducción realmente se inicia desde ese punto de entrada. Cuando el valor es “0”, el dispositivo 102 de reproducción busca, antes o después de ese punto de entrada, otro punto de entrada que tenga una bandera de par de segmentos con un valor de “1”. La reproducción se inicia desde ese otro punto de entrada. Esto asegura que el enésimo segmento de vista dependiente EXT2[n] se lea antes del enésimo segmento de vista base EXT1[n]. Como resultado, puede simplificarse la reproducción interrumpida.
El tiempo de presentación que corresponde a la distancia entre puntos de entrada que tiene una bandera de par de segmentos = 0 puede limitarse para que no sea mayor que un número constante de segundos. Por ejemplo, el tiempo puede limitarse para que sea menor que o igual a dos veces el valor máximo del tiempo de presentación para un GoP. En el inicio de la reproducción interrumpida, esto puede acortar el tiempo de espera hasta que comience la reproducción, que se provoca buscando un punto de entrada que tiene una bandera de par de segmentos = 1. Como alternativa, el valor de la bandera de par de segmentos el punto de entrada que sigue un punto de entrada con una bandera de par de segmentos = 0 puede limitarse a un valor de “1”. Una bandera de conmutación de ángulo puede usarse también como un sustituto para una bandera de par de segmentos. Una “bandera de conmutación de ángulo” es una bandera preparada en el mapa de entrada para contenido que soporta múltiples ángulos. La bandera de conmutación de ángulo conmuta la posición en datos de flujo multiplexados (véase a continuación para una descripción de múltiples ángulos).
<Coincidir periodos de reproducción entre bloques de datos>
Para pares de bloques de datos con iguales tiempos de ATC de segmento, el periodo de reproducción puede coincidir también, y el tiempo de reproducción del flujo de vídeo puede ser igual. En otras palabras, el número de VAU puede ser igual entre estos bloques de datos. El significado de tal igualdad se explica a continuación.
La Figura 106A es un diagrama esquemático que muestra una ruta de reproducción cuando los tiempos de ATC de segmento y tiempos de reproducción del flujo de vídeo difieren entre bloques de datos de vista de base y bloques de datos de vista dependiente contiguos. Como se muestra en la Figura 106a, el tiempo de reproducción del bloque de datos de vista de base superior B[0] es cuatro segundos, y el tiempo de reproducción del bloque de datos de vista dependiente superior D[0] es un segundo. En este caso, la sección del flujo de vídeo de vista de base que es necesaria para decodificar del bloque de datos de vista dependiente D[0] tiene el mismo tiempo de reproducción que el bloque de datos de vista dependiente D[0]. Por consiguiente, para ahorrar capacidad memoria intermedia de lectura en el dispositivo de reproducción, se prefiere, como se muestra por la flecha ARW1 en la Figura 106A, que el dispositivo de reproducción tenga que leer de manera alterna el bloque de datos de vista de base B[0] y el bloque de datos de vista dependiente D[0] por la misma cantidad de tiempo de reproducción, por ejemplo un segundo en un tiempo. En ese caso, sin embargo, como se muestra por las líneas discontinuas en la Figura 106A, el salto tiene lugar durante el procesamiento de lectura. Como resultado, es difícil provocar que el procesamiento de lectura se mantenga con el procesamiento de decodificación, y por lo tanto es difícil mantener de manera estable la reproducción ininterrumpida.
La Figura 106B es un diagrama esquemático que muestra una ruta de reproducción cuando los tiempos de reproducción del flujo de vídeo son iguales para bloques de datos de vista de base y de vista dependiente contiguos. Como se muestra en la Figura 106B, el tiempo de reproducción del flujo de vídeo entre un par de bloques de datos adyacentes pueden ser el mismo. Por ejemplo, para el par de los bloques de datos superiores B[0] y D[0], los tiempos de reproducción del flujo de vídeo ambos son iguales a un segundo, y los tiempos de reproducción del flujo de vídeo para el segundo par de bloques de datos B[1] y D[1] ambos son iguales a 0,7 segundos. En este caso, durante el modo de reproducción en 3D, el dispositivo de reproducción lee bloques de datos B[0], D[0], B[1], D[1], ... en orden desde la parte superior, como se muestra por la flecha ARW2 en la Figura 106B. Leyendo simplemente estos bloques de datos en orden, el dispositivo de reproducción puede leer de manera suave el TS principal y sub- TS de manera alterna en los mismos incrementos de tiempo de reproducción. En particular, puesto que no tiene lugar salto durante el procesamiento de lectura, la reproducción ininterrumpida de imágenes de vídeo en 3D puede
5
10
15
20
25
30
35
40
45
50
55
mantenerse de manera estable.
Si el tiempo de ATC de segmento es realmente el mismo entre bloques de datos de vista de base y de vista dependiente contiguos, los saltos no tienen lugar durante la lectura, y puede mantenerse la decodificación síncrona. Por consiguiente, incluso si el periodo de reproducción o el tiempo de reproducción del flujo de vídeo no son iguales, el dispositivo de reproducción puede mantener de manera fiable la reproducción ininterrumpida de imágenes de vídeo en 3D simplemente leyendo grupos de bloques de datos en orden desde la parte superior, como en el caso mostrado en la Figura 106B.
El número de cualquiera de los encabezamientos en una VAU, y el número de encabezamientos de PES, puede ser igual para bloques de datos de vista de base y de vista dependiente contiguos. Estos encabezamientos se usan para sincronizar la decodificación entre bloques de datos. Por consiguiente, si el número de encabezamientos es igual entre bloques de datos, es relativamente fácil para mantener la decodificación síncrona, incluso si el número de VAU no es igual. Adicionalmente, a diferencia de cuando el número de VAU es igual, todos los datos en las VAU no necesitan multiplexarse en el mismo bloque de datos. Por lo tanto, hay un alto grado de libertad para multiplexar datos de flujo durante el procedimiento de autoría del disco 101 BD-ROM.
El número de puntos de entrada puede ser igual para bloques de datos de vista de base y de vista dependiente contiguos. Haciendo referencia de nuevo a la Figura 105, en el fichero base A501 y el fichero DEP A502, los segmentos EXT1[n] y EXT2[n], localizados en el mismo orden desde la parte superior, tienen el mismo número de puntos A510 y A520 de entrada, después de excluir los puntos de entrada A530, A540, A531, A541 con una bandera de par de segmentos = 0. Si están presentes diferentes saltos entre modo de reproducción en 2D y modo de reproducción en 3D. Cuando el número de puntos de entrada es igual entre bloques de datos, sin embargo, el tiempo de reproducción es sustancialmente igual. Por consiguiente, es fácil mantener la decodificación síncrona independientemente de los saltos. Adicionalmente, a diferencia de cuando el número de VAU es igual, todos los datos en las VAU no necesitan multiplexarse en el mismo bloque de datos. Por lo tanto, hay un alto grado de libertad para multiplexar datos de flujo durante el procedimiento de autoría del disco 101 BD-ROM.
<Múltiples ángulos>
La Figura 107A es un diagrama esquemático que muestra una ruta de reproducción para datos de flujo multiplexados que soportan múltiples ángulos. Como se muestra en la Figura 107A, tres tipos de piezas de los datos de flujo L, R y D respectivamente para una vista de base, vista derecha y mapa de profundidad se multiplexan en los datos de flujo multiplexados. Por ejemplo, en modo L/R las piezas de la vista de base y de vista derecha de los datos de flujo L y R se reproducen en paralelo. Adicionalmente, las piezas de los datos de flujo Ak, Bk y Ck (k = 0, 1, 2, ..., n) para diferentes ángulos (ángulos de visualización) se multiplexan en la sección reproducida durante un periodo de reproducción de múltiples ángulos Pang. Los datos de flujo Ak, Bk y Ck para diferentes ángulos se dividen en secciones para las que el tiempo de reproducción equivale al intervalo de cambio de ángulo. Adicionalmente, los datos de flujo para la vista de base, vista derecha y mapa de profundidad se multiplexan en cada una de las piezas de datos Ak, Bk y Ck. Durante el periodo de reproducción de múltiples ángulos Pang, la reproducción puede conmutarse entre las piezas de los datos de flujo Ak, Bk y Ck para diferentes ángulos en respuesta una operación de usuario o instrucción por un programa de aplicación.
La Figura 107B es un diagrama esquemático que muestra un grupo A701 de bloques de datos registrado en un disco BD-ROM y una correspondiente ruta A702 de reproducción en modo L/R. Este grupo A701 de bloques de datos incluye las piezas de los datos de flujo L, R, D, Ak, Bk y Ck mostrados en la Figura 107a. Como se muestra en la Figura 107B, en el grupo A701 de bloques de datos, además de las piezas normales de los datos de flujo L, R y D, las piezas de los datos de flujo Ak, Bk y Ck para diferentes ángulos se registran en una disposición intercalada. En modo L/R, como se muestra en la ruta A702 de reproducción, se leen bloques de datos de la vista derecha y de vista de base R y L, y se omite la lectura de los bloques de datos de mapa de profundidad D por saltos. Adicionalmente, de entre las piezas de los datos de flujo Ak, Bk y Ck para diferentes ángulos, se leen los bloques de datos para los ángulos seleccionados A0, B1, ..., Cn, y se omite la lectura de otros bloques de datos por saltos.
La Figura 107C es un diagrama esquemático que muestra un bloque de segmento formado por los datos de flujo Ak, Bk y Ck para diferentes ángulos. Como se muestra en la Figura 107C, las piezas de los datos de flujo Ak, Bk y Ck para cada ángulo están compuestas de tres tipos de bloques de datos L, R y D registrados en una disposición intercalada. En modo L/R, como se muestra por la ruta A702 de reproducción, de entre las piezas de los datos de flujo Ak, Bk y Ck para diferentes ángulos, los bloques de datos de vista derecha y de vista de base R y L se leen para los ángulos seleccionados A0, B1, ..., Cn. A la inversa, se omite la lectura de los otros bloques de datos por saltos.
Obsérvese que en las piezas de los datos de flujo Ak, Bk y Ck para cada ángulo, los datos de flujo para la vista de base, vista derecha y mapa de profundidad pueden almacenarse como una única pieza de datos de flujo multiplexados. Sin embargo, la tasa de registro tiene que limitarse al intervalo de la tasa de sistema para la que es posible la reproducción en el dispositivo de reproducción en 2D. También, el número de piezas de los datos de flujo (TS) para que se transfieran al decodificador objetivo de sistema se diferencia entre tales piezas de datos de flujo multiplexados y datos de flujo multiplexados para otras imágenes de vídeo en 3D. Por consiguiente, cada PI en el
5
10
15
20
25
30
35
40
45
50
55
fichero de lista de reproducción en 3D puede incluir una bandera que indica el número de TS a reproducirse. Haciendo referencia a esta bandera, el dispositivo de reproducción en 3D puede conmutar entre estas piezas de datos de flujo multiplexados dentro de un fichero de lista de reproducción en 3d. En la PI que especifica dos TS para reproducción en un modo de reproducción en 3D, esta bandera indica 2TS. Por otra parte, en la PI que especifica un único TS para reproducción, tal como las anteriores piezas de datos de flujo multiplexados, la bandera indica 1TS. El dispositivo de reproducción en 3D puede conmutar el ajuste del decodificador objetivo de sistema de acuerdo con el valor de la bandera. Adicionalmente, esta bandera puede expresarse por el valor de la condición de conexión (CC). Por ejemplo, una CC de “7” indica una transición desde 2TS a 1TS, mientras que una CC de “8” indica una transición desde 1TS a 2TS.
La Figura 108 es un diagrama esquemático que muestra (i) un grupo A801 de bloques de datos que constituyen un periodo de múltiples ángulos y (ii) una ruta A810 de reproducción en modo de reproducción en 2d y ruta a820 de reproducción en modo L/R que corresponden al grupo A801 de bloques de datos. Como se muestra en la Figura 108, este grupo A801 de bloques de datos está formado por tres tipos de secciones de cambio de ángulo ANG1 n.° k, ANG2 n.° k y ANG3 n.° k (k = 1, 2, ..., 6, 7) en una disposición intercalada. Una “sección de cambio de ángulo” es un grupo de bloques de datos consecutivos en los que se almacenan datos de flujo para las imágenes de vídeo vistas desde un único ángulo. El ángulo de imágenes de vídeo se diferencia entre diferentes tipos de secciones de cambio de ángulo. Las secciones de orden k de cada tipo de sección de cambio de ángulo ANG1 n.° k, ANG2 n.° k y ANG3 n.° k son contiguas. Cada sección de cambio de ángulo ANGm n.° k (m = 1,2, 3) se forma por un bloque de segmento, es decir se denomina como un segmento SS EXTSS[k] (k = 10, 11, ..., 23). La capacidad de la memoria intermedia de lectura puede reducirse por lo tanto en comparación con cuando una pluralidad de secciones de cambio de ángulo forman un segmento SS EXTSS[k]. Adicionalmente, cada bloque de segmento incluye un bloque de datos de vista dependiente R y un bloque de datos de vista de base L. Este par de bloques de datos R y L se denomina como un par del enésimo segmento de vista dependiente EXT2[n] y el enésimo segmento de vista base EXT1[n] (la letra n representa un número entero mayor o igual a 0).
El tamaño de cada bloque de segmento satisface las condiciones 1-4. En particular, el salto que debería tenerse en cuenta en la condición 1 es el salto Jang-2d para omitir la lectura de otras secciones de cambio de ángulo, como se muestra por la ruta A810 de reproducción en modo de reproducción en 2D. Por otra parte, el salto que debería tenerse en cuenta en la condición 4 es el salto Jang-lr para omitir la lectura de otras secciones de cambio de ángulo, como se muestra por la ruta A820 de reproducción en modo L/R. Como se muestra por las rutas de reproducción A810 y A820, ambos de estos saltos Jang-2d y Jang-lr incluyen en general una conmutación de ángulo, es decir un conmutador entre los tipos de sección de cambio de ángulo a leerse.
Además haciendo referencia a la Figura 108, cada sección de cambio de ángulo incluye un bloque de datos de vista de base L. Por consiguiente, el tiempo de ATC de segmento del segmento de vista de base EXT1[] está limitado para que no sea mayor que el valor máximo Tang de la longitud de la sección de cambio de ángulo. Por ejemplo, para hacer posible conmutar ángulos a una tasa de una vez cada dos segundos de tiempo de presentación, el valor máximo Tang de la longitud de la sección de cambio de ángulo tiene que limitarse a dos segundos. Como resultado, el tiempo de ATC de segmento del segmento de vista de base EXT1 [■] está limitado a dos segundos o menor. Por lo tanto, la condición 5 se cambia de modo que el tamaño Sext1 del segmento de vista de base satisface la expresión 11 en lugar de la expresión 5.
imagen11
Obsérvese que el lado de la derecha de la expresión 9 puede compararse en lugar del lado de la derecha de la expresión 5. También, de una manera similar al tiempo de extensión AT del tiempo de ATC de segmento del segmento de 2D mostrado en la expresión 7A o 7B, el valor máximo Tang de la longitud de la sección de cambio de ángulo puede determinarse por la longitud de un GOP, o por el límite superior del número de segmentos que pueden reproducirse durante un tiempo predeterminado. Adicionalmente, el tiempo de extensión AT puede establecerse a “0” en los múltiples ángulos.
<Distribución de datos mediante difusión o circuito de comunicación>
El medio de registro de acuerdo con las realizaciones de la presente invención puede ser, además de un disco óptico, un medio extraíble general disponible como un medio de paquete, tal como un dispositivo de memoria de semiconductores portátil, que incluye una tarjeta de memoria SD. También, las realizaciones anteriores describen un ejemplo de un disco óptico en el que se han registrado datos de antemano, en concreto, un disco óptico de solo lectura convencionalmente disponible tal como un BD-ROM o un DVD-ROM. Sin embargo, las realizaciones de la presente invención no están limitadas de esta manera. Por ejemplo, cuando un dispositivo terminal escribe contenido de vídeo en 3D que se ha distribuido mediante difusión o una red en un disco óptico escribible convencionalmente disponible tal como un BD-RE o un DVD-RAM, puede usarse la disposición de los segmentos de
5
10
15
20
25
30
35
40
45
50
55
<Reproducción de tarjeta de memoria de semiconductores>
Lo siguiente describe una unidad de lectura de datos de un dispositivo de reproducción en el caso donde se usa una tarjeta de memoria de semiconductores como el medio de registro de acuerdo con las realizaciones de la presente invención en lugar de un disco óptico.
La parte del dispositivo de reproducción que lee datos desde un disco óptico está compuesta de, por ejemplo, una unidad de disco óptico. A la inversa, la parte del dispositivo de reproducción que lee datos desde una tarjeta de memoria de semiconductores está compuesta de una interfaz exclusiva (I/F). Específicamente, se proporciona una ranura de tarjeta con el dispositivo de reproducción, y la I/F está montada en la ranura de la tarjeta. Cuando la tarjeta de memoria de semiconductores se inserta en la ranura de la tarjeta, la tarjeta de memoria de semiconductores está conectada eléctricamente con el dispositivo de reproducción mediante la I/F. Adicionalmente, los datos se leen desde la tarjeta de memoria de semiconductores al dispositivo de reproducción mediante la I/F.
<Técnica de protección de derechos de autor para datos almacenados en el disco BD-ROM>
El mecanismo para proteger derechos de autor de datos registrados en un disco BD-ROM se describe ahora como una suposición para la siguiente explicación complementaria.
Desde un punto de vista, por ejemplo, de mejorar la protección de derechos de autor o confidencialidad de datos, hay casos en los que está encriptada una parte de los datos registrados en el BD-ROM. Los datos encriptados son, por ejemplo, un flujo de vídeo, un flujo de audio u otro flujo. En un caso de este tipo, los datos encriptados se decodifican de la siguiente manera.
El dispositivo de reproducción tiene registrado en el mismo de antemano una parte de datos necesarios para generar una “clave” para usarse para decodificar los datos encriptados registrados en el disco BD-ROM, en concreto, una clave de dispositivo. Por otra parte, el disco de BD-ROM tiene registrado en el mismo otra parte de los datos necesarios para generar la “clave”, en concreto, un bloque de clave de medios (MKB), y datos encriptados de la “clave”, en concreto, una clave de título encriptado. La clave de dispositivo, el MKB y la clave de título encriptado están asociadas entre sí, y cada una están asociadas adicionalmente con un ID particular escrito en una BCA 201 registrado en el disco 101 BD-ROM mostrado en la Figura 2, en concreto, un ID de volumen. Cuando la combinación de la clave de dispositivo, el MKB, la clave de título encriptado y el ID de volumen no es correcto, los datos encriptados no pueden decodificarse. En otras palabras, únicamente cuando la combinación es correcta, puede generarse la “clave” anteriormente mencionada, en concreto la clave de título. Específicamente, la clave de título encriptado se desencripta en primer lugar usando la clave de dispositivo, el MKB y el ID de volumen. Únicamente cuando la clave de título puede obtenerse como resultado de la desencriptación, los datos encriptados pueden decodificarse usando la clave de título como la “clave” anteriormente mencionada.
Cuando un dispositivo de reproducción intenta reproducir los datos encriptados registrados en el disco BD-ROM, el dispositivo de reproducción no puede reproducir los datos encriptados a menos que el dispositivo de reproducción tenga almacenado en el mismo una clave de dispositivo que se haya asociado de antemano con la clave de título encriptado, el MKB, el dispositivo y el ID de volumen registrado en el disco BD-ROM. Esto es debido a que una clave necesaria para decodificar los datos encriptados, en concreto una clave de título, puede obtenerse únicamente desencriptando la clave de título encriptado basándose en la combinación correcta del MKB, la clave de dispositivo y el ID de volumen.
Para proteger los derechos de autor de al menos uno de un flujo de vídeo y un flujo de audio que se han de registrar en un disco BD-ROM, un flujo a protegerse se encripta usando la clave de título, y el flujo encriptado se registra en el disco BD-ROM. A continuación, se genera una clave basándose en la combinación del MKB, la clave de dispositivo y el ID de volumen, y la clave de título se encripta usando la clave para convertirse a una clave de título encriptado. Adicionalmente, el MKB, el ID de volumen y la clave de título encriptado se registran en el disco BD-ROM. Únicamente un dispositivo de reproducción que almacena en el mismo la clave de dispositivo a usarse para generar la clave anteriormente mencionada puede decodificar el flujo de vídeo encriptado y/o el flujo de audio encriptado registrado en el disco BD-ROM usando un decodificador. De esta manera, es posible proteger los derechos de autor de los datos registrados en el disco BD-ROM.
El mecanismo anteriormente descrito para proteger los derechos de autor de los datos registrados en el disco BD- ROM es aplicable a un medio de registro distinto del disco BD-ROM. Por ejemplo, el mecanismo es aplicable a un dispositivo de memoria de semiconductores legible y escribible y en particular a una tarjeta de memoria de semiconductores portátil tal como una tarjeta de SD.
<Registrar datos en un medio de registro a través de distribución electrónica>
Lo siguiente describe el procesamiento para transmitir datos, tal como un fichero de flujo de AV para imágenes de vídeo en 3D (en lo sucesivo, “datos de distribución”), al dispositivo de reproducción de acuerdo con las realizaciones
5
10
15
20
25
30
35
40
45
50
55
de la presente invención mediante distribución electrónica y para provocar que el dispositivo de reproducción grabe los datos de distribución en una tarjeta de memoria de semiconductores. Obsérvese que las siguientes operaciones pueden realizarse por un dispositivo terminal especializado para realizar el procesamiento en lugar del dispositivo de reproducción anteriormente mencionado. También, la siguiente descripción es basándose en la suposición de que la tarjeta de memoria de semiconductores que es un destino de registro es una tarjeta de memoria SD.
El dispositivo de reproducción incluye la ranura de tarjeta anteriormente descrita. Una tarjeta de memoria SD se inserta en la ranura de la tarjeta. El dispositivo de reproducción en este estado transmite en primer lugar una solicitud de transmisión de datos de distribución a un servidor de distribución en una red. En este punto, el dispositivo de reproducción lee información de identificación de la tarjeta de memoria SD desde la tarjeta de memoria SD y transmite la información de identificación leída al servidor de distribución junto con la solicitud de transmisión. La información de identificación de la tarjeta de memoria SD es, por ejemplo, un número de identificación específico para la tarjeta de memoria SD y, más específicamente, es un número de serie de la tarjeta de memoria SD. La información de identificación se usa como el ID de volumen anteriormente descrito.
El servidor de distribución tiene almacenado en el mismo piezas de datos de distribución. Los datos de distribución que necesitan protegerse por encriptación tal como un flujo de vídeo y/o un flujo de audio se ha encriptado usando una clave de título predeterminado. Los datos de distribución encriptados pueden desencriptarse usando la misma clave de título.
El servidor de distribución almacena en el mismo una clave de dispositivo como una clave privada común con el dispositivo de reproducción. El servidor de distribución almacena adicionalmente en el mismo un MKB en común con la tarjeta de memoria SD. Tras recibir la solicitud de transmisión de datos de distribución y la información de identificación de la tarjeta de memoria SD desde el dispositivo de reproducción, el servidor de distribución genera en primer lugar una clave desde la clave de dispositivo, el MKB y la información de identificación y encripta la clave de título usando la clave generada para generar una clave de título encriptado.
A continuación, el servidor de distribución genera información de clave pública. La información de clave pública incluye, por ejemplo, el MKB, la clave de título encriptado, información de firma, el número de identificación de la tarjeta de memoria SD y una lista de dispositivos. La información de firma incluye por ejemplo un valor de troceo de la información de clave pública. La lista de dispositivos es una lista de dispositivos que necesitan invalidarse, es decir, dispositivos que tienen riesgo de realizar reproducción no autorizada de datos encriptados incluidos en los datos de distribución. La lista de dispositivos especifica la clave de dispositivo y el número de identificación para el dispositivo de reproducción, así como un número de identificación o función (programa) para cada elemento en el dispositivo de reproducción tal como el decodificador.
El servidor de distribución transmite los datos de distribución y la información de clave pública al dispositivo de reproducción. El dispositivo de reproducción recibe los datos de distribución y la información de clave pública y los registra en la tarjeta de memoria SD mediante la I/F exclusiva de la ranura de la tarjeta.
Los datos de distribución encriptados registrados en la tarjeta de memoria SD se desencriptan usando la información de clave pública de la siguiente manera, por ejemplo. En primer lugar, se realizan tres tipos de comprobaciones como autenticación de la información de clave pública. Estas comprobaciones pueden realizarse en cualquier orden.
(1) ¿Coincide la información de identificación de la tarjeta de memoria SD incluida en la información de clave pública con el número de identificación almacenado en la tarjeta de memoria SD insertada en la ranura de la tarjeta?
(2) ¿Coincide un valor de troceo calculado basándose en la información de clave pública con el valor de troceo incluido en la información de firma?
(3) ¿Está excluido el dispositivo de reproducción de la lista de dispositivos indicado por la información de clave pública? Específicamente, ¿está excluida la clave de dispositivo del dispositivo de reproducción de la lista de dispositivos?
Si al menos uno cualquiera de los resultados de las comprobaciones (1) a (3) es negativo, el dispositivo de reproducción detiene el procesamiento de desencriptación de los datos encriptados. A la inversa, si todos los resultados de las comprobaciones (1) a (3) son afirmativos, el dispositivo de reproducción autoriza la información de clave pública y desencripta la clave de título encriptado incluida en la información de clave pública usando la clave de dispositivo, el MKB y la información de identificación de la tarjeta de memoria SD, obteniendo de esta manera una clave de título. El dispositivo de reproducción desencripta adicionalmente los datos encriptados usando la clave de título, obteniendo de esta manera, por ejemplo, un flujo de vídeo y/o un flujo de audio.
El mecanismo anterior tiene la siguiente ventaja. Si un dispositivo de reproducción, elementos composicionales y una función (programa) que tienen el riesgo de usarse de una manera no autorizada ya son conocidos cuando se transmiten datos mediante la distribución electrónica, las correspondientes piezas de información de identificación se enumeran en la lista de dispositivos y se distribuyen como parte de la información de clave pública. Por otra parte, el dispositivo de reproducción que ha solicitado los datos de distribución necesita inevitablemente comparar las piezas de información de identificación incluidas en la lista de dispositivos con las piezas de información de identificación
5
10
15
20
25
30
35
40
45
50
55
60
del dispositivo de reproducción, sus elementos composicionales y similares. Como resultado, si el dispositivo de reproducción, sus elementos composicionales y similares se identifican en la lista de dispositivos, el dispositivo de reproducción no puede usar la información de clave pública para desencriptar los datos encriptados incluidos en los datos de distribución incluso si la combinación del número de identificación de la tarjeta de memoria SD, el MKB, la clave de título encriptado y la clave de dispositivo son correctos. De esta manera, es posible evitar de manera efectiva que se usen datos de distribución de una manera no autorizada.
La información de identificación de la tarjeta de memoria de semiconductores se registra de manera deseable en un área de registro que tiene alta confidencialidad incluida en un área de registro de la tarjeta de memoria de semiconductores. Esto es debido a que si la información de identificación tal como el número de serie de la tarjeta de memoria SD se ha manipulado de una manera no autorizada, es posible realizar una copia ilegal de la tarjeta de memoria SD fácilmente. En otras palabras, si la manipulación permite la generación de una pluralidad de tarjetas de memoria de semiconductores que tienen la misma información de identificación, es imposible distinguir entre productos de copia autorizados y productos no autorizados realizando la comprobación anterior (1). Por lo tanto, es necesario registrar la información de identificación de la tarjeta de memoria de semiconductores en un área de registro con alta confidencialidad para proteger la información de identificación de que se manipule de una manera no autorizada.
El área de registro con alta confidencialidad está estructurada dentro de la tarjeta de memoria de semiconductores de la siguiente manera, por ejemplo. En primer lugar, como un área de registro eléctricamente desconectada de un área de registro para registrar datos normales (en lo sucesivo, “primer área de registro”), se proporciona otro área de registro (en lo sucesivo, “segundo área de registro”). A continuación, se proporciona un circuito de control exclusivamente para acceder al segundo área de registro dentro de la tarjeta de memoria de semiconductores. Como resultado, el acceso al segundo área de registro puede realizarse únicamente mediante el circuito de control. Por ejemplo, suponiendo que únicamente se registran datos encriptados en el segundo área de registro y se incorpora un circuito para desencriptar los datos encriptados únicamente dentro del circuito de control. Como resultado, el acceso a los datos registrados en el segundo área de registro puede realizarse únicamente provocando que el circuito de control almacene en el mismo una dirección de cada pieza de datos registrados en el segundo área de registro. También, una dirección de cada pieza de datos registrados en el segundo área de registro puede almacenarse únicamente en el circuito de control. En este caso, únicamente el circuito de control puede identificar una dirección de cada pieza de datos registrados en el segundo área de registro.
En el caso donde la información de identificación de la tarjeta de memoria de semiconductores se registra en el segundo área de registro, a continuación cuando un programa de aplicación que opera en el dispositivo de reproducción obtiene datos desde el servidor de distribución mediante distribución electrónica y registra los datos obtenidos en la tarjeta de memoria de semiconductores, se realiza el siguiente procesamiento. En primer lugar, el programa de aplicación emite una solicitud de acceso al circuito de control mediante la I/F de tarjeta de memoria para acceder a la información de identificación de la tarjeta de memoria de semiconductores registrada en el segundo área de registro. En respuesta a la solicitud de acceso, el circuito de control lee en primer lugar la
información de identificación desde el segundo área de registro. A continuación, el circuito de control transmite la
información de identificación al programa de aplicación mediante la I/F de tarjeta de memoria. El programa de
aplicación transmite una solicitud de transmisión de los datos de distribución junto con la información de
identificación. El programa de aplicación registra adicionalmente, en el primer área de registro de la tarjeta de memoria de semiconductores mediante la I/F de tarjeta de memoria, la información de clave pública y los datos de distribución recibidos desde el servidor de distribución en respuesta a la solicitud de transmisión.
Obsérvese que se prefiere que el programa de aplicación anteriormente descrito compruebe si el mismo programa de aplicación se ha manipulado antes de emitir la solicitud de acceso al circuito de control de la tarjeta de memoria de semiconductores. La comprobación puede realizarse usando un certificado digital en cumplimiento con la norma X.509. Adicionalmente, es únicamente necesario registrar los datos de distribución en el primer área de registro de la tarjeta de memoria de semiconductores, como se ha descrito anteriormente. El acceso a los datos de distribución no necesita controlarse por el circuito de control de la tarjeta de memoria de semiconductores.
<Aplicación a registro en tiempo real>
La realización de la presente invención es basándose en la suposición de que un fichero de flujo de AV y un fichero de lista de reproducción se registran en un disco BD-ROM usando la técnica de pre-registro del sistema de autoría, y el fichero de flujo de AV registrado y el fichero de lista de reproducción se proporcionan a los usuarios. Como alternativa, puede ser posible registrar, realizando registro en tiempo real, el fichero de flujo de AV y el fichero de lista de reproducción en un medio de registro reconfigurable tal como un disco BD-RE, un disco BD-R, un disco duro, o una tarjeta de memoria de semiconductores (en lo sucesivo, “disco BD-RE o similares”) y proporcionar al usuario con el fichero de flujo de AV registrado y el fichero de lista de reproducción. En un caso de este tipo, el fichero de flujo de AV puede ser un flujo de transporte que se ha obtenido como resultado de la decodificación en tiempo real de una señal de entrada analógica realizada por un dispositivo de registro. Como alternativa, el fichero de flujo de AV puede ser un flujo de transporte obtenido como resultado de la parcialización de un flujo de transporte en forma digital introducido por el dispositivo de registro.
5
10
15
20
25
30
35
40
45
50
55
60
El dispositivo de registro que realiza registro en tiempo real incluye un codificador de vídeo, un codificador de audio, un multiplexor y un empaquetador de origen. El codificador de vídeo codifica una señal de vídeo para convertirla en un flujo de vídeo. El codificador de audio codifica una señal de audio para convertirla en un flujo de audio. El multiplexor multiplexa el flujo de vídeo y el flujo de audio para convertirlos en un flujo digital en el formato MPEG-2 TS. El empaquetador de origen convierte paquetes de TS en el flujo digital en formato MPEG-2 TS en paquetes de origen. El dispositivo de registro almacena cada paquete de origen en el fichero de flujo de AV y escribe el fichero de flujo de AV en el disco BD-RE o similar.
En paralelo con el procesamiento de escritura del fichero de flujo de AV, la unidad de control del dispositivo de registro genera un fichero de información de clip y un fichero de lista de reproducción en la memoria y escribe los ficheros en el disco BD-RE o similar. Específicamente, cuando un usuario solicita la realización del procesamiento de registro la unidad de control genera en primer lugar un fichero de información de clip de acuerdo con un fichero de flujo de AV y escribe el fichero en el disco BD-RE o similar. En un caso de este tipo, cada vez que se detecta una cabeza de un GOP de un flujo de vídeo desde un flujo de transporte recibido desde fuera, o cada vez que se genera un GOP de un flujo de vídeo por el codificador de vídeo, la unidad de control obtiene una PTS de una instantánea I situada en la cabecera del GOP y un SPN del paquete de origen en el que se almacena la cabecera del GOP. La unidad de control almacena adicionalmente un par de la PTS y el SPN como un punto de entrada en un mapa de entrada del fichero de información de clip. En este momento, se añade una bandera “is_angle_change” al punto de entrada. La bandera is_angle_change se establece a “activada” cuando la cabecera del GOP es una instantánea IDR, y a “desactivada” cuando la cabecera del GOP no es una instantánea de IDR. En el fichero de información de clip, la información de atributo de flujo se establece adicionalmente de acuerdo con un atributo de un flujo a registrarse. De esta manera, después de escribir el fichero de flujo de AV y el fichero de información de clip en el disco BD-RE o similares, la unidad de control genera un fichero de lista de reproducción usando el mapa de entrada en el fichero de información de clip, y escribe el fichero en el disco BD-RE o similares.
<Copia gestionada>
El dispositivo de reproducción de acuerdo con las realizaciones de la presente invención puede escribir un flujo digital registrado en el disco 101 BD-ROM en otro medio de registro mediante una copia gestionada. “Copia gestionada” hace referencia a una técnica para permitir el copiado de un flujo digital, un fichero de lista de reproducción, un fichero de información de clip y un programa de aplicación desde un medio de registro de solo lectura tal como un disco BD-ROM a un medio de registro reconfigurable únicamente en el caso donde la autenticación mediante la comunicación con el servidor es satisfactoria. El medio de registro reconfigurable puede ser un disco óptico escribible, tal como un BD-R, BD-RE, DVD-R, DVD-RW o DVD-RAM, un disco duro, o elemento de memoria de semiconductores portátil tal como una tarjeta de memoria SD, Memory Stick™, Compact Flash™, Smart Media™ o Multimedia Card™. Una copia gestionada permite la limitación del número de respaldos de datos registrados en un medio de registro de solo lectura y cobrar una cuota por copias de respaldo.
Cuando una copia gestionada se realiza desde un disco BD-ROM a un disco BD-R o un disco BD-RE y los dos discos tienen una capacidad de registro equivalente, los flujos de bits registrados en el disco original pueden copiarse en orden como están.
Si una copia gestionada se realiza entre diferentes tipos de medios de registro, necesita realizarse una transcodificación. Esta “transcodificación” hace referencia al procesamiento para ajustar un flujo digital registrado en el disco original al formato de aplicación de un medio de registro que es el destino de la copia. Por ejemplo, la transcodificación el procedimiento de convertir un formato MPEG-2 TS en un formato de flujo de programa MPEG-2 y el procedimiento de reducir una tasa de bits de cada uno de un flujo de vídeo y un flujo de audio y recodificar el flujo de vídeo y el flujo de audio. Durante la transcodificación, un fichero de flujo de AV, un fichero de información de clip y un fichero de lista de reproducción necesitan generarse en la registro en tiempo real anteriormente mencionada.
<Procedimiento para describir la estructura de datos>
Entre las estructuras de datos en las realizaciones de la presente invención, una estructura repetida “hay una pluralidad de piezas de información que tienen un tipo predeterminado” se define para describir un valor inicial de una variable de control y una condición cíclica en una sentencia “for”. También, se define una estructura de datos “si se satisface una condición predeterminada, se define información predeterminada” para describir, en una sentencia “if”, la condición y una variable para establecerse en el momento cuando se satisface la condición. De esta manera, la estructura de datos descrita en las realizaciones se describe usando un lenguaje de programación de alto nivel. Por consiguiente, la estructura de datos se convierte por un ordenador en un código legible por ordenador mediante el procedimiento de traducción realizado por un compilador, que incluye “análisis de sintaxis”, “optimización”, “asignación de recursos” y “generación de código”, y la estructura de datos se registra a continuación en el medio de registro. Describiéndose en un lenguaje de programación de alto nivel, la estructura de datos se trata como una parte distinta del procedimiento de la estructura de clase en un lenguaje orientado a objetos, específicamente como una variable miembro de tipo serie de la estructura de clase, y constituye una parte del programa. En otras palabras, la estructura de datos es sustancialmente equivalente a un programa. Por lo tanto, la estructura de datos necesita protegerse como una invención relacionada con los ordenadores.
5
10
15
20
25
30
35
40
45
50
Cuando un fichero de lista de reproducción y un fichero de flujo de AV se registran en un medio de registro, se registra un programa de reproducción en el medio de registro en un formato ejecutable. El programa de reproducción hace que el ordenador reproduzca el fichero de flujo de AV de acuerdo con el fichero de lista de reproducción. El programa de reproducción se carga desde un medio de registro en un elemento de memoria de un ordenador y se ejecuta por el ordenador. El procedimiento de carga incluye procesamiento de compilación o procesamiento de vinculación. Mediante estos procedimientos, el programa de reproducción se divide en una pluralidad de secciones en el elemento de memoria. Las secciones incluyen una sección de texto, una sección de datos, una sección bss y una sección de pila. La sección de texto incluye una serie de código del programa de reproducción, un valor inicial y datos no reescribibles. La sección de datos incluye variables con valores iniciales y datos reescribibles. En particular, la sección de datos incluye un fichero que se registra en el medio de registro y puede accederse en cualquier momento. La sección bss incluye variables que no tienen valor inicial. Los datos incluidos en la sección bss se hacen referencia en respuesta a comandos indicados por el código en la sección de texto. Durante el procesamiento de compilación o el procesamiento de vinculación, se establece un área para la sección bss aparte de la RAM interna del ordenador. La sección de pila es un área de memoria establecida temporalmente aparte según sea necesario. Durante cada uno de los procedimientos por el programa de reproducción, se usan temporalmente variables locales. La sección de pila incluye estas variables locales. Cuando se ejecuta el programa, las variables en la sección bss se establecen inicialmente a cero, y el área de memoria necesaria se establece aparte en la sección de pila.
Como se ha descrito anteriormente, el fichero de lista de reproducción y el fichero de información de clip ya se convierten en el medio de registro en código legible por ordenador. Por consiguiente, en el tiempo de ejecución del programa de reproducción, estos ficheros se gestionan cada uno como “datos no reescribibles” en la sección de texto o como un “fichero accedido en cualquier momento” en la sección de datos. En otras palabras, el fichero de lista de reproducción y el fichero de información de clip se incluyen cada uno como un elemento composicional del programa de reproducción en el tiempo de ejecución del mismo. Por lo tanto, el fichero de lista de reproducción y el fichero de información de clip desempeñan un papel mayor en el programa de reproducción que simplemente la presentación de datos.
[Aplicabilidad industrial]
La presente invención se refiere a una tecnología para reproducción de vídeo estereoscópico y como se ha descrito anteriormente, posibilita que se identifiquen paquetes de TS con uso de bandera de prioridad de TS. Es por lo tanto evidente que la presente invención es aplicable de manera industrial.
[Lista de signos de referencia]
1500 VAU n.° 1 en el flujo de vídeo de vista dependiente 1510 paquete de PES 1512 cabida útil de PES
1520 secuencia de paquete de TS
1521 primer grupo de la secuencia de paquetes de TS 1520
1522 segundo grupo de la secuencia de paquetes de TS 1520
1523 tercer grupo de la secuencia de paquetes de TS 1520
1530 paquete de TS localizado al final del primer grupo 1521
1531 encabezamiento de TS del paquete de TS 1530
1532 campo de AD del paquete de TS 1530
1533 cabida útil de TS del paquete de TS 1530
1540 paquete de TS que pertenece al segundo grupo 1522
1541 encabezamiento de TS del paquete de TS 1540
1542 cabida útil de TS del paquete de TS 1540
1550 paquete de TS localizado al final del segundo grupo 1522
1551 encabezamiento de TS del paquete de TS 1550
1552 campo de AD del paquete de TS 1550
1553 cabida útil de TS del paquete de TS 1550
1560 paquete de TS que pertenece al tercer grupo 1523
1561 encabezamiento de TS del paquete de TS 1560
1562 cabida útil de TS del paquete de TS 1560

Claims (4)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    1. Un dispositivo (102) de reproducción para reproducir imágenes de vídeo desde un medio (101) de registro, en el que
    un flujo de vídeo de vista principal, un flujo de vídeo de sub-vista y un flujo de gráficos se registran en el medio (101) de registro,
    el flujo de vídeo de vista principal incluye instantáneas de vista principal que constituyen las vistas principales de imágenes de vídeo estereoscópico,
    el flujo de vídeo de sub-vista incluye instantáneas de sub-vista y metadatos, constituyendo las instantáneas de subvista, sub-vistas de imágenes de vídeo estereoscópico,
    el flujo de gráficos incluye datos de gráficos que constituyen imágenes de gráficos monoscópicos,
    las instantáneas de vista principal se restablecen cada una en un plano de vídeo de vista principal, cuando se están
    reproduciendo,
    las instantáneas de sub-vista se restablecen cada una en un plano de vídeo de sub-vista, cuando se están reproduciendo,
    los datos de gráficos se restablecen en un plano de gráficos, cuando se están reproduciendo,
    los metadatos se proporcionan en cada grupo de instantáneas, GOP, que constituyen el flujo de vídeo de sub-vista e
    incluyen información de compensación,
    caracterizado porque
    la información de compensación es información de control que especifica el control de compensación, el control de compensación es un procedimiento para proporcionar una compensación izquierda y una compensación derecha para coordenadas horizontales en el plano de gráficos para generar un par de planos de gráficos, y a continuación combinar el par de planos de gráficos de manera separada con el plano de vídeo de vista principal y el plano de vídeo de sub-vista,
    el flujo de vídeo de sub-vista se multiplexa en un flujo de transporte, TS,
    los paquetes de TS que constituyen el TS cada uno tiene un encabezamiento que incluye una bandera de prioridad de TS que indica una prioridad del paquete de TS, y paquetes de TS que contienen los metadatos cada uno tiene un valor diferente de la bandera de prioridad de TS de paquetes de TS que contienen las instantáneas de sub-vista, comprendiendo el dispositivo (102) de reproducción:
    una unidad (3701) de lectura operable para leer datos de flujo desde el medio (101) de registro;
    una unidad (3725) de decodificación operable para decodificar los datos de flujo leídos mediante la unidad de
    lectura en al menos cualquiera de los planos de vídeo y los planos de gráficos;
    una unidad (4551) de filtro de prioridad de TS operable para monitorizar las banderas de prioridad de TS de los paquetes de TS incluidos en los datos de flujo, y extraer los paquetes de TS que contienen los metadatos; una unidad (4552) de procesamiento de metadatos operable para extraer los metadatos de los paquetes de TS extraídos por la unidad (4551) de filtro de prioridad de TS; y
    una unidad (4226) de combinación de planos operable para realizar control de compensación en el plano de gráficos de acuerdo con información de compensación incluida en los metadatos extraídos por la unidad (4552) de procesamiento de metadatos.
  2. 2. El dispositivo (102) de reproducción de acuerdo con la reivindicación 1, en el que la unidad (3725) de decodificación decodifica paquetes de TS que no se extrajeron por la unidad (4551) de filtro de prioridad de TS.
  3. 3. Un procedimiento de registro de un flujo de vídeo y un flujo de gráficos en un medio (101) de registro, que comprende:
    generar un flujo de vídeo de vista principal que incluye instantáneas de vista principal que constituyen las vistas principales de imágenes de vídeo estereoscópico;
    generar un flujo de vídeo de sub-vista que incluye instantáneas de sub-vista y metadatos, constituyendo las instantáneas de sub-vista sub-vistas de imágenes de vídeo estereoscópico;
    generar un flujo de gráficos que incluye datos de gráficos que constituyen imágenes de gráficos monoscópicos; registrar el flujo de vídeo de vista principal en el medio (101) de registro; registrar el flujo de vídeo de sub-vista en el medio (101) de registro; y registrar el flujo de gráficos en el medio (101) de registro, en el que
    las instantáneas de vista principal se restablecen cada una en un plano de vídeo de vista principal cuando se están reproduciendo,
    las instantáneas de sub-vista se restablecen cada una en un plano de vídeo de sub-vista cuando se están reproduciendo,
    los datos de gráficos se restablecen en un plano de gráficos cuando se están reproduciendo, los metadatos se proporcionan en cada grupo de instantáneas, GOP, que constituyen el flujo de vídeo de subvista e incluyen información de compensación, caracterizado por que
    la información de compensación es información de control que especifica el control de compensación, el control de compensación es un procedimiento para proporcionar una compensación izquierda y una
    5
    10
    15
    20
    25
    30
    35
    40
    45
    compensación derecha para coordenadas horizontales en el plano de gráficos para generar un par de planos de gráficos, y a continuación combinar el par de planos de gráficos de manera separada con el plano de vídeo de vista principal y el plano de vídeo de sub-vista, el flujo de vídeo de sub-vista se multiplexa en un flujo de transporte, TS,
    los paquetes de TS que constituyen el TS cada uno tiene un encabezamiento que incluye una bandera de prioridad de TS que indica una prioridad del paquete de TS, y
    paquetes de TS que contienen los metadatos cada uno tiene un valor diferente de la bandera de prioridad de TS de los paquetes de TS que contienen las instantáneas de sub-vista.
  4. 4. Un sistema que comprende un medio (101) de registro y un dispositivo (102) de reproducción para reproducir imágenes de vídeo desde el medio (101) de registro, en el que
    un flujo de vídeo de vista principal, un flujo de vídeo de sub-vista y un flujo de gráficos se registran en el medio (101) de registro,
    el flujo de vídeo de vista principal incluye instantáneas de vista principal que constituyen las vistas principales de imágenes de vídeo estereoscópico,
    el flujo de vídeo de sub-vista incluye instantáneas de sub-vista y metadatos, constituyendo las instantáneas de subvista sub-vistas de imágenes de vídeo estereoscópico,
    el flujo de gráficos incluye datos de gráficos que constituyen imágenes de gráficos monoscópicos,
    las instantáneas de vista principal se restablecen cada una en un plano de vídeo de vista principal cuando se están
    reproduciendo,
    las instantáneas de sub-vista se restablecen cada una en un plano de vídeo de sub-vista cuando se están reproduciendo,
    los datos de gráficos se restablecen en un plano de gráficos cuando se están reproduciendo,
    los metadatos se proporcionan en cada grupo de instantáneas, GOP, que constituyen el flujo de vídeo de sub-vista e incluyen información de compensación, caracterizado por que
    la información de compensación es información de control que especifica el control de compensación, el control de compensación es un procedimiento para proporcionar una compensación izquierda y una compensación derecha para coordenadas horizontales en el plano de gráficos para generar un par de planos de gráficos, y a continuación combinar el par de planos de gráficos de manera separada con el plano de vídeo de vista principal y el plano de vídeo de sub-vista,
    el flujo de vídeo de sub-vista se multiplexa en un flujo de transporte, TS,
    los paquetes de TS que constituyen el TS cada uno tiene un encabezamiento que incluye una bandera de prioridad de Ts que indica una prioridad del paquete de TS, y
    los paquetes de TS que contienen los metadatos tienen un valor diferente de la bandera de prioridad de TS de los paquetes de TS que contienen las instantáneas de sub-vista, comprendiendo el dispositivo (102) de reproducción:
    una unidad (3701) de lectura operable para leer datos de flujo desde el medio (101) de registro;
    una unidad (3725) de decodificación operable para decodificar los datos de flujo leídos por la unidad de lectura en al menos cualquiera de los planos de vídeo y los planos de gráficos;
    una unidad (4551) de filtro de prioridad de TS operable para monitorizar las banderas de prioridad de TS de los paquetes de TS incluidos en los datos de flujo, y extraer los paquetes de TS que contienen los metadatos; una unidad (4552) de procesamiento de metadatos operable para extraer los metadatos de los paquetes de TS extraídos por la unidad (4551) de filtro de prioridad de TS; y
    una unidad (4226) de combinación de planos operable para realizar control de compensación en el plano de gráficos de acuerdo con la información de compensación incluida en los metadatos extraídos por la unidad (4552) de procesamiento de metadatos.
ES10796911.5T 2009-07-10 2010-07-07 Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción Active ES2649556T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009164289 2009-07-10
JP2009164289 2009-07-10
PCT/JP2010/004439 WO2011004600A1 (ja) 2009-07-10 2010-07-07 記録媒体、再生装置、及び集積回路

Publications (1)

Publication Number Publication Date
ES2649556T3 true ES2649556T3 (es) 2018-01-12

Family

ID=43429028

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10796911.5T Active ES2649556T3 (es) 2009-07-10 2010-07-07 Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción

Country Status (13)

Country Link
US (2) US8150238B2 (es)
EP (1) EP2453661B1 (es)
JP (2) JP4676579B2 (es)
KR (1) KR20120104485A (es)
CN (1) CN102138335B (es)
BR (1) BRPI1004221A2 (es)
DK (1) DK2453661T3 (es)
ES (1) ES2649556T3 (es)
MX (1) MX2011002003A (es)
RU (1) RU2541128C2 (es)
TW (1) TWI453736B (es)
WO (1) WO2011004600A1 (es)
ZA (1) ZA201101480B (es)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
JP4957831B2 (ja) * 2009-08-18 2012-06-20 ソニー株式会社 再生装置および再生方法、並びに記録装置および記録方法
US8817072B2 (en) * 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
US9456204B2 (en) * 2010-03-16 2016-09-27 Universal Electronics Inc. System and method for facilitating configuration of a controlling device via a 3D sync signal
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
KR101645465B1 (ko) * 2010-07-23 2016-08-04 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
KR20120056929A (ko) * 2010-09-20 2012-06-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5553945B2 (ja) * 2011-01-19 2014-07-23 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ビットストリームサブセットの指示
US20120224037A1 (en) * 2011-03-02 2012-09-06 Sharp Laboratories Of America, Inc. Reducing viewing discomfort for graphical elements
JP5355606B2 (ja) * 2011-03-03 2013-11-27 日本電信電話株式会社 ステレオ動画像符号化方法、装置およびプログラム
JP5639007B2 (ja) * 2011-05-17 2014-12-10 日本電信電話株式会社 3d映像視聴装置、3d映像視聴方法及び3d映像視聴プログラム
US8923686B2 (en) * 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
JP5914838B2 (ja) * 2011-05-23 2016-05-11 パナソニックIpマネジメント株式会社 画像表示装置
JP2012249019A (ja) * 2011-05-26 2012-12-13 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
CN103262551B (zh) * 2011-06-01 2015-12-09 松下电器产业株式会社 影像处理装置、发送装置、影像处理系统、影像处理方法、发送方法及集成电路
JP6058257B2 (ja) * 2011-07-06 2017-01-11 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
US20130046856A1 (en) * 2011-08-15 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Event-triggered streaming of windowed video content
US9560334B2 (en) * 2011-09-08 2017-01-31 Qualcomm Incorporated Methods and apparatus for improved cropping of a stereoscopic image pair
WO2013046281A1 (ja) * 2011-09-30 2013-04-04 パナソニック株式会社 映像処理装置及び映像処理方法
JP2013110540A (ja) * 2011-11-18 2013-06-06 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013099289A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 再生装置、送信装置、再生方法及び送信方法
WO2013100960A1 (en) 2011-12-28 2013-07-04 Intel Corporation Method of and apparatus for performing an objective video quality assessment using non-intrusive video frame tracking
US9241167B2 (en) 2012-02-17 2016-01-19 Microsoft Technology Licensing, Llc Metadata assisted video decoding
JP5924108B2 (ja) 2012-05-09 2016-05-25 セイコーエプソン株式会社 画像表示装置及びシャッター装置
KR102147475B1 (ko) 2012-07-11 2020-08-26 한국전자통신연구원 Mpeg 데이터를 처리하는 방법 및 시스템
WO2014010955A1 (ko) * 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터를 처리하는 방법 및 시스템
EP2699006A1 (en) * 2012-08-16 2014-02-19 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Pictures positioning on display elements
JP6140416B2 (ja) * 2012-10-10 2017-05-31 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、情報処理方法およびプログラム
JP6151010B2 (ja) * 2012-11-29 2017-06-21 株式会社東芝 情報処理装置および表示制御方法
US20140212115A1 (en) * 2013-01-31 2014-07-31 Hewlett Packard Development Company, L.P. Optical disc with three-dimensional viewing depth
KR102095272B1 (ko) * 2013-10-10 2020-04-01 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
TW201528775A (zh) 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
JP2015136060A (ja) * 2014-01-17 2015-07-27 ソニー株式会社 通信装置、通信データ生成方法、および通信データ処理方法
JP2015136057A (ja) * 2014-01-17 2015-07-27 ソニー株式会社 通信装置、通信データ生成方法、および通信データ処理方法
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
JP6379636B2 (ja) 2014-04-30 2018-08-29 ソニー株式会社 情報処理装置、情報記録媒体、および画像処理方法、並びにプログラム
US10750198B2 (en) 2014-05-22 2020-08-18 Qualcomm Incorporated Maximum palette parameters in palette-based video coding
CN111212251B (zh) * 2014-09-10 2022-05-27 松下电器(美国)知识产权公司 再现装置以及再现方法
JP6197771B2 (ja) * 2014-09-25 2017-09-20 株式会社Jvcケンウッド 画像接合装置、撮像装置、画像接合方法、及び画像接合プログラム
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
US10148933B2 (en) * 2015-11-13 2018-12-04 Vefxi Corporation 3D system including rendering with shifted compensation
US10121280B2 (en) * 2015-11-13 2018-11-06 Vefxi Corporation 3D system including rendering with three dimensional transformation
US10122987B2 (en) * 2015-11-13 2018-11-06 Vefxi Corporation 3D system including additional 2D to 3D conversion
US10225542B2 (en) * 2015-11-13 2019-03-05 Vefxi Corporation 3D system including rendering with angular compensation
CN107645647A (zh) * 2017-09-21 2018-01-30 京信通信系统(中国)有限公司 一种多路音视频传输方法及装置
US10958958B2 (en) * 2018-08-21 2021-03-23 International Business Machines Corporation Intelligent updating of media data in a computing environment
JP7395901B2 (ja) * 2019-09-19 2023-12-12 ヤマハ株式会社 コンテンツ制御装置、コンテンツ制御方法およびプログラム
CN111147770B (zh) * 2019-12-18 2023-07-07 广东保伦电子股份有限公司 一种多路视频窗口叠加显示方法、电子设备及存储介质
WO2021142601A1 (en) * 2020-01-14 2021-07-22 Citrix Systems, Inc. Content resolution adjustment for passive display devices

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325477A (en) * 1991-12-02 1994-06-28 Xerox Corporation Method and apparatus for generating and displaying freeform strokes
US6502199B2 (en) 1995-09-29 2002-12-31 Matsushita Electric Industrial Co., Ltd. Method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
EP2259586B1 (en) 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
EP2180717B1 (en) 1996-12-04 2012-11-14 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
EP1708487B1 (en) 1997-08-29 2013-05-08 Panasonic Corporation Method and apparatus for reading a high-resolution optical video disc
JP4481444B2 (ja) * 2000-06-30 2010-06-16 株式会社東芝 画像符号化装置
US6760042B2 (en) * 2000-09-15 2004-07-06 International Business Machines Corporation System and method of processing MPEG streams for storyboard and rights metadata insertion
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
CN1757231B (zh) * 2003-02-28 2013-06-05 松下电器产业株式会社 再现装置、记录方法和再现方法
US7426329B2 (en) 2003-03-06 2008-09-16 Microsoft Corporation Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player
WO2004082274A1 (ja) * 2003-03-13 2004-09-23 Matsushita Electric Industrial Co., Ltd. データ処理装置
RU2282946C2 (ru) * 2003-12-25 2006-08-27 Александр Александрович Сухов Способ передачи визуальной информации
US8483053B2 (en) * 2004-02-06 2013-07-09 Sony Corporation Information processing device, information processing method, program, and data structure
KR100561417B1 (ko) 2004-02-09 2006-03-16 삼성전자주식회사 Av 데이터의 재생상태를 전환할 수 있는 인터랙티브그래픽 스트림을 기록한 정보저장매체, 그 재생방법 및 장치
KR100677129B1 (ko) * 2004-09-03 2007-02-02 삼성전자주식회사 인터랙티브 그래픽 스트림을 기록한 저장 매체, 그 재생장치 및 재생 방법
JP4863990B2 (ja) * 2004-10-07 2012-01-25 パナソニック株式会社 情報記録媒体、tsパケット判定装置、及びデータ再生装置
JP4275611B2 (ja) * 2004-12-02 2009-06-10 ソニー株式会社 再生装置、再生方法および再生プログラム、記録媒体、ならびに、データ構造体
WO2006109716A1 (ja) * 2005-04-07 2006-10-19 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、記録方法、再生方法
EP1873780B1 (en) * 2005-04-22 2018-10-03 Sony Corporation Recording device, recording method, reproducing device, reproducing method, program, and recording medium
US20090119706A1 (en) * 2005-12-16 2009-05-07 Stepframe Media, Inc. Generation and Delivery of Stepped-Frame Content Via MPEG Transport Streams
KR101377736B1 (ko) 2006-10-11 2014-03-24 코닌클리케 필립스 엔.브이. 3차원 그래픽 데이터의 생성
US8463019B2 (en) * 2007-07-19 2013-06-11 JVC Kenwood Corporation Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method
WO2009083863A1 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Playback and overlay of 3d graphics onto 3d video
US8306387B2 (en) 2008-07-24 2012-11-06 Panasonic Corporation Play back apparatus, playback method and program for playing back 3D video
WO2010134316A1 (ja) * 2009-05-19 2010-11-25 パナソニック株式会社 記録媒体、再生装置、符号化装置、集積回路、及び再生出力装置
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
JP4481361B2 (ja) 2009-10-08 2010-06-16 株式会社半導体エネルギー研究所 半導体装置

Also Published As

Publication number Publication date
EP2453661B1 (en) 2017-08-30
TWI453736B (zh) 2014-09-21
US8467664B2 (en) 2013-06-18
US8150238B2 (en) 2012-04-03
JP4676579B2 (ja) 2011-04-27
CN102138335B (zh) 2013-02-06
ZA201101480B (en) 2012-06-27
MX2011002003A (es) 2011-03-29
DK2453661T3 (en) 2017-10-30
EP2453661A1 (en) 2012-05-16
KR20120104485A (ko) 2012-09-21
US20110142426A1 (en) 2011-06-16
JP2011130468A (ja) 2011-06-30
RU2541128C2 (ru) 2015-02-10
WO2011004600A1 (ja) 2011-01-13
BRPI1004221A2 (pt) 2020-09-15
JPWO2011004600A1 (ja) 2012-12-20
CN102138335A (zh) 2011-07-27
EP2453661A4 (en) 2016-03-30
TW201118867A (en) 2011-06-01
JP5451656B2 (ja) 2014-03-26
US20120147141A1 (en) 2012-06-14
RU2011107253A (ru) 2013-08-20

Similar Documents

Publication Publication Date Title
ES2649556T3 (es) Dispositivo de reproducción, procedimiento de registro y sistema que comprende un medio de registro y un dispositivo de reproducción
ES2624769T3 (es) Medio de grabación, dispositivo de reproducción y circuito integrado
JP5547668B2 (ja) 記録媒体、再生装置、符号化装置、集積回路、及び再生出力装置
US8290338B2 (en) Recording medium, playback device, encoding device, integrated circuit, and playback output device
ES2472444T3 (es) Medio de grabación, dispositivo de reproducción y circuito integrado