MX2011006360A - Dispositivo de reproduccion, medio de grabacion y circuito integrado. - Google Patents

Dispositivo de reproduccion, medio de grabacion y circuito integrado.

Info

Publication number
MX2011006360A
MX2011006360A MX2011006360A MX2011006360A MX2011006360A MX 2011006360 A MX2011006360 A MX 2011006360A MX 2011006360 A MX2011006360 A MX 2011006360A MX 2011006360 A MX2011006360 A MX 2011006360A MX 2011006360 A MX2011006360 A MX 2011006360A
Authority
MX
Mexico
Prior art keywords
video
reproduction
pieces
stream
playback
Prior art date
Application number
MX2011006360A
Other languages
English (en)
Inventor
Yasushi Uesaka
Hiroshi Yahata
Taiji Sasaki
Kazuhiro Mochinaga
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2011006360A publication Critical patent/MX2011006360A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Abstract

Se proporciona un dispositivo de reproducción que puede reproducir sin interrupciones un video 3D y un video 2D. El dispositivo de reproducción reproduce un flujo de video 3D que contiene un flujo de video de vista base y un flujo de video de vista dependiente. Cuando se lleva a cabo una reproducción 3D usando un flujo de video 3D, datos de imagen obtenidos al decodificar el flujo de video de vista base y el flujo de video de vista dependiente son enviados a un dispositivo de presentación visual. Cuando se lleva a cabo una reproducción 2D usando un flujo de video 3D, cada dato de imagen obtenido por la decodificación del flujo de video de vista base es enviado al dispositivo de presentación visual dos veces repetidamente. Así, la velocidad de cuadros de salida en la reproducción 2D se convierte en la misma velocidad de cuadros que la velocidad de cuadros de salida en la reproducción 3D.

Description

DISPOSITIVO DE REPRODUCCION, MEDIO DE GRABACION Y CIRCUITO INTEGRADO Campo de la invención La presente invención pertenece a un campo técnico que se refiere a tecnología para reproducir videos 2D/3D.
Antecedentes de la invención Años recientes han sido testigos de un incremento en el número de salas cinematográficas que ofrecen visión estereoscópica de videos 3D. Debido a esta tendencia, ha habido una demanda por discos ópticos que tengan grabados en los mismos videos 3D de alta calidad.
Un disco óptico que tiene grabado en el mismo video 3D debe poseer compatibilidad de reproducción con un dispositivo de reproducción que sea capaz de reproducir sólo discos ópticos que tengan grabados en los mismos videos 2D (en adelante, "un dispositivo de reproducción 2D" ) . Si un dispositivo de reproducción 2D no puede reproducir video 3D grabado en un disco óptico como video 2D, será necesario fabricar dos tipos de discos, en particular un disco 3D y un disco 2D, del mismo contenido. Esto podría ser un proceso costoso. En consecuencia, se desea que un disco óptico que tenga grabado en el mismo video 3D sea reproducido como video 2D en un dispositivo de reproducción 2D, y como video 2D o 3D en un dispositivo de reproducción que sea capaz de reproducir videos tanto 2D como 3D (en adelante "un REF.: 221054 dispositivo de reproducción 2D/3D").
La técnica anterior para asegurar compatibilidad de reproducción entre un dispositivo de reproducción y un disco óptico que tiene grabado en el mismo video 3D incluye la tecnología descrita en PLT 1 indicada bajo.
Con un solo disco óptico que posee esta compatibilidad de reproducción, un dispositivo de reproducción 2D/3D puede reproducir y presentar videos tanto en 2D como en 3D a un espectador (en adelante, el término "espectador" se usa indistintamente con el término "usuario" ) .
Lista de citas Literatura de patente Literatura de patente 1 Publicación de solicitud de patente No. 3935507 Breve descripción de la invención Problema técnico Se requiere una banda ancha para transmitir video 3D de un dispositivo a otro. En vista de esto, un dispositivo de reproducción 2D/3D y un dispositivo de presentación visual comúnmente se conectan entre sí cumpliendo con la norma de interfaz multimedia de alta definición (HDMI) que permite la transmisión de datos usando una banda ancha. Estos dispositivos que se conectan uno al otro cumpliendo con la norma HDMI intercambian datos cuando han establecido sincronización uno con otro. Para poder cambiar una velocidad de cuadros a la cual se está enviando una señal de video, estos dispositivos tienen que volver a establecer sincronización uno con otro; es decir, durante su intento por restablecer esta sincronización, se detiene una salida de video.
Durante la reproducción de video 3D, un video de vista izquierda de 24 Hz y un video de vista derecha de 24 Hz son enviados al dispositivo de presentación visual. Una totalidad del video 3D es entonces enviada a una velocidad de cuadros de 48 Hz . Por otro lado, durante la reproducción de video 2D, sólo un video de vista izquierda de 24 Hz es enviado a un dispositivo de presentación visual. Por lo tanto, cuando un dispositivo de presentación visual 2D/3D cambia a reproducción de video 2D durante la reproducción de video 3D, el dispositivo de reproducción 2D/3D tiene que volver a establecer sincronización con el dispositivo de presentación visual si están conectados uno al otro usando la conexión HDMI . Esto da origen al problema de que se retrase el inicio de la reproducción del video 2D.
En vista del problema anterior, la presente invención intenta proporcionar un dispositivo de reproducción y un medio de grabación que haga posible la reproducción de videos 2D/3D sin interrupciones.
Solución al problema Para lograr el objetivo anterior, la presente invención proporciona un dispositivo de reproducción para reproducir flujos de video 3D incluyendo un flujo de video de vista base y un flujo de video de vista dependiente, en donde (i) cuando se lleva a cabo reproducción estereoscópica usando los flujos de video 3D, el dispositivo de reproducción envía primeras piezas de datos de imagen y segundas piezas de datos de imagen a un dispositivo de presentación visual, las primeras piezas de datos de imagen y las segundas piezas de datos de imagen se obtienen al decodificar el flujo de video de vista base y el flujo de video de vista dependiente, respectivamente, y (ii) cuando se lleva a cabo reproducción 2D usando los flujos de video 3D, el dispositivo de reproducción envía cada una de las primeras piezas de datos de imagen al dispositivo de presentación visual por lo menos dos veces en sucesión.
Efectos adecuados de la invención Cuando se lleva a cabo reproducción 2D usando los flujos de video 3D, el dispositivo de reproducción de la presente invención estructurado de la manera anterior envía, al dispositivo de presentación visual, cada una de piezas de datos de imagen obtenidas al decodificar el flujo de video de vista base al menos dos veces en sucesión. De esta manera, la velocidad de cuadros de salida a la cual la reproducción 2D se lleva a cabo coincide con la velocidad de cuadros de salida a la cual se lleva a cabo la reproducción estereoscópica .
En consecuencia, incluso si la reproducción de los flujos de video 3D (reproducción estereoscópica) es cambiada por reproducción 2D, no existe la necesidad de que el dispositivo de reproducción y el dispositivo de presentación visual restablezcan sincronización uno con otro como se requiere por la norma HDMI . Esto hace posible que el dispositivo de reproducción visual lleve a cabo reproducción sin interrupciones.
Breve descripción de las figuras La figura 1A muestra el uso de un medio de grabación y un dispositivo de reproducción, y las figuras IB y 1C muestran lentes 3D 400.
La figura 2 ilustra la cara de un usuario sobre el lado izquierdo, y videos que muestran objetos, en particular esqueletos de un dinosaurio, en el lado derecho.
La figura 3 muestra estructuras internas de flujos de video de vista izquierda y derecha para lograr visión estereoscópica .
La figura 4 muestra una estructura interna de un disco óptico de capas múltiples.
La figura 5 muestra un formato de aplicación de un disco óptico configurado usando un sistema de archivos.
La figura 6 es un diagrama de flujo de procedimientos de procesamiento de un método de grabación.
Las figuras 7A y 7B ilustran la estructura de un flujo de video.
La figura 8 muestra la estructura de información de cambio de decodificación.
Las figuras 9A y 9B ilustran contadores de codificación .
Las figuras 10A y 10B muestran cómo se almacena un flujo de video en una secuencia de paquetes PES y se convierte en paquetes TS y paquetes de origen.
La figura 11 muestra esquemáticamente cómo una pluralidad de flujos son multiplexados para formar un flujo de AV.
La figura 12 muestra estructuras internas de extensiones que se obtienen al ejecutar un método de grabación .
La figura 13 muestra una relación entre las extensiones y un archivo de flujos de AV.
La figura 14 muestra una estructura interna de un archivo de información de clips.
La figura 15 muestra un conjunto de información de atributos de flujo incluido en el archivo de información de clips .
Las figuras 16A y 16B cada una muestra una tabla de mapas de entrada incluida en el archivo de información de clips .
La figura 17 muestra cómo se registran puntos en un mapa de entrada.
Las figuras 18A y 18B cada una muestra relaciones entre mapas de entrada y GOPs .
La figura 19 ilustra la estructura de metadatos 3D.
La figura 20 muestra listas de reproducción en ninguna de las cuales coexisten elementos de reproducción 2D y elementos de reproducción 3D.
La figura 21 muestra la lista de reproducción 3D mostrada en la figura 20, la cual incluye además otra subtrayectoria .
Las figuras 22A y 22B cada una muestran un caso en el que videos 2D y 3D coexisten en un contenido.
La figura 23 ilustra la estructura que hace posible conexión sin interrupciones entre videos 2D y 3D que consisten en un contenido.
La figura 24 muestra la estructura de una lista de reproducción que hace posible conexión sin interrupciones entre elementos de reproducción 2D y elementos de reproducción 3D.
La figura 25 muestra una estructura de datos de información de listas de reproducción.
La figura 26 muestra una estructura interna de una tabla de información SubPath.
La figura 27 muestra secciones de reproducción definidas por vistas izquierda y derecha.
La figura 28A muestra una tabla de selección de flujos, y la figura 28B muestra elementos estructurales que son comunes a entradas de flujo. La figura 28C muestra la STN_table y la STN_table_SS .
La figura 29 muestra la lista de reproducción 3D mostrada en la figura 20, en la cual se ha escrito además información de identificación de vista izquierda/vista derecha .
La figura 30 muestra dos piezas de información de listas de reproducción que definen de manera diferente imágenes izquierda, derecha y central.
La figura 31 muestra la estructura de un dispositivo de reproducción 2D/3D.
La figura 32 muestra las estructuras internas de un decodificador de objetivos de sistema 4 y un conjunto de memorias de plano 5a.
La figura 33 muestra la estructura interna de una unidad de composición de planos.
La figura 34 muestra cómo se compone el plano de PG.
La figura 35 muestra esquemáticamente cómo se presenta visualmente un plano al usuario después de haber sido cortado y superpuesto con el uso de los valores de desplazamiento .
La figura 36 muestra las estructuras internas de un conjunto de registros 10 y un motor de control de reproducción 7b.
La figura 37 es un diagrama de flujo de acuerdo al cual un valor de tipo de presentación visual se establece en un PSR 22.
La figura 38 muestra una estructura de datos para cambiar entre reproducción de una lista de reproducción 2D y reproducción de la lista de reproducción 3D.
La figura 39 muestra un diagrama de flujo de acuerdo con el cual se lleva a cabo la operación del cambio entre la reproducción de una lista de reproducción 2D y la reproducción de una lista de reproducción 3D.
La figura 40 ilustra un método para cambiar sin interrupciones entre un tipo de presentación visual L-R para vía 3D y un tipo de presentación visual L-L.
La figura 41 es un diagrama de flujo de control de cambios llevada por un interruptor 62 en la unidad de composición de planas.
La figura 42 muestra la estructura de un decodificador de video primario 31 que permite cambiar sin interrupciones entre reproducción de video 3D y reproducción de video 2D.
La figura 43 es la segunda figura que ilustra los papeles de estados de reproducción que permiten cambiar sin interrupciones entre reproducción de video 3DE y reproducción de video 2D.
La figura 44 ilustra el estado de reproducción aplicado a secciones de reproducción se reproduce video 2D.
La figura 45 muestra un mapa de entradas modificado.
La figura 46 muestra esquemáticamente relaciones entre puntos de entrada y flujos de AV que pertenecen a la modificación 2.
La figura 47 muestra la estructura de un decodificador de video primario en un dispositivo de reproducción de la segunda modalidad.
La figura 48 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, reproducir una imagen correspondiente de video 2D/ojo izquierdo en reemplazo de la imagen dañada.
La figura 49 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, reproducir una imagen de video de ojo derecho que precede inmediatamente la imagen dañada .
La figura 50 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, reproducir una imagen de video de ojo derecho que y precede inmediatamente la imagen dañada, junto con una imagen de video de ojo izquierdo que precede inmediatamente una contraparte de imagen dañada .
La figura 51 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, complementar la imagen dañada con una imagen negra o similar.
La figura 52 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, complementar la imagen dañada y una contraparte de imagen dañada de video de 2D/ojo izquierdo con imágenes negras o similares.
La figura 53 ilustra un método de, cuando una imagen de video de ojo derecho es dañada, complementar la imagen dañada con una imagen generada a partir de una contraparte de imagen dañada de video de ojo izquierdo y una imagen del video de ojo derecho que precede inmediatamente la imagen dañada.
La figura 54 ilustra procesamiento de pausa llevado a cabo durante la reproducción de video 2D.
Las figuras 55A y 55B ilustran cada una procesamiento de pausa llevado a cabo durante reproducción de video 3D.
La figura 56 ilustra la unidad de composición de planos que hace posible procesamiento de pausa durante reproducción de video 3D.
La figura 57 ilustra estructuras GOP de imágenes fijas .
Las figuras 58A y 58B cada una ilustran reproducción especial de video 3D.
Las figuras 59A y 59E cada una ilustran la estructura para simplificar reproducción especial de video 3D.
La figura 60 muestra una estructura interna del dispositivo de reproducción y La figura 61 ilustra cómo se crea información de profundidad, la cual se utiliza por un codificador de video.
Descripción detallada de la invención Primera modalidad A continuación se describen modalidades de un dispositivo de reproducción que comprende medios para resolver el problema mencionado arriba, con referencia a las figuras acompañantes. Primero, se describe brevemente a continuación el principio de visión estereoscópica.
En general, el ojo derecho tiene una visión ligeramente diferente de un objeto que el ojo izquierdo, debido a la diferencia en las ubicaciones de los ojos derecho e izquierdo. Esta disparidad inocular hace posible que un humano reconozca un objeto visto por sus ojos como un objeto 3D. La presentación visual estereoscópica puede lograrse al tomar ventaja de la disparidad binocular de un humano, es decir, al causar que el espectador reconozca visualmente imágenes 2D como si fueran imágenes estereoscópicas .
Más específicamente, al presentar visualmente en forma alternante, en un corto periodo de tiempo, una imagen de ojo derecho 2D y una imagen de ojo izquierdo 2D que ofrecen percepciones visuales diferentes a los ojos derecho e izquierdo del espectador de una manera similar a como lo hace la disparidad binocular, el espectador ve estas imágenes como si fueran presentadas en 3D.
Este corto periodo de tiempo debe ser un periodo de tiempo durante el cual la presentación visual alterna de la imagen de ojo derecho 2D y la imagen de ojo izquierdo 2D puedan dar a un humano la ilusión de presentación visual estereoscópica. Hay dos métodos para lograr visión estereoscópica. El primer método utiliza una técnica de holografía. El segundo método utiliza imágenes que crean efectos de disparidad binocular (en adelante, "imágenes de paralaje"), y se conoce como el "método de imágenes de paralaj e" .
El primer método, que utiliza la técnica de holografía, se caracteriza además porque puede crear imágenes estereoscópicas de un objeto de tal manera que el espectador reconozca visualmente la tridimensionalidad de las imágenes estereoscópicas creadas de la misma manera que si reconociera visualmente la tridimensionalidad del objeto 1 real. Sin embargo, aunque una teoría técnica ya ha sido establecida en el campo de holografía, es extremadamente difícil crear y reproducir hologramas de video usando la tecnología actual, porque hacer esto requiere el uso de (i) una computadora que pueda llevar a cabo una enorme cantidad de operaciones para crear hologramas de video en tiempo real, y (ii) un dispositivo de presentación visual cuya resolución sea lo suficientemente alta como para poder dibujar miles de materiales lineales en una distancia de 1 mm. Por esta razón, casi no hay ejemplos prácticos de holografía que se usen comercialmente .
El segundo método, en particular el método de imágenes de paralaje, es benéfico ya que la visión estereoscópica puede lograrse sólo al preparar video de ojo izquierdo y video de ojo derecho que tengan diferentes perspectivas a los ojos derecho e izquierdo. Técnicamente hablando, el aspecto del segundo método es cómo cada una de las imágenes de ojo derecho y ojo izquierdo pueden ser presentadas sólo al ojo correspondiente. En vista de esto, la segunda técnica ya ha sido implementada en varios formatos técnicos, uno de los cuales es un esquema de secuenciación de cuadros alterno.
Con el esquema de secuenciación de cuadros alternos, video de ojo izquierdo y video de ojo derecho son presentados visualmente en forma alternante en la dirección del eje de tiempo. Debido al efecto después de la imagen, cada escena izquierda es superpuesta con la escena derecha correspondiente en el cerebro del espectador. Como resultado, el espectador reconoce visualmente una totalidad de las escenas izquierda y derecha como video estereoscópico .
La figura 1A muestra el uso de un medio de grabación y un dispositivo de reproducción. Como se muestra en la figura 1A, un sistema de teatro en casa está compuesto de un BD-ROM 100, el cual es un ejemplo de un medio de grabación, un dispositivo de reproducción 200, una televisión 300, lentes 3D 400 y un control remoto 500. Se proporcionan todos a un usuario para su uso.
El BD-ROM 100 proporciona al sistema de teatro en casa anterior, por ejemplo, películas.
El dispositivo de reproducción 200, el cual está conectado a la televisión 300, es un dispositivo de reproducción 2D/3D que reproduce el BD-ROM 100.
El dispositivo de reproducción 200 está conectado a la televisión 300 de acuerdo con la norma HDMI .
La televisión 300 proporciona al usuario un ambiente operativo interactivo al presentar visualmente una película que está siendo reproducida, un menú y similares. El dispositivo de presentación visual 300 de la presente modalidad logra visión estereoscópica cuando el usuario usa los lentes 3D 400. Sin embargo, si el dispositivo de presentación visual 300 utiliza un lente lenticular, entonces el dispositivo de presentación visual 300 puede lograr visión estereoscópica sin que el usuario use los lentes 3D 400. El dispositivo de presentación visual 300 que utiliza el lente lenticular dispone de manera simultánea una imagen de ojo izquierdo y una imagen de ojo derecho una cerca de la otra en la pantalla. Un lente lenticular que tiene una forma semicircular es unido a la superficie -de la pantalla del dispositivo de presentación visual 300. Mediante este lente lenticular, el ojo izquierdo converge sólo a pixeles que constituyen la imagen de ojo izquierdo, y el ojo derecho converge sólo a pixeles que constituyen la imagen de ojo derecho. La visión estereoscópica puede lograrse cuando los ojos izquierdo y derecho vean entonces dos imágenes de paralaje.
Los lentes 3D 400 están compuestos de lentes obturadores de cristal líquido y permiten al usuario ver imágenes de paralaje usando un esquema de secuenciación de cuadros alternos o un esquema de lentes polarizantes. Un par de imágenes de paralaje incluye (i) una imagen que será presentada al ojo derecho y (ii) una imagen que será presentada al ojo izquierdo. La visión estereoscópica se logra cuando los ojos derecho e izquierdo del usuario sólo ven las imágenes de ojo derecho y ojo izquierdo, respectivamente. La figura IB muestra el estado de los lentes 3D 400 durante la presentación visual de una imagen de ojo izquierdo. En el momento de presentar visualmente una imagen de ojo izquierdo en la pantalla, los lentes 3D 400 hacen al lente obturador de cristal líquido sobre el ojo izquierdo transparente, mientras que oscurecen el lente obturador de cristal líquido sobre el ojo derecho. La figura 1C muestra el estado de los lentes 3D 400 durante la presentación visual de una imagen de ojo derecho. En el momento de presentar visualmente una imagen de ojo derecho en la pantalla, los lentes 3D 400 llevan a cabo la operación inversa, es decir, hacen al lente obturador de cristal líquido sobre el ojo derecho transparente, mientras que oscurecen el lente obturador de cristal líquido sobre el ojo izquierdo.
El control remoto 500 es un dispositivo que recibe operaciones que se refieren a una GUI de capas múltiples desde el usuario. Para recibir estas operaciones" de usuario, el control remoto 500 está compuesto de: (i) un botón de menú para invocar un menú que constituya la GUI; (ii) botones de flecha para mover un foco para seleccionar uno de los componentes que constituían el menú; (iii) un botón seleccionar que confirma la selección de uno de los componentes GUI que constituyen el menú; (iv) un botón regresar para regresar a la capa superior del menú de capas múltiples y (v) botones de número.
Esto concluye la descripción de uso del medio de grabación y el dispositivo de reproducción.
En la presente modalidad, se describe un método para grabar imágenes de paralaje usadas para visión estereoscópica en un medio de grabación de información.
Con el método de imágenes de paralaje, video que será presentado al ojo derecho y video que será presentado al ojo izquierdo se preparan por separado. Aquí, la visión estereoscópica puede lograrse al hacer imágenes de ojo izquierdo y de ojo derecho visibles sólo a los ojos derecho e izquierdo, respectivamente. El lado izquierdo de la figura 2 muestra la cara del usuario, y el lado derecho de la figura 2 muestra objetos, en particular los esqueletos de un dinosaurio, que se ven respectivamente por los ojos izquierdo y derecho. Al alternar las operaciones de hacer el lente obturador de cristal líquido obscurecido y transparente sobre cada ojo, cada imagen de ojo izquierdo es superpuesta con las imágenes de ojo derecho correspondientes en el cerebro del espectador debido al efecto de imagen posterior. Como resultado, el usuario reconoce visualmente la existencia de video 3D en un punto en donde las líneas de visión de los dos ojos se encuentran.
De imágenes de paralaje, imágenes que serán presentadas al ojo izquierdo son conocidas como imágenes de ojo izquierdo (imágenes L) , y las imágenes que serán presentadas al ojo derecho se conocen como imágenes de ojo derecho (imágenes R) . Video que comprende imágenes de ojo izquierdo (imágenes L) se conoce como video de vista izquierda, y video que comprende imágenes de ojo derecho (imágenes R) se conoce como un video de vista derecha. Los flujos de video obtenidos al digitalizar y codificar por compresión los videos de vista izquierda y derecha se conoce como flujo de video de vista izquierda y flujo de video de vista derecha, respectivamente.
La figura 3 muestra ejemplarmente estructuras internas de los flujos de video de vista izquierda y derecha para lograr visión estereoscópica.
La segunda hilera de la figura 3 muestra una estructura interna del flujo de video de vista izquierda, que incluye una pluralidad de piezas de datos de imagen, tales como II, P2 , Br3 , Br4 , P5 , Br6, Br7 y P9. Estas piezas de datos de imagen son decodificadas de acuerdo con marcas de tiempo de decodificación (DTSs) . La primera hilera de la figura 3 muestra imágenes de ojo izquierdo. Estas imágenes de ojo izquierdo son reproducidas al reproducir las piezas de datos de imagen II, P2 , Br3 , Br4 , P5, Br6, Br7 y P9 decodificadas de acuerdo con PTSs, es decir, en el siguiente orden: II, Br3 , Br4 , P2 , Br6 , Br7 y P5. De las imágenes mostradas en la figura 3, una imagen en la cual se lleva a cabo codificación predictiva intra-iraágenes' (es decir, una imagen que puede ser codificada independientemente sin usar una imagen de referencia) es llamada una imagen I. Nótese que la codificación se lleva a cabo sobre una base por imagen, y una imagen abarca tanto un cuadro como un campo. Una imagen en la cual se lleva a cabo codificación predictiva Ínter- imágenes al referirse a otra imagen que ya ha sido procesada es llamada una imagen P. Una imagen en la cual la codificación predictiva inter-imágenes se lleva a cabo al referirse simultáneamente a otras dos imágenes que ya han sido procesadas es llamada una imagen B. Una imagen B a la que hace referencia otra imagen es llamada una imagen Br. Aquí, un cuadro de una estructura de cuadros, o un campo de una estructura de campos se conoce como una unidad de acceso de video.
La cuarta hilera de la figura 3 muestra una estructura interna del flujo de video de vista izquierda, que incluye una pluralidad de piezas de datos de imagen, tales como Pl, P2 , B3 , B4 , P5 , B6, B7 y P8. Estas piezas de datos de imagen son decodificadas de acuerdo con DTSs. La tercera hilera de la figura 3 muestra imágenes de ojo derecho. Estas imágenes de ojo derecho son reproducidas al reproducir las piezas de datos de imagen Pl, P2, B3 , B4 , P5 , B6, B7 y P8 decodificadas de acuerdo con PTSs, es decir, en el siguiente orden: Pl, B3, B , P2 , B6 , B7 y P5. Nótese que en caso de que la reproducción estereoscópica se lleve a cabo usando el esquema de secuenciación de cuadros alternos, un par de imágenes de ojo izquierdo y ojo derecho a las que le sean asignadas el mismo PTS se presenta visualmente de tal manera que la presentación visual de una de ellas se retrase por un periodo de tiempo que sea equivalente a la mitad de un intervalo entre PTS (en adelante, este periodo de tiempo se conoce como un "retraso de presentación visual 3D") .
La quinta hilera de la figura 3 muestra cómo cambia el estado de los lentes 3D 400. Como se muestra en esta quinta hilera, el lente obturador sobre el ojo derecho es oscurecido durante la presentación visual de una imagen de ojo izquierdo, y el lente obturador sobre el ojo izquierdo es oscurecido durante la presentación visual de una imagen de ojo derecho.
Los flujos de video de vista izquierda y derecha anteriores son comprimidos usando codificación predictiva inter-imágenes que utiliza características correlacionadas de diferentes perspectivas visuales, además de codificación predictiva inter- imágenes que utiliza características correlacionadas de imágenes en la dirección de tiempo. Cada imagen del flujo de video de vista derecha es comprimida al referirse a una de las imágenes correspondientes del flujo de video de vista izquierda a la que se le asigna la misma hora de presentación visual.
Por ejemplo, la primera imagen P del flujo de video de vista derecha se refiere a una imagen I del flujo de video de vista izquierda. Una imagen B del flujo de video de vista derecha se refiere a una imagen Br del flujo de video de vista izquierda. La segunda imagen P del flujo de video de vista derecha se refiere a una imagen P del flujo de video de vista izquierda.
Los métodos para comprimir video utilizando estas características correlacionadas de diferentes perspectivas visuales incluyen codificación de video de varias vistas (MVC) , la cual es una enmienda de la norma H.264/MPEG-4 AVC. En julio de 2008, el Equipo de Video Conjunto (JVT) , que es un proyecto cooperativo entre la ISO/IEC MPEG y la ITU-T VCEG, completó la formulación de la enmienda a la norma H.264/MPEG-4 AVC llamada Codificación de Video de Varias Vistas (MVC) . La MVC es la norma diseñada para codificar colectivamente imágenes que muestren perspectivas visuales diferentes. Ya que la MVC hace posible codificación predictiva al usar no sólo similitudes entre imágenes en la dirección de tiempo sino también similitudes entre diferentes perspectivas visuales, la MVC puede mejorar la eficiencia de compresión en comparación con cuando imágenes que muestran diferentes perspectivas visuales se comprimen cada una individualmente .
De los flujos de video de vista izquierda y derecha que han sido codificados por compresión usando la MVC, un flujo de video que puede ser decodificado independientemente se conoce como un "flujo de video de vista base" . Por otro lado, de los flujos de video de vista izquierda y derecha, un flujo de video que (i) ha sido codificado por compresión con base en sus características correlacionadas entre cuadros con respecto a piezas de datos de imagen que constituyen el flujo de vista base, y (ii) puede ser decodificado después de que el flujo de vista base haya sido decodificado, se conoce como un "flujo de vista dependiente" .
A continuación se describe la creación de un medio de grabación, es decir, fabricación del medio de grabación.
La figura 4 muestra una estructura interna de un disco óptico de capas múltiples.
La primera hilera de la figura 4 muestra un BD-ROM, el cual es un disco óptico de capas múltiples. La segunda hilera de la figura 4 muestra, en una forma dibujada lateralmente, pistas en espiral de las capas de grabación. Las pistas en espiral de las capas de grabación se consideran como en un área de volumen continuo. El área de volumen está compuesta de (i) una entrada en el interior del BD-ROM, (ii) una salida en el exterior del BD-ROM, y (iii) áreas de grabación de las primera, segunda y tercera capas de grabación provistas entre la entrada y la salida. Estas áreas de grabación de las primera, segunda y tercera capas de grabación constituyen un espacio de dirección local continuo .
El área de volumen se divide en una pluralidad de unidades de acceso a las cuales se asignan una serie de números consecutivos empezando desde la primera unidad de acceso. Un disco óptico puede ser accedido por medio de cada unidad de acceso. Estos números consecutivos son llamados direcciones lógicas. Datos pueden ser leídos del disco óptico al designar las direcciones lógicas. Básicamente, en el caso de un disco de sólo lectura tal como el BD-ROM 100, sectores que tengan direcciones lógicas consecutivas son dispuestos físicamente en el disco óptico de manera consecutiva. Es decir, datos de estos sectores que tengan direcciones lógicas consecutivas pueden ser leídos sin el procesamiento de búsqueda. Sin embargo, en un límite entre las capas de grabación, datos de estos sectores pueden no ser leídos consecutivamente incluso si sus direcciones lógicas son consecutivas.
Información de administración de sistemas de archivos es grabada en el área de volumen inmediatamente después del área de entrada. La información de administración de sistemas de archivos es seguida por un área de división que será administrada por la información de administración de sistemas de archivos. El sistema de archivos es un sistema que expresa datos en el disco en unidades llamadas directorios y archivos. En el caso del BD-ROM 100, el sistema de archivos es grabado en un formato del disco universal (UDF) . Un sistema de archivos llamado FAT o NTFS se usa en una computadora personal (PC) ordinaria para expresar datos grabados en el disco duro usando una estructura de directorios/archivos, mejorando así la capacidad de uso. El sistema de archivos usado en el BD-ROM 100 hace posible leer datos lógicos grabados en el BD-ROM 100 de la misma manera que una PC ordinaria, usando una estructura de directorios/archivos.
De archivos accesibles en el sistema de archivos, un archivo que almacena flujos de AV obtenidos al multiplexar flujos de video y flujos de audio son llamados "archivos de flujos de AV" y archivos que almacenan datos generales que no son los flujos de AV son llamados "archivos no de AV" .
Los flujos elementales, ejemplos representativos de los cuales incluyen flujos de video y audio, se convierten primero en flujos elementales empaquetados (PESs) a los cuales se asignan encabezados de PES, y luego se convierten en paquetes TS . Posteriormente, los flujos elementales son multiplexados . Un archivo multiplexado en unidades de estos paquetes TS es llamado un "archivo de flujos de transporte" .
Mientras tanto, un archivo generado al (i) convertir flujos PES (resulta de convertir flujos elementales) en secuencias de paquetes y (ii) multiplexar las secuencias de paquetes es llamado "archivo de flujos de programa" . Este archivo de flujos de programa es diferente al archivo de flujos de transporte.
Un archivo de flujos de AV grabado en un BD-ROM, un BD-RE y un BD-R es el primer archivo, en particular el archivo de flujos de transporte. Un archivo de flujos de AV grabado en un video DVD, DVD-R , un DVD-R y un DVD-RAM es el segundo archivo, en particular el archivo de flujos de programa, y también es llamado un Objeto Video.
La cuarta hilera de la figura 4 muestra contenidos almacenados en un área de división administrada usando el sistema de archivos. El área de división almacena (i) extensiones que constituyen un archivo de flujos de AV y (ii) extensiones que constituyen un archivo no de AV, que es un archivo que no es el archivo de flujos de AV.
Las extensiones se forman en una pluralidad de sectores que son físicamente continuas en el área de división. El área de división es un área accedida por el sistema de archivos e incluye una "área en la cual un descriptor de conjuntos de archivo es grabado", una "área en la cual se graba el descriptor de fin" , una "área de directorios ROOT" , una "área de directorios BDMV" , una "área de directorios JAR", una "área de directorios BDJO" , una "área de directorio PLAYLIST" , una "área de directorios CLIPINF" y una "área de directorios STREAM" . A continuación se explican estas áreas.
El "descriptor de conjuntos de archivos" incluye un número de bloques lógicos (LBN) que indica un sector en el cual se graba la entrada de archivo del directorio ROOT, entre áreas de directorio. El "descriptor de fin" indica un fin del descriptor de conjunto de archivos.
A continuación se da una descripción detallada de las áreas de directorios . Las áreas de directorios descritas arriba tienen una estructura interna en común. Es decir, cada una de las "áreas de directorios" está compuesta de una "entrada de archivo", "archivo de directorios" y "área de grabación de archivos de archivos inferiores" .
La "entrada de archivos" incluye una "etiqueta descriptora", una "etiqueta ICB" y un "descriptor de asignación" .
La "etiqueta descriptora" es una etiqueta que indica que la entidad que tiene la etiqueta descriptora es una entrada de archivo.
La "etiqueta ICB" indica información de atributos que se refieren a la propia entrada de archivo.
El "descriptor de asignación" incluye un número de bloque lógico (LBN) que indica una posición de grabación del archivo de directorios. Esto concluye la descripción de la entrada de archivo. A continuación se da una descripción detallada del archivo de directorios.
El "archivo de directorios" incluye un "descriptor de identificación de archivos de directorios inferiores" y "descriptor de identificación de archivos de archivos inferiores" .
El "descriptor de identificación de archivos de directorios inferiores" es información que es referenciada para acceder a un directorio inferior que pertenezca al propio archivo de directorios, y está compuesto de información de identificación del directorio inferior, la longitud del nombre de directorio del directorio inferior, una dirección de entrada de archivo que indica el número del bloque lógico del bloque en el cual se graba la entrada de archivo del directorio inferior, y el nombre de directorio del directorio inferior.
El "descriptor de identificación de archivos de archivos inferiores" es información a la que se hace referencia para acceder a un archivo que pertenece al propio archivo de directorios, y está compuesto de información de identificación del archivo inferior, la longitud del nombre del archivo inferior, una dirección de entrada de archivo que indica el número de bloque lógico del bloque en el cual se graba la entrada de archivo del archivo inferior, y el nombre de archivo del archivo inferior.
Los descriptores de identificación de archivos de los archivos de directorios de los directorios indican los bloques lógicos en los cuales se graban las entradas de archivos del directorio inferior y el archivo inferior. Al rastrear los descriptores de identificación de archivos, es entonces posible llegar de la entrada de archivo del directorio ROOT a la entrada de archivo del directorio BDMV, y llegar de la entrada de archivo del directorio BDMV a la entrada de archivo del directorio PLAYLIST. En forma similar, es posible hacer llegar las entradas de archivo del directorio JAR, directorio BDJO, directorio CLIPINF y directorio STREAM.
La "área de grabación de archivos de archivos inferiores" es un área en la cual se graba el grueso del archivo inferior que pertenece a un directorio. Una "entrada de archivo" del archivo inferior y una o más "extensiones" se graban en la "área de grabación de archivos de archivos inferiores" .
La "entrada de archivo" incluye una "etiqueta descriptora" , una "etiqueta ICB" y un "descriptor de asignación" .
La "etiqueta descriptora" es una etiqueta que indica que la entidad que tiene la etiqueta descriptora es una entrada de archivo. La etiqueta se clasifica en un descriptor de entrada de archivo, un descriptor de mapa de bits de espacio y similares. En el caso de entrada de archivo, "261" indica que la entrada de archivo se describe en la etiqueta descriptora.
La "etiqueta ICB" indica información de atributo que se refiere a la propia entrada de archivo.
El "descriptor de asignación" incluye un número de bloque lógico (LBN) que indica una posición de grabación de una extensión que constituye un archivo inferior que pertenece a un directorio. El descriptor de asignación incluye datos que indican una longitud de extensión, y un número de bloque lógico que indica una posición de grabación de una extensión. Aquí, cuando los dos bits más altos de los datos que indican la longitud de extensión se ponen en "0", se indica que la extensión es una extensión asignada y grabada; y cuando los dos bits más altos se ponen en "1", se indica que la extensión es una extensión asignada y no grabada. Cuando se ponen en "0", se indica que la extensión es una extensión que continúa desde el descriptor de asignación. Cuando un archivo inferior que pertenece a un directorio es dividido en una pluralidad de extensiones, la entrada de archivo tiene una pluralidad de descriptores de asignación para cada extensión.
Al referirse a los descriptores de asignación de las entradas de archivo descritas arriba, es posible reconocer direcciones de extensiones que constituyen un archivo de flujos de AV y un archivo no de AV.
Por ejemplo, el archivo de flujos de AV es un área de grabación de archivos que existe en el área de directorio del directorio al cual pertenece el archivo. Es posible acceder al archivo de flujos de AV al rastrear los descriptores de identificación de archivos de los archivos de directorio, y los descriptores de asignación de las entradas de archivo.
La figura 5 muestra un formato de aplicación de un disco óptico configurado usando el sistema de archivos.
Un directorio BDMV tiene grabados en el mismo datos tales como contenidos de AV e información de administración que se grabará en el BD-ROM. Abajo del directorio BDMV existen los siguientes cinco sub-directorios : un "directorio PLAYLIST" ; un "directorio CLIPINF" ; un "directorio STREAM" ; un "directorio BDJO" y un "directorio JAR" . El directorio BDMV incluye dos tipos de archivos, "index. bdmv" y "MovieObj ect . bdmv" .
El "index.bdmv" (nombre de archivo fijo) almacena una tabla de índice que muestra (i) números de título de una pluralidad de títulos que pueden ser reproducidos del BD-ROM, y (ii) archivos de programa (objetos BD-J u objetos película) que cada uno definen uno de los títulos correspondientes. La tabla de índices es información de administración que se refiere a una totalidad del BD-ROM. Una vez que el disco ha sido cargado en el dispositivo de reproducción, el dispositivo de reproducción lee primero el índex. bdmv para reconocer de manera única el disco. La tabla de índices es la tabla de nivel más alto que define las estructuras de títulos incluyendo todos los títulos, un menú superior y FirstPlay que van a ser grabados en el BD-ROM. La tabla de índices designa el archivo de programas que será ejecutado primero de entre títulos generales, un título de menú superior y un título FirstPlay. Cada vez que un título o un menú es invocado, el dispositivo de reproducción en el cual se ha cargado el BD-ROM se refiere a la tabla de índices, para ejecutar un archivo de programas predeterminado. Aquí, el título FirstPlay es establecido por un proveedor de contenido, e indica un archivo de programa que será ejecutado automáticamente cuando el disco sea cargado en el dispositivo de reproducción. El título del menú superior designa un objeto película o un objeto BD-J que será invocado cuando un comando que indique "Volver a Menú" o similar sea ejecutado de acuerdo con una operación de usuario recibida por medio del control remoto. El índex. bdmv contiene información Initial_output_mode como información que se refiere a visión estereoscópica. Esta información Initial_output_mode define el estado inicial en el cual un modo de salida del dispositivo de reproducción debe estar cuando se cargue el índex. bdmv. La información Initial_output_mode puede configurarse para definir un modo de salida deseado por el fabricante del BD-ROM.
El "MovieObject .bdmv" (nombre de archivo fijo) almacena uno o más objetos película. Un objeto película es un archivo de programa que define procedimientos de control Í que debe seguir el dispositivo de reproducción durante un modo de operación (modo HDMV) controlado por un intérprete de comandos. El objeto película incluye un indicador de máscara que indica, cuando el usuario ha ejecutado uno o más comandos e invocaciones de menú/título con respecto a la GUI, si estas invocaciones deben ser enmascaradas u ocultas.
El directorio "BDJO" incluye un archivo de programas con la extensión bdjo ( "xxxxx.bdjo" en donde "xxxxx" es variable y la extensión "bdjo" es fija) . Este archivo de programas almacena un objeto BD-J que define procedimientos de control que debe seguir el dispositivo de reproducción durante un modo de operación (modo BD-J) controlado por una máquina virtual Java0, que es un intérprete de códigos de bytes. El objeto BD-J contiene una "tabla de- administración de aplicaciones" para hacer que el dispositivo de reproducción lleve a cabo señalización de aplicaciones cuyo ciclo de vida esté dentro de cada título. La tabla de administración de aplicaciones contiene (i) "identificadores de aplicación" que identifican cada uno una aplicación que será ejecutada cuando el título del objeto BD-J correspondiente se vuelve un título actual, y (ii) "códigos de control". Especialmente, una aplicación cuyo ciclo de vida es definido por la tabla de administración de aplicaciones es llamada una "aplicación BD-J" . Cuando un código de control se pone en AutoRun, significa que la aplicación correspondiente debe ser ejecutada automáticamente después de haber sido cargada en una memoria de pila. Cuando un código de control se pone en Present, significa que la aplicación correspondiente debe ser ejecutada una vez que haya sido invocada por otra aplicación después de haber sido cargada en la memoria de pila. Mientras tanto, algunas de las aplicaciones BD-J no detienen sus operaciones incluso si los títulos correspondientes han sido completados. Estas aplicaciones BD-J son llamadas "aplicaciones no límite de título" .
® Una aplicación Java real es la carpeta de archivos Java* (YYYYY.jar) almacenada en el directorio JAR debajo del directorio BDMV.
Una aplicación es, por ejemplo, una aplicación Java que contiene uno o mas programas xlet que han sido cargados en un área de pila (conocida también como una memoria de trabajo) de la máquina virtual. Una aplicación está compuesta de uno de estos programas xlet y datos cargados en la memoria de trabajo.
El "directorio PLAYLIST" contiene un archivo de información de listas de reproducción con la extensión mpls ( "xxxxx.mpls" en donde "xxxxx" es variable y la extensión "mpls" es fija) .
Una "lista de reproducción" define secciones de reproducción a lo largo del eje de tiempo de un flujo de AV, y representa una trayectoria de reproducción definida al especificar lógicamente el orden de reproducción de estas secciones de reproducción. La "lista de reproducción define (i) qué flujos de AV deben ser reproducidos, (ii) qué parte de los flujos de AV debe ser reproducida y (iii) en qué orden se deben reproducir las escenas de los flujos de AV. El archivo de información de listas de reproducción almacena información de listas de reproducción que define esta lista de reproducción. La reproducción de AV puede ser iniciada por la aplicación Java , la cual se usa para control de reproducción, instruyendo a la máquina virtual Java® generar una instancia reproductora de cuadro de medios Java (JMF) que reproduzca la información de listas de reproducción. La instancia reproductora JMF es los datos reales que serán generados en la memoria de pila de la máquina virtual con base en una clase de reproductor JMF.
El directorio "CLIPINF" contiene un archivo de información de clips con la extensión clpi ( "xxxxx . clpi" en donde "xxxxx" es variable y la extensión "clpi" es fija).
El directorio "STREAM" almacena un archivo de flujos de AV que comple con el formato xxxxx.m2ts ( "xxxxx" es variable y la extensión "m2ts" es fija) .
Un archivo de flujos de AV en el directorio STREAM es un flujo digital en el formato de flujo de transporte (TS) MPEG-2, y se genera al multiplexar una pluralidad de flujos elementales, tales como un flujo de video, un flujo de audio y un flujo de gráficos.
El archivo de flujos de AV contiene un "flujo de AV de vista izquierda", el cual es un grupo de paquetes que almacena varios tipos de flujos PES para reproducción de vista izquierda, tales como paquetes que almacenan un flujo de video de vista izquierda, paquetes que almacenan flujo de gráficos para la vista izquierda, y paquetes que almacenan un flujo de audio que será reproducido junto con estos flujos. Cuando el flujo de AV de vista izquierda incluye un flujo de video de vista base y hace posible reproducción 2D, este flujo de AV de vista izquierda se conoce como un "flujo de video de vista izquierda/2D" . En la siguiente descripción, el flujo de video de vista izquierda es el flujo de video de vista base, y el flujo de AV de vista izquierda incluye el flujo de video de vista izquierda es el flujo de AV de vista izquierda/2D, a menos que se indique lo contrario .
El archivo de flujos de AV contiene también un "flujo de AV de vista izquierda", el cual es un grupo de paquetes que almacena varios tipos de flujos PES para reproducción de vista derecha, tales como paquetes de origen que almacenan un flujo de video de vista derecha, paquetes de origen que almacenan un flujo de gráficos para la vista derecha, y paquetes de origen que almacenan un flujo de audio que será reproducido junto con estos flujos.
Los archivos de información de clips en el directorio CLIPINF son piezas de información que muestran, correspondencia uno a uno con archivos de flujos de AV, detalles de los archivos de flujos de AV que indican, por ejemplo, tipos de paquetes que constituyen los archivos de flujos de AV. Cada archivo de información de clips es leído por memoria antes de la reproducción del archivo de flujos de AV correspondiente, y es referenciado dentro del dispositivo de reproducción mientras el archivo de flujos de AV correspondiente está siendo reproducido.
Esto concluye la descripción de la estructura interna del medio de grabación. A continuación se describe un método para crear el medio de grabación mostrado en las figuras 4 y 5, es decir, la configuración del medio de grabación mostrado en las figuras 4 y 5.
El método de grabación de la presente modalidad abarca no sólo grabación en tiempo real (es decir, creación del archivo de flujos de AV y archivo no de AV mencionados arriba en tiempo real, y escritura directa de los archivos creados en el área de volumen) , sino también grabación pre-formato (es decir, producción en masa de discos ópticos al preparar los flujos de bits completos que serán grabados en el área de volumen, creando el maestro con base en los flujos de bits preparados, y llevando a cabo procesamiento de prensado en la copia maestra) . El medio de grabación de la presente modalidad también se puede identificar por el método de grabación al utilizar la grabación en tiempo real y el método de grabación al utilizar la grabación de pre-formato .
La figura 6 es un diagrama de flujo de procedimientos de procesamiento de un método de grabación.
La etapa S301 es un proceso para determinar la estructura de títulos de BD-ROM, y generar entonces información de estructura de títulos. Usando una estructura de árbol, la información de estructura de títulos define una relación entre unidades de reproducción en el BD-ROM, por ejemplo, una relación entre un título, un objeto película, un objeto BD-J y una lista de reproducción. Más específicamente, la información de estructuras de títulos se genera como sigue: primero, se definen los siguientes nodos: (i) un nodo que corresponde al "nombre de disco" del BD-ROM que será creado; (ii) un nodo que corresponde al "título" que puede ser reproducido del Index. bdmv del BD-ROM; (iii) un nodo que corresponde al "objeto película" o "objeto BD-J" que constituye el título; y (iv) un nodo que corresponde a la "lista de reproducción" que es reproducida del objeto película u objeto BD-J. Después, al conectar estos nodos por ramas, la relación entre el título, el objeto película, el objeto BD-J y la lista de reproducción es definida.
La etapa S302 es un proceso de importar un video, audio, imágenes fijas e información de subtítulo es usada por el título.
La etapa S303 es un proceso de crear datos de escenario de BD-ROM al llevar a cabo, en la información de estructura de títulos, procesamiento de edición de acuerdo con la operación de usuario recibida por medio de GUI . Los datos de escenario de BD-ROM es información para causar que el dispositivo de reproducción reproduzca un flujo de AV sobre una base por título. En el caso del BD-ROM, un escenario es información definida como la tabla de índices, el objeto película o la lista de reproducción. Los datos de escenario BD-ROM incluyen información material que constituye el flujo, información que muestra secciones de reproducción y una trayectoria de reproducción, disposición de pantalla de menú e información que muestra la transición del menú.
La etapa S304 es procesamiento de codificación. Un flujo PES se adquiere al llevar a cabo el procesamiento de codificación con base en los datos de escenario BD-ROM.
La etapa S305 es procesamiento de multiplexión que se lleva a cabo de acuerdo con los datos de escenario BD-ROM. Un flujo de AV es adquirido al multiplexar el flujo de PES en la etapa S305.
La etapa S306 es un proceso de adquirir una base de datos que se usa para grabar datos en el BD-ROM. Aquí, la base de datos es un' término general que se refiere a la tabla de índices, objeto película, lista de reproducción, objeto BD-J descritos arriba, etc. que se definen en el BD-ROM.
En la etapa S307, un programa Java®, el flujo de AV adquirido por el procesamiento de multiplexión y la base de datos BD-ROM son ingresados. Después, se crean un archivo de flujos de AV y un archivo no de AV en un formato del sistema de archivos que cumple con el BD-ROM.
La etapa S308 es un proceso de escribir, de entre datos que serán grabados en el BD-ROM, un archivo no de AV en el BD-ROM. S309 es un proceso de escribir, de entre datos que serán grabados en el BD-ROM, un archivo de flujos de AV en el BD-ROM.
El procesamiento de multiplexión de la etapa S305 incluye (i) un primer proceso de conversión de convertir un flujo de video, un flujo de audio y un flujo de gráficos en un flujo PES, luego convertir el flujo PES en un flujo de transporte, y (ii) un segundo proceso de conversión de convertir cada paquete TS que constituye el flujo de transporte en un paquete de origen. El procesamiento de multiplexión de la etapa S305 multiplexa entonces una secuencia de paquetes de origen que constituye un video, audio y gráficos.
En la etapa S309, en particular el proceso de escribir el archivo de flujos de AV, la secuencia de paquetes de origen es escrita en áreas consecutivas del medio de grabación como extensiones de archivos de flujo de AV.
Los siguientes flujos se escriben en el medio degrabación .
(I) Flujo de video Un flujo de video incluye videos primarios y secundarios de una película. Aquí, el video primario representa video ordinario que será presentado visualmente en la pantalla completa como imágenes principales durante la presentación visual de imagen en imagen. El video secundario representa el video que será presentado visualmente en una ventana inserta pequeña durante la presentación visual de imagen en imagen. Hay dos tipos de video primario: un video de vista izquierda y un video de vista derecha. En forma similar, hay dos tipos de video secundario: un video de vista izquierda y un video.de vista derecha .
El flujo de video es codificado y grabado usando, por ejemplo, MVC (descrita arriba), MPEG-2, MPEG-4 AVC y SMPTE VC-1.
(II) Flujo de audio Un flujo de audio es el audio primario de una película. El flujo de audio es codificado por compresión y grabado usando, por ejemplo, Dolby AC3 , Dolby Digital Plus, MLP, DTS, DTS-HD, y PCM lineal. Hay dos tipos de flujos de audio: un flujo de audio primario y un flujo de audio secundario. El flujo de audio primario es enviado como el audio primario cuando se lleva a cabo reproducción junto con mezcla de audio. El flujo de audio secundario es enviado como el audio secundario cuando se lleva a cabo reproducción junto con mezcla de audio.
(III) Flujo de gráficos de presentación Un flujo de Gráficos de Presentación (PG) representa gráficos (por ejemplo, subtítulos de película y personajes animados) que serán presentados visualmente en cercana sincronización con imágenes. Los flujos de PG individuales son provistos en correspondencia uno a uno con una pluralidad de idiomas diferentes, tales como inglés, japonés y francés.
El flujo de PG está compuesto de una secuencia de segmentos funcionales, en particular un Segmento de Control de Presentación (PCS) , un Segmento de Definición de Paleta (PDS) , un Segmento de Definición de Ventana (WDS) y un Segmento de Definición de Objetos (ODS) . El ODS es un segmento funcional que define subtítulos de entre objetos de gráficos.
El WDS es un segmento funcional que define el tamaño de bits de objetos de gráficos en la pantalla. El PDS es un segmento funcional que define colores que serán presentados cuando se dibujan objetos gráficos. El PCS es un segmento funcional que define control de página durante la presentación visual de subtítulos. Ejemplos de este control de página incluyen Corte hacia adentro/hacia afuera, Desvanecimiento hacia adentro/hacia afuera, Cambio de Color, Desplazamiento y Limpieza hacia adentro/hacia afuera. El control de página definido por el PCS hace posible varios efectos de presentación visual, un ejemplo de los cuales es presentar visualmente un nuevo subtítulo mientras se borra gradualmente el subtítulo previo.
Para reproducir el flujo de gráficos, un decodificador de gráficos ejecuta el siguiente procesamiento en un circuito: (i) decodificar un ODS que pertenezca a cierta unidad de presentación visual, y escribir sus objetos gráficos en una memoria de almacenamiento temporal de objetos, y (ii) escribir, en memoria de planos, objetos gráficos adquiridos al decodificar un ODS que pertenezca a una unidad de presentación visual precedente. La estrecha sintonización mencionada arriba puede establecerse al hacer que hardware funcione al grado más completo para ejecutar este procesamiento.
A diferencia del flujo de PG, un flujo de subtítulos de texto (textST) también es uno de los flujos que presentan subtítulos. El flujo textST no es multiplexado en el archivo de flujos de AV. El flujo textST expresa contenidos de los subtítulos en códigos de caracteres. De acuerdo con la norma BD-ROM, un par de flujo de PG y el flujo de textST se conoce como un "flujo PGTextST" .
(IV) Flujo de gráficos interactivos Un flujo de Gráficos Interactivos (IG) es un flujo de gráficos que logra control interactivo por medio de un control remoto. El control interactivo definido por el flujo de IG es compatible con control interactivo llevado a cabo en el dispositivo de reproducción de DVD. Este flujo de IG está compuesto de una pluralidad de segmentos funcionales, en particular un Segmento de Composición Interactivo (ICS) , un Segmento de Definición de Paleta (PDS) y un Segmento de Definición de Objetos (ODS) . El ODS es un segmento funcional que define objetos gráficos. Botones en la pantalla interactiva se dibujan mediante la agregación de estos objetos gráficos. El PDS es un segmento funcional que define colores que serán presentados cuando se dibujan objetos gráficos. El ICS es un segmento funcional para causar un cambio de estado, o más específicamente, para cambiar un estado de cada botón de acuerdo con una operación de usuario. El ICS incluye comandos de botón, cada uno de los cuales va a ser ejecutado cuando la selección del botón correspondiente se confirme. El flujo de gráficos interactivos representa la pantalla interactiva que se forma al disponer componentes de GUI en la pantalla.
Un flujo de video está compuesto de una pluralidad de Grupos de Imágenes (GOPs) . La edición de y el acceso aleatorio a video se hacen posibles al llevar a cabo procesamiento de codificación sobre una base por GOP.
La figura 7A muestra relaciones entre imágenes, o más específicamente, cómo se almacenan imágenes en GOPs. La primera hilera de la figura 7A muestra relaciones entre una secuencia de imágenes de un flujo de video de vista izquierda y GOPs. La segunda hilera de la figura 7A muestra relaciones entre una secuencia de imágenes de un flujo de video de vista derecha y GOPs. En la figura 7A, una imagen del flujo de video de vista izquierda y una imagen del flujo de video de vista derecha a las que se les asigna la misma hora de presentación visual se alinean verticalmente entre sí. En los flujos de video de vista izquierda y derecha, cada GOP inicia con una imagen I. Durante la reproducción de video estereoscópico, la primera imagen de cada GOP en el flujo de video de vista derecha es presentada visualmente junto con la primera imagen I del GOP correspondiente en el flujo de video de vista izquierda. La primera imagen de cada GOP en el flujo de vista derecha se le asigna la misma hora de presentación visual que a la primera imagen I del GOP correspondiente en el flujo de video de vista izquierda.
La figura 7B muestra la estructura de un GOP. Un GOP está compuesto de una o más unidades de acceso de video. Una unidad de acceso de video es una unidad de almacenamiento de datos codificados de una imagen. En el caso de la estructura de cuadros, la unidad de acceso de video almacena datos del cuadro. En el caso de la estructura de campo, la unidad de acceso de video almacena datos de un campo.
La primera unidad de acceso de video de un GOP está compuesta de un encabezado de secuencia, un encabezado de imagen, datos complementarios y datos de imagen comprimidos, y almacena datos de una imagen I . Un encabezado de secuencia almacena información que se comparte comúnmente dentro del GOP, tal como resolución, una velocidad de cuadros, una relación de aspecto y una velocidad de bits. Una velocidad de cuadros, resolución y una relación de aspecto almacenadas en un encabezado de secuencia de cada GOP en el flujo de video de vista derecha son respectivamente iguales a una velocidad de cuadros, resolución y una relación de aspecto almacenadas en un encabezado de secuencia del GOP correspondiente en el flujo de video de vista izquierda.
El encabezado de imagen almacena información que indica un método de codificar una totalidad de la imagen y similares. Los datos complementarios representan información adicional que no es esencial para la decodificación de los datos de imagen comprimidos. Ejemplos de esta información adicional incluyen información de caracteres en subtítulos que serán presentados visualmente en la pantalla de TV en sincronización con video, e información de códigos de tiempo. Los datos de imagen comprimidos son datos de imagen que han sido codificados por compresión. Unidades de acceso de video que no sean la primera unidad de acceso de video de un GOP están compuestas cada una de un encabezado de imagen, datos complementarios y datos de imagen comprimidos .
Los contenidos del encabezado de secuencia, encabezado de imagen, datos complementarios y datos de imagen comprimidos se configuran de diferentes maneras dependiendo del método con el cual se codifique video. Por ejemplo, cuando el video es codificado usando PEG-4 AVC, el encabezado de secuencia, encabezado de imagen y datos complementarios corresponden a un Conjunto de Parámetros de Secuencia (SPS) , un Conjunto de Parámetros de Imagen (PPS) e Información de Incremento Complementaria (SEI) , respectivamente .
La figura 8 muestra información de cambio de decodificación añadida a cada unidad de acceso de video de los flujos de video de vista izquierda y derecha. El decodificador de video lleva a cabo procesamiento de decodificación mientras cambia entre unidades de acceso de video del flujo de video de vista izquierda y unidades de acceso de video del flujo de video de vista derecha. Un decodificador de video ordinario puede identificar una unidad de acceso de video que será decodificada después de acuerdo con la hora mostrada por el DTS asignado a cada unidad de acceso de video. Sin embargo, sigue habiendo un número de decodificadores de video que avanzan el procesamiento de decodificación independientemente de DTSs. En tal caso, cada unidad de acceso de video de un flujo de video contiene deseablemente información para identificar una unidad de acceso de video que será decodificada después. La información de cambio de decodificación mostrada en la figura 8 soporta el procesamiento de cambio entre unidades de acceso de video.
La hilera superior de la figura 8 muestra la estructura de la información de cambio de decodificación. La hilera inferior de la figura 8 muestra una estructura de datos de una unidad de acceso de video. En cada unidad de acceso de video, la información de cambio de decodificación se almacena en cierta área dentro de los datos complementarios (cuando el video es codificado usando MPEG-4 AVC, la información de cambio de decodificación se almacena en una SEI) .
La información de cambio de decodificación está compuesta de un tipo de unidad de acceso subsecuente, un tamaño de unidad de acceso subsecuente y un contador de decodificación.
El tipo de unidad de acceso subsecuente es información que muestra si la unidad de acceso de video que será decodificada después es el flujo de video de vista izquierda o el flujo de video de vista derecha. Cuando el tipo de unidad de acceso subsecuente muestra un valor "1" , significa que la unidad de acceso de video que será decodificada después es del flujo de video de vista izquierda . Cuando el tipo de unidad de acceso subsecuente muestra un valor "2" , la unidad de acceso de video que se decodificará después es el flujo de video de vista derecha. Cuando el tipo de unidad de acceso subsecuente indica un valor "0" , significa que la unidad de acceso de video actual es la última unidad de acceso de video del flujo.
El tamaño de unidad de acceso subsecuente es información que muestra un tamaño de la unidad de acceso de video que se decodificará después. Si el tamaño de la unidad de acceso de video que será decodificada después se desconoce, entonces se tiene que identificar el tamaño de esta unidad de acceso de video al analizar su estructura cuando se extraiga esta unidad de acceso de video de un estado decodificado de una memoria de almacenamiento temporal correspondiente. Sin embargo, con la ayuda del tamaño de unidad de acceso subsecuente, el decodificador de video puede identificar el tamaño de la unidad de acceso de video subsecuente sin analizar su estructura. Esto simplifica el procesamiento de extraer una imagen de un estado decodificado de una memoria de almacenamiento temporal correspondiente .
En caso de que la primera imagen I de un GOP en el flujo de video de vista izquierda se le asigne un contador de decodificación "0", las unidades de acceso de video de los flujos de video de vista izquierda y derecha después de esta imagen I se les asignan contadores de decodificación que se incrementan sucesivamente en el orden en el cual son decodificados , como se muestra en la figura 9A.
El uso de esta información (los contadores de decodificación) hace posible llevar a cabo procesamiento adecuado para resolver un error que se origine cuando una unidad de acceso de video no pueda ser leída por alguna razón. Por ejemplo, supóngase un caso en donde la tercera unidad de acceso de video del flujo de video de vista izquierda (imagen Br) no pueda ser leída debido a un error de lectura como se muestra en la figura 9A. En este caso, si los contadores de decodificación no son asignados a las unidades de acceso y video, la tercera unidad de acceso de flujo de video de vista derecha (imagen en B) se refiere a la tercera unidad de acceso de video del flujo de video de vista izquierda. Esto puede traducirse en la decodificación de una imagen con ruido (decodificación errónea) . De manera inversa, si el valor del contador de decodificación asignado a la segunda unidad de acceso de video del flujo de video de vista derecha (imagen P) ha sido almacenado, el valor del contador de decodificación asignado a la unidad de acceso de video subsecuente puede ser predicho, con el resultado de que el decodificador puede llevar a cabo procesamiento adecuado para resolver el error. En el ejemplo de la figura 9A, el contador de decodificación asignado a la segunda unidad de acceso de video del flujo de video de vista derecha (imagen P) muestra un valor "4", y este contador de decodificación "4" debe ser seguido por un contador de decodificación "5" . Sin embargo, el contador de decodificación asignado a la siguiente unidad de acceso de video legible, en particular la cuarta unidad de acceso de video del flujo de video de vista izquierda (imagen P) , muestra un valor "7". El decodificador de video puede juzgar de esta manera que una unidad de acceso de video ha sido saltada. En consecuencia, después de juzgar que la tercera unidad de acceso de video del flujo de video de vista derecha (imagen B) no tiene imagen a cuál referirse, el decodificador de video puede, por ejemplo, saltarse la decodificación de esta unidad de acceso de video.
Como alternativa, como se muestra en la figura 9B, una secuencia de contadores de decodificación puede ser auto-contenida sobre una base por flujo. En este caso también, cuando la unidad de acceso de video que ha sido decodificada más recientemente del flujo de video de vista izquierda, es posible predecir que el contador de decodificación asignado a la unidad de acceso de video subsecuente sería el mismo que el contador de decodificación asignado a la unidad de acceso de video que h sido decodificado más recientemente. Por otro lado, cuando la unidad de acceso de video que ha sido decodificada más recientemente es el flujo de video de vista derecha, es posible predecir que el contador de decodificación asignado a la unidad de acceso de video subsecuente se obtendría al sumar uno al contador de decodificación asignado a la unidad de acceso de video que ha sido decodificada más recientemente. Esto también hace posible llevar a cabo procesamiento adecuado para resolver el error.
La figura 10A ilustra en mayor detalle cómo se almacena un flujo de video en una secuencia de paquetes PES. En la figura 10A, la primera hilera muestra una secuencia de cuadros de video del flujo de video, la segunda hilera muestra una secuencia de paquetes TS, y la tercera hilera muestra una secuencia de paquetes TS obtenida al convertir la secuencia de paquetes PES. Como se muestra por las flechas ygl, yg2, yg3 y yg4, la imagen I, imagen B e imagen P, que representan unidades de presentación de video que constituyen el flujo de video, se dividen cada una y se almacenan en una carga útil del paquete PES correspondiente. Cada paquete PES tiene un encabezado de PES que almacena una marca de tiempo de presentación (PTS) que indica una hora de presentación visual de la imagen correspondiente, y una marca de hora de decodificación (DTS) que indica una hora de decodificación de la imagen correspondiente. <Secuencia de paquetes TS> La figura 10B muestra el formato de los paquetes TS escritos finalmente en el flujo de AV. En la figura 10B, la primera hilera muestra una secuencia de paquetes TS, la segunda hilera muestra una secuencia de paquetes de origen y la tercera hilera muestra el flujo de AV.
Como se muestra en la primera hilera de la figura 10B, cada paquete TS es un paquete de longitud fija que consiste en un "encabezado de TS" de 4 bytes que lleva información tal como PID que identifica el flujo, y una "carga útil TS" de 184 bytes que almacena datos. Cada uno de los paquetes PES descritos arriba se divide y almacena en la carga útil TS correspondiente.
Como se muestra en la segunda hilera de la figura 10B, a cada paquete TS se le da un TP_extra_header de 4 bytes, es decir, se convierte en un paquete de origen de 192 bytes, y después se describe en el flujo de AV. Información tal como Arrival_Time_Stamp (ATS) es escrita en el TP_extra_header . El ATS muestra una hora de inicio de transferencia a la cual el paquete TS correspondiente va a ser transferido a un filtro PID. Los paquetes de origen son dispuestos en el flujo de AV como se muestra en la tercera hilera de la figura 10B. Los números que se incrementan desde el encabezado del flujo de AV son llamados Números de Paquete de Origen (SPNs) . <Multiplexión de flujos de AV> La figura 11 muestra esquemáticamente cómo se multiplexa un flujo de AV de vista izquierda. En primer lugar, el flujo de video de vista izquierda y un flujo de audio (la primera hilera) se convierten cada uno en una secuencia de paquetes PES (la segunda hilera) . Cada secuencia de paquetes PES se convierte después en una secuencia de paquetes de origen (la tercera hilera) . De una manera similar, un flujo de gráficos de presentación de vista izquierda y un flujo de gráficos interactivos de vista izquierda (la séptima hilera) se convierten cada uno en una secuencia de paquetes PES (la sexta hilera) . Cada secuencia de paquetes PES se convierte en una secuencia de paquetes de origen (la quinta hilera) . Los paquetes de origen que constituyen el video, audio y gráficos, los cuales se han obtenido de la manera anterior, se disponen en orden de sus ATSs. Esto se debe a que la memoria de almacenamiento temporal de lectura debe leer los paquetes de origen de acuerdo con sus ATSs . Los paquetes de origen dispuestos de esta manera en el orden de sus ATSs constituyen el flujo de AV de vista izquierda. Este clip de AV de vista izquierda que será grabado en el medio de grabación se diseña de tal manera que su tamaño no cause sub- flujo en la memoria de almacenamiento temporal de lectura.
Un grupo de paquetes de origen cuyos ATSs son consecutivos en el eje de tiempo de Reloj de Hora de Llegada (ATC) es llamado una secuencia ATC. Un grupo de paquetes de origen cuyos DTSs y PTSs son consecutivos en el eje de tiempo de Reloj de Hora de Sistema (STC) es llamado una secuencia STC.
La figura 12 muestra extensiones obtenidas al ejecutar el método de grabación. La primera hilera de la figura 12 muestra extensiones que constituyen el archivo de flujos de AV, en particular EXT_L[i], EXT_L[i+l], EXT_R[i] y EXT R[i+1] .
La segunda hilera de la figura 12 muestra una secuencia de paquetes de origen que pertenece a cada extensión.
En cada una de las extensiones mostradas en la primera hilera, grupos de paquetes de origen que constituyen el flujo de AV de vista derecha y grupos de paquetes de origen que constituyen el flujo de AV de vista izquierda son intercalados. Esta disposición intercalada mostrada en la figura 12 indica que los grupos de paquetes de origen que constituyen el flujo de AV de vista derecha y los grupos de paquetes de origen que constituyen el flujo de AV de vista izquierda son grabados regularmente como extensiones individuales, en el siguiente orden: "un grupo de paquetes de origen de vista derecha" , "un grupo de paquetes de origen de vista izquierda", "un grupo de paquetes de origen de vista derecha", "un grupo de paquetes de origen de vista izquierda", y así sucesivamente.
Aquí, cada una de las variables "i", "i+1", etc. incluidas en los corchetes indica el orden numérico en el cual la extensión correspondiente es reproducida. De acuerdo con los órdenes numéricos indicados por las variables mostradas en la figura 12, las dos extensiones con la variable "i", en particular EXT_L[i] y EXT_R[i], son reproducidas simultáneamente, mientras que las dos extensiones con la variable "i+1", en particular EXT_L[i+l] y EXT_R[i+l], son reproducidas simultáneamente.
Los tamaños de las extensiones EXT_L[i] y EXT_R[i] se expresan como SEXT_L[i] y SEXT_R[i], respectivamente.
A continuación se explica cómo se determinan estos tamaños SEXT_L y SEXT_R. el dispositivo de reproducción tiene dos memorias de almacenamiento temporal, en particular una memoria de almacenamiento temporal de lectura de vista derecha y una memoria de almacenamiento temporal de lectura de vista izquierda. Las extensiones mostradas en la figura 12 son suministradas al decodificador de video por la memoria de almacenamiento temporal de lectura de vista derecha que lee las extensiones de vista derecha y la memoria de almacenamiento temporal de lectura de vista izquierda que almacena extensiones de vista izquierda, de manera alternante. En consecuencia, los tamaños SEXT_L y SEXT_R tienen que ser determinados en consideración de los periodos de tiempo durante los cuales las memorias de almacenamiento temporal de lectura de vista derecha e izquierda se llenan, respectivamente. Más específicamente, dado que la velocidad de transferencia a la memoria de almacenamiento temporal de lectura de vista derecha es Rmaxl, la capacidad de la memoria de almacenamiento temporal de lectura de vista derecha debe determinarse de tal manera que se satisfaga la siguiente relación: Capacidad de Memoria de Almacenamiento Temporal de Lectura de Vista Derecha = Rraaxl x "Periodo de Tiempo Durante el Cual la Memoria de Almacenamiento Temporal de Lectura de Vista Izquierda se Llena, Incluyendo Periodos de Tiempo de Salto" .
Aquí, un salto tiene el mismo significado que una búsqueda de disco. Esto se debe a que un BD-ROM tiene un número limitado de áreas consecutivas que pueden ser aseguradas como áreas de grabación, y los flujos de video de vista izquierda y vista derecha no necesariamente son grabados en el BD-ROM justo uno cerca del otro; es decir, hay casos en los que el flujo de video de vista izquierda es grabado en un área que está lejos del área en la cual se graba el flujo de video de vista derecha en el BD-ROM.
A continuación se describe el "Periodo de Tiempo Durante el Cual la Memoria de Almacenamiento Temporal de Lectura de Vista Izquierda se Llena, Incluyendo Periodos de Tiempo de Salto" . Un paquete TS se acumula en la memoria de almacenamiento temporal de lectura de vista izquierda a una velocidad de transferencia de Rud-Rmax2, que indica una diferencia entre (i) la velocidad de salida Rmax2 , a la cual la memoria de almacenamiento temporal de lectura de vista izquierda lleva a cabo una salida, y (i) la velocidad de entrada Rud, a la cual la memoria de almacenamiento temporal de lectura de vista izquierda recibe una entrada. En consecuencia, el periodo de tiempo durante el cual la memoria de almacenamiento temporal de lectura de vista izquierda se llena es RB2/ (Rud-Rmax2 ) . RB2 indica la capacidad de la memoria de almacenamiento temporal de lectura de vista izquierda.
Para que la memoria de almacenamiento temporal de lectura de vista izquierda lea datos, es necesario tomar en consideración (i) un periodo de tiempo de salto (salto T) requerido para saltar del flujo de AV de vista derecha al flujo de AV de vista izquierda, y (ii) un periodo de tiempo de salto (salto T) requerido para saltar del flujo de AV de vista izquierda al flujo de AV de vista derecha. Por esta razón, un periodo de tiempo (2 x salto T + RB2/ (Rud-Rmax2 ) ) se requiere para acumular datos en la memoria de almacenamiento temporal de lectura de vista izquierda.
Dado que la velocidad de transferencia a la memoria de almacenamiento temporal de lectura de vista derecha es Rmaxl, todos los paquetes de origen en la memoria de almacenamiento temporal de lectura de vista derecha tienen que ser enviados a la velocidad de transferencia de Rmaxl durante el periodo de tiempo descrito arriba durante el cual los datos se acumulan en la memoria de almacenamiento temporal de lectura de vista izquierda. Por lo tanto, la capacidad RB1 de la memoria de almacenamiento temporal de lectura de vista derecha es: RB1 > Rmaxl x {2 x salto T + RB2/ (Rud-Rmax2 ) } De una manera similar, la capacidad RB2 de la memoria de almacenamiento temporal de lectura de vista izquierda puede calcularse usando la siguiente expresión: RB2 > Rmax2 x {2 x salto T + RBl/ (Rud-Rmax) } Un tamaño de memoria específico de cada una de las memorias de almacenamiento temporal de lectura de vista derecha e izquierda es igual a o menor que 1.5 bytes. En la presente modalidad, los tamaños de extensión SEXT_R y SEXT_L se establecen para ser exacta o sustancialmente iguales a los tamaños de memoria de las memorias de almacenamiento temporal de lectura de vista derecha e izquierda, respectivamente. Ya que las extensiones de archivos se disponen físicamente de la manera descrita arriba, el flujo de AV puede ser reproducido sin interrupciones sin un corte de video y audio a la mitad. Esto concluye la descripción del método de grabación de los flujos de AV de vista izquierda y derecha. A continuación se describen las estructuras internas de flujos de AV de vista izquierda y derecha. Más específicamente, a continuación se describen las estructuras internas de las extensiones EXT_R[i] y EXT_L[i] con referencia a la primera hilera de la figura 12.
La extensión EXT L[i] está compuesta de los siguientes paquetes de origen.
Los paquetes de origen con un ID de paquete "0x0100" constituyen un Program_ma . Paquetes TS con un ID de paquete "0x1001" constituyen un PCR.
Los paquetes de origen con un ID de paquete "0x1011" constituyen el flujo de video de vista izquierda.
Los paquetes de origen con IDs de paquete "0x1220" a "0xl23F" constituyen el flujo de PG de vista izquierda.
Paquetes de origen con IDs de paquete "0x1420" a "0xl43F" constituyen el flujo de IG de vista izquierda.
Paquetes de origen con PIDs "0x1100" a "OxlllF" constituyen el flujo de audio .
La extensión EXT_R[i] está compuesta de los siguientes paquetes de origen.
Los paquetes TS con un ID de paquete "0x1012" constituyen el flujo de video de vista derecha. Los paquetes de origen con IDs de paquete "0x1240" a "0xl25F" constituyen el flujo de PG de vista derecha. Los paquetes de origen con IDs de paquete "0x1440" a "0xl45F" constituyen el flujo de IG de vista derecha.
Además de los paquetes de origen de cada flujo (por ejemplo, flujos de video, audio y gráficos) , el flujo de AV incluye también paquetes de origen de una Tabla de Asociación de Programas (PAT) , una Tabla de Mapas de Programas (PMT) , una Referencia de Reloj de Programa (PCR) y similares . La PAT muestra el PID de la PMT usada en el flujo de AV. El PID de la propia PAT se registra como "0x0000". La PMT almacena los PIDs de cada flujo (por ejemplo, flujos de video, audio y gráficos) incluidos en el archivo de flujos de AV, e información de atributo de flujos que corresponden a los PIDs. La PMT tiene también varios descriptores que se refieren al flujo de AV. Los descriptores tienen información tal como información de control de copia que muestra si se permite o no se permite la copia del archivo de flujos dé AV. La PCR almacena información de tiempo STC que corresponde al ATS que muestra cuando el paquete PCR se transfiere al decodificador, para lograr así sincronización entre un Reloj de Tiempo de Llegada (ATC) que es un eje de tiempo de los ATSs, y un Reloj de Tiempo de Sistema (STC) que es un eje de tiempo de los PTSs y DTSs.
Más específicamente, un encabezado de PMT es dispuesto en la parte superior de la PMT. La información escrita en el encabezado de PMT incluye la longitud de datos incluidos en la PMT a la cual se anexa el encabezado de PMT. Una pluralidad de descriptores que se refieren al flujo de AV son dispuestos después del encabezado de PMT. Información tal como la información de control de copia descrita se lista en los descriptores. Después de los descriptores está una pluralidad de piezas de información de flujos que se refieren a los flujos incluidos en el archivo de flujos de AV. Cada pieza de información de flujo está compuesta de descriptores de flujo, cada uno listando información tal como un tipo de flujo para identificar el codee de compresión del flujo, un PID de flujo o información de atributo de flujos (tal como una velocidad de cuadros o una relación de aspecto) . Los descriptores de flujo son iguales en número al número de flujos en el archivo de flujos de AV.
A continuación se explica cómo se usan las extensiones mostradas en la figura 12 en el sistema de archivos.
La figura 13 muestra una relación entre las extensiones y el archivo de flujos de AV.
En la figura 13, la primera hilera muestra extensiones de vista derecha y extensiones de vista izquierda, y la segunda hilera muestra la XXXXX.m2ts, que es el archivo de flujos de AV del formato intercalado.
Las flechas punteadas hl , h2 , h3 , h4 y h5 indican relaciones de atributos con base en identificadores de asignación. En otras palabras, estas flechas punteadas indican a qué archivos pertenecen las extensiones EXT_R[i], EXT_L[i], EXT_R[i+l] y EXT_L[i+l], respectivamente. De acuerdo con las relaciones de atributos indicadas por las flechas punteadas hl , h2 , h3 , h4 y h5 , las extensiones EXT_R[i], EXT_L[i], EXT_R[i+l] y EXT_1 [i+1] se registran todas como extensiones del XXXXX.m2ts.
Esto concluye la descripción del archivo de flujos de AV que almacena el flujo de AV. Ahora se da una descripción de un archivo de información de clips. <Archivo de información de clips> La figura 14 muestra una estructura interna de un archivo de información de clips. Como se muestra en la figura 14, un archivo de información de clips es información de administración para un archivo de flujos de AV. Los archivos de información de clips están en correspondencia uno a uno con archivos de flujos de AV. Las líneas delanteras chl indican un acercamiento de la estructura interna de un archivo de información de clips. Como se indica por las líneas delanteras chl, un archivo de información de clips está compuesto de "información de clips", un "conjunto de información de atributos de flujo", una "tabla de mapas de entrada" y un "conjunto de metadatos 3D" .
Como se indica por las líneas delanteras ch2, la información de clips está compuesta de una "velocidad de sistema", "hora de inicio de reproducción" y "hora de fin de reproducción" . La velocidad de sistema indica una velocidad de transferencia máxima a la cual cada paquete TS que constituye el archivo de flujos de AV es transferida a un filtro PID de un decodificador de objetivos de sistema (descrito más adelante) . Los intervalos entre los ATSs incluidos en el archivo de flujos de AV se establecen cada uno para ser iguales o más pequeños que la velocidad de sistema. La hora de inicio de reproducción se establece al PTS asignado al primer cuadro de video del archivo de flujos de AV. La hora de fin de reproducción se establece en un tiempo obtenido al añadir un intervalo de reproducción por cuadro al PTS asignado al último cuadro de video del archivo de flujos de AV.
La figura 15 muestra el conjunto de información de atributos de flujo incluido en el archivo de información de clips .
En la figura 15, las líneas delanteras ahí indican un acercamiento de la estructura interna del conjunto de información de atributos de flujo.
Como se indica por las líneas delanteras ahí, el conjunto de información de atributos de flujo muestra atribución de un flujo de PES que constituye varios tipos de paquetes de origen. Más específicamente, el conjunto de información de atributos de flujo muestra: (i) información de atributos de flujo del flujo de video de vista izquierda constituido de paquetes TS con un PID "0x1011"; (ii) información de atributos de flujo del flujo de video de vista derecha constituido de paquetes TS con un PID "0x1012"; (iii) información de atributos de flujo del flujo de audio constituido de paquetes TS con un "0x1100" o "0x1101"; y (iv) información de atributos de flujo del flujo de PG constituido de paquetes TS con un PID "0x1220" o "0x1221". Como se indica por las líneas delanteras ahí, información de atributos se registran para cada PID de cada flujo en el archivo de flujos de AV. La información de atributos de cada flujo tiene información diferente dependiendo del tipo del flujo. La información de atributos de flujo de video lleva información que incluye con qué tipo de codee de compresión se comprimió el flujo de video, y la resolución, relación de aspecto y velocidad de cuadros de cada dato de imagen que compone el flujo de video. La información de atributos de flujos de audio lleva información que incluye con qué tipo de codee de compresión fue comprimido el flujo de audio, cuántos canales están incluidos en el flujo de audio, cuántos idiomas soporta el flujo de audio y la frecuencia de muestreo. La información anterior en la información de atributos de flujos de video y la información de atributos de flujos de audio se usa propósitos tales como inicialización del decodificador antes de que el reproductor lleve a cabo la reproducción.
Ahora se da una descripción de información de atributos de flujos de video. El codee, velocidad de cuadros, relación de aspecto y resolución incluidos en la información de atributos de flujos de video de vista izquierda, que corresponde al PID "0x1011", deben coincidir con aquellos incluidos en la información de atributos de flujos de video de vista derecha correspondiente, que corresponde al PID. Si el codee incluido en la información de atributos de flujos de video de vista izquierda no coincide con el codee incluido en la información de atributos de flujos de video de vista derecha correspondiente, los dos flujos de video no pueden referirse uno al otro. Además, para reproducir los dos flujos de video en sincronía unos con otros como video 3D en el presentador visual, la velocidad de cuadros, relación de aspecto y resolución incluidos en la información de atributos de flujos de video de vista izquierda debe coincidir con aquellas incluidas en la información de atributos de flujos de video de vista derecha correspondiente. De otra manera, la reproducción de los dos flujos de video ocasionaría incomodidad para el espectador.
La información de atributos de flujos de video de vista derecha puede incluir además un indicador que indique si es necesario referirse al flujo de video de vista izquierda para decodificar el flujo de video de vista derecha. La información de atributos de flujos de video de , vista derecha también puede incluir información que indique el flujo de video al que se hará referencia cuando se decodifique el flujo de video de vista derecha. Al configurar la información de atributos de flujos de video de vista izquierda y la información de atributos de flujos de video de vista derecha de la manera anterior, una relación entre los dos flujos de video puede juzgarse por una herramienta para verificar si se han creado datos de acuerdo con un formato especificado.
Las figuras 16A y 16B muestran la tabla de mapas de entrada incluida en el archivo de información de clips. La figura 16A muestra una estructura general de la tabla de mapas de entrada. En la figura 16A, las líneas delanteras dhl indican un acercamiento de la estructura interna de la tabla de mapas de entrada. Como se indica por las líneas delanteras ehl, la tabla de mapas de entrada está compuesta de "información de encabezado de mapas de entrada", un "tipo de inicio de extensión", un "mapa de entrada para el PID v 0x1011"', un "mapa de entrada para el PID * 0x1012'", un "mapa de entrada para el x 0x1220'", y un "mapa de entrada para el PID 0x1221' " .
La "información de encabezado de mapas de entrada" incluye información tal como PIDs de flujos de video indicados por los mapas de entrada y el número de puntos de entrada indicados por los mapas de entrada.
El "tipo de inicio de extensión" muestra si la primera de una pluralidad de extensiones dispuestas es del flujo de video de vista izquierda o el flujo de video de vista derecha. Con referencia al "tipo de inicio de extensión", el dispositivo de reproducción 2D/3D puede juzgar fácilmente cuál de una extensión del flujo de AV de vista izquierda y una extensión del flujo de AV de vista derecha debe solicitarle a una unidad de BD-ROM reproducir primero.
El "mapa de entrada para el PDI 0?1011'", "mapa de entrada para el PDI v 0x1012'", "mapa de entrada para el PDI ' 0x1220'" y "mapa de entrada para el PDI ? 0x1221"' son respectivamente mapas de entrada de flujos PES compuestos de diferentes tipos de paquetes de origen. Un par de un PTS y un SPN incluidos en cada mapa de entrada es llamado un "punto de entrada" . Cada punto de entrada tiene un ID de punto de entrada (en adelante, "EP_ID"). Iniciando con el punto de entrada superior, el cual tiene un EP_ID "0", los puntos de entrada tienen EP_IDs que se incrementan sucesivamente. Un par del PTS y SPN de la primera imagen I de cada GOP incluido en el flujo de video de vista izquierda se registra como cada punto de entrada del flujo de video de vista izquierda. En forma similar, un par del PTS y SPN de la primera imagen de cada GOP incluido en el flujo de video de vista derecha se registra como cada punto de entrada del flujo de video de vista derecha. ' Usando estos mapas de entrada, el reproductor puede especificar la ubicación de un paquete de origen que corresponda a un punto arbitrario en el eje de tiempo del flujo de video. Por ejemplo, cuando se lleva a cabo reproducción especial tal como adelantado o rebobinado, el reproductor puede llevar a cabo procesamiento eficientemente sin analizar el archivo de flujos de AV, al especificar, seleccionar y reproducir la imagen I registrada en cada mapa de entrada. Un mapa de entrada es creado para cada flujo de video multiplexado en el archivo de flujos de AV. Los mapas de entrada son administrados de acuerdo con los PIDs.
En la figura 16A, las líneas delanteras eh2 indican un acercamiento de la estructura interna del mapa de entrada para el PDI "0x1011" . El mapa de entrada para el PDI "0x1011" está compuesto de puntos de entrada con EP_IDs "0", "1", "2" y "3". El punto de entrada con el EP_ID "0" muestra una correspondencia entre un is_angle_change (puesto para estar "ON" ) , el SPN "3", y el PTS "80000". El punto de entrada con el EP_ID "1" muestra una correspondencia entre un indicador is_angle_change (puesto para estar en "OFF" ) , el SPN "1500" y el PTS "270000".
El punto de entrada con el EP_ID "2" muestra una correspondencia entre un indicador is_angle_change (puesto para estar en "OFF"), el SPN "3200" y el PTS "360000". El punto de entrada con el EP_ID "3" muestra una correspondencia entre un indicador is_angle_change (puesto para estar en "OFF"), el SPN "4800" y el PTS "450000". Cada indicador is_angle_change indica si la imagen del punto de entrada correspondiente puede ser decodificado independientemente de este punto de entrada. Cada indicador is_angle_change se pone para estar "ON" cuando el flujo de video haya sido codificado usando MVC o MPEG-4 AVC y la imagen del punto de entrada correspondiente es una imagen IDR. Por otro lado, cada indicador is_angle_change se pone para estar en "OFF" cuando el flujo de video haya sido codificado usando MVC o MPEG-4 AVC y la imagen del punto de entrada correspondiente sea una imagen no IDR.
La figura 16B muestra paquetes de origen indicados por los puntos de entrada en el mapa de entrada para el PID "1011" que se muestra en la figura 16A. El punto de entrada con el EP_ID "0" muestra un paquete de origen con el SPN "3" en correspondencia con el PTS "80000". El punto de entrada con el EP_ID "1" muestra un paquete de origen con el SPN "1500" en correspondencia con el PTS "270000".
El punto de entrada con el EP_ID "2" muestra un paquete de origen con el SPN "3200" en correspondencia con el PTS "360000". El mapa de entrada con el EP_ID "3" muestra un paquete de origen con el SPN "4800" en correspondencia con el PTS "450000" .
La figura 17 muestra cómo se registran los puntos de entrada en cada mapa de entrada. En la figura 17, la primera hilera muestra un eje de tiempo definido por una secuencia STC, la segunda hilera muestra un mapa de entrada incluido en un archivo de información de clips, y la tercera hilera muestra una secuencia de paquetes de origen que constituye una secuencia ATC. Cuando un punto de entrada designa, de entre la secuencia ATC, un paquete de origen con el SPN "ni" , el PTS mostrado por este punto de entrada se establece en el PTS "ti" en la secuencia STC . Como resultado, de acuerdo con el tiempo indicado por el PTS "ti", el dispositivo de reproducción puede acceder aleatoriamente al paquete de origen con el SPN. "ni" en la secuencia ATC. Cuando un punto de entrada designa, de entre la secuencia ATC, un paquete de origen con el SPN "n21", el PTS de este punto de entrada se establece en el PTS "t21" en la secuencia STC. Como resultado, de acuerdo con el tiempo indicado por el PTS "t21", el dispositivo de reproducción puede acceder aleatoriamente al paquete de origen con el SPN "n21" en la secuencia ATC.
Usando el mapa de entrada, el reproductor puede especificar la ubicación del archivo de flujos de AV que corresponda a un punto arbitrario en el eje de tiempo del flujo de video. Por ejemplo, cuando se lleva a cabo reproducción especial tal como adelantado o rebobinado, el reproductor puede llevar a cabo procesamiento eficientemente sin analizar el archivo de flujos de AV, al especificar, seleccionar y reproducir la imagen I registrada en cada mapa de entrada.
Supóngase un caso en donde, de entre la primera imagen I de un GOP en el flujo de video de vista izquierda y la primera imagen I del GOP correspondiente del flujo de video de vista derecha, uno de ellos se registre en el mapa de entrada correspondiente, mientras que el otro no se registre en el mapa de entrada correspondiente. En este caso, cuando, se lleva a cabo un acceso aleatorio (por ejemplo, reproducción de salto), sería difícil reproducir los flujos de video de vista izquierda y derecha como video estereoscópico. Por ejemplo, la figura 18B muestra BLl, BL3 y BL5 , los cuales son puntos de entrada que indican las primeras imágenes I de los GOPs #L1 , #L3 y #L5 en el flujo de video de vista izquierda, respectivamente. Aquí, un punto de entrada que indica la primera imagen de un GOP #R3 en el flujo de video de vista derecha, que corresponde al GOP #L3 , no existe. En consecuencia, si el usuario desea llevar a cabo reproducción de salto a partir del BL3 , la información sobre el SPN de la primera imagen del GOP #R3 no puede obtenerse del archivo de información de clips. Como resultado, para saltar al inicio del GOP #L3 durante reproducción de video 3D, es necesario obtener el primer SPN de la primera imagen del GOP #R3 , al llevar a cabo análisis de datos sobre los SPNs de imágenes que constituyan GOP #R2 que sea indicado por el punto de entrada BR2 y preceda al GOP #R3 en el flujo de video de vista derecha. Esto degrada una respuesta del dispositivo de reproducción cuando se lleva a cabo reproducción de salto.
El problema anterior puede ser resuelto por la estructura mostrada en la figura 18A. En la figura 18A, la primera imagen I de un GOP en el flujo de video de vista izquierda y la primera imagen del GOP correspondiente en el flujo de video de vista derecha se registran ambas, en los mapas de entrada correspondientes. Esto permite obtener, de los mapas de entrada, tanto el primer SPN de un GOP en el flujo de video de vista izquierda como el primer SPN del GOP correspondiente en el flujo de video de vista derecha, evitando así la degradación de una respuesta del dispositivo de reproducción cuándo se lleve a cabo reproducción de salto .
Esto concluye la descripción de la tabla de mapas de entrada. A continuación se da una descripción detallada del conjunto de metadatos 3D.
El conjunto de metadatos 3D es un grupo de metadatos que define diferente información requerida para reproducción estereoscópica, e incluye una pluralidad de entradas de desplazamiento. Cada PID corresponde una pluralidad de entradas de desplazamiento. Las entradas de desplazamiento están en correspondencia una a una con una pluralidad de horas de presentación visual. Cuando se reproduce un flujo PES de cierto PID, es posible definir, para cada PID, qué desplazamiento se usaría para llevar a cabo reproducción estereoscópica en cada hora de presentación visual en el flujo PES.
Los metadatos 3D son información para añadir información de profundidad a imágenes 2D de un flujo de gráficos de presentación, un flujo de gráficos interactivos y un flujo de video secundario. Como se muestra en la hilera superior de la figura 19, el conjunto de metadatos 3D es información de tabla que lista, para cada uno de los PIDs del flujo de gráficos de presentación, el flujo de gráficos interactivo y el flujo de video secundario incluidos en el archivo de flujos de AV, (i) PTSs que muestran cada uno una hora de presentación visual de la imagen 3D correspondiente y (ii) valores de desplazamiento que muestran cada uno el desplazamiento entre los pixeles derecho e izquierdo correspondientes. Un valor de desplazamiento representa el número de pixeles en la dirección del eje X, y puede ser un valor negativo. Información sobre un par de PTS y un valor de desplazamiento mostrada en una hilera en la tabla es referida como una entrada de desplazamiento. Como se muestra en la hilera inferior de la figura 19, cada entrada de desplazamiento es válida entre el PTS de su propiedad y el PTS de la siguiente entrada de desplazamiento. Por ejemplo, cuando a las entradas de desplazamiento #1 y #2 se les asignan respectivamente PTSs "180000" y "270000", el valor de desplazamiento indicado por la entrada de desplazamiento #1 es válido entre los PTSs "180000" y "270000" . Una unidad de composición de planos 5b del dispositivo de reproducción 2D/3D (descrito más adelante) compone un plano de PG, un plano de IG y un plano de video secundario mientras desplaza datos almacenados en estos planos por el valor de desplazamiento correspondiente. Como resultado, se crean imágenes de paralaje. Estas imágenes de paralaje añaden profundidad estereoscópica al video 2D. El método de componer los planos se describe en una sección posterior en donde se da una descripción de la unidad de composición de planos 5b. Nótese que aunque se ha descrito que los metadatos 3D se establecen para cada PID, los metadatos 3D pueden ser, por ejemplo, establecidos para cada plano. Esto puede simplificar el procesamiento de analizar cada metadato 3D en el dispositivo de reproducción 2D/3D. Asimismo, dependiendo del desempeño del procesamiento de composición llevado a cabo por el dispositivo de reproducción 2D/3D, pueden imponerse restricciones sobre intervalos entre entradas de desplazamiento (por ejemplo, restringiendo cada intervalo para que sea igual a o más largo que un segundo) .
Esto concluye la descripción del archivo de información de clips. La siguiente es una descripción detallada de un archivo de información de listas de reproduceión . <Archivo de información de listas de reproducción> Una lista de reproducción muestra una trayectoria de reproducción de un archivo de flujos de AV. Una lista de reproducción está compuesta de uno o más elementos de reproducción. Cada elemento de reproducción muestra una sección de reproducción correspondiente de un flujo de AV, y se identifica por un ID de elemento de reproducción correspondiente. Los elementos de reproducción son listados en el orden en el cual deben ser reproducidos en la lista de reproducción. Una lista de reproducción incluye marcas de entrada que cada una muestran un punto de inicio de reproducción correspondiente. Cada marca de entrada puede ser asignada a una sección de reproducción definida por el elemento de reproducción correspondiente. Específicamente, cada marca de entrada es asignada a una posición que podría ser el punto de inicio de reproducción del elemento de reproducción correspondiente. Las marcas de entrada se usan para reproducción rápida. Por ejemplo, la reproducción de capítulos puede llevarse a cabo al asignar marcas de entrada a las posiciones que representen puntos de inicio de capítulos en un título de película.
La figura 20 muestra una lista de reproducción 2D y una lista de reproducción 3D en ninguna de las cuales coexisten elementos de reproducción 2D y elementos de reproducción 3D. Las listas de reproducción estructuradas de esta manera no causarían que el dispositivo de reproducción cambiara entre diferentes ambientes de reproducción. La lista de reproducción 3D mostrada en la figura 20 está compuesta de una "trayectoria principal" y una o más "sub-trayectorias" .
La "trayectoria principal" está compuesta de uno o más elementos de reproducción. En el ejemplo de la figura 20, la trayectoria principal está compuesta de elementos de reproducción #1, #2 y #3.
Cada "sub-trayectoria" muestra una trayectoria de reproducción que será reproducida junto con la trayectoria principal. A las sub-trayectorias se les asignan IDs (IDs de sub-trayectoria) en el orden en el cual se registran en la lista de reproducción. Los IDs de sub-trayectoria se usan para identificar las sub-trayectorias . Hay una sub-trayectoria del tipo sincronizado y una sub-trayectoria del tipo no sincronizado. La sub-trayectoria del tipo sincronizado es reproducida en sincronización con la reproducción de la trayectoria principal. La sub-trayectoria del tipo no sincronizado puede ser reproducida sin estar en sincronización con la reproducción de la trayectoria principal . Los tipos de sub-trayectorias se almacenan como tipos de sub-trayectoria. Cada sub-elemento de reproducción está compuesto de una o más piezas de información de sub-elemento de reproducción.
Cada elemento de reproducción incluye una tabla de selección de flujos, la cual es información que muestra el número de flujo de un flujo elemental cuya reproducción se permita en el elemento de reproducción o el sub-elemento de reproducción correspondiente. La información de listas de reproducción, información de elementos de reproducción, información de sub-elementos de reproducción y tabla de selección de flujos se describen en detalle en las modalidades posteriores.
Los "clips de AV #1, #2 y #3" constituyen un flujo de AV que es (i) reproducido como video 2D, o (ii) reproducido como un flujo de AV de vista izquierda durante reproducción de video 3D.
Los "clips de AV #4, #5 y #6" constituyen un flujo de AV que es reproducido como un flujo de AV de vista derecha durante reproducción de video 3D.
Como se muestra por los números de referencia rfl, rf2 y rf3, la trayectoria principal de la lista de reproducción 2D se refiere a los clips de AV #1, #2 y #3 que almacenan el flujo de AV de vista izquierda.
La lista de reproducción 3D está compuesta de (i) una trayectoria principal que incluye los elementos de reproducción que se refieren al flujo de AV de vista izquierda como el mostrado por los números de referencia rf4 , rf5 y rf6, y (ii) una sub-trayectoria que incluye los sub-elementos de reproducción que se refieren al flujo de AV de vista derecha. Más específicamente, como se muestra por los números de referencia rf7, rf8 y rf9, la sub-trayectoria de la lista de reproducción 3D se refiere a los clips de AV #4, #5 y #6 que almacenan el flujo de AV de vista derecha. Esta sub-trayectoria es configurada para ser sincronizada con la trayectoria principal en el eje de tiempo. Las listas de reproducción 2D y 3D estructuradas de la manera anterior pueden compartir clips de AV que almacenen el flujo de AV de vista izquierda. En la lista de reproducción 3D estructurada de la manera anterior, los flujos de AV de vista izquierda y derecha están en correspondencia unos con otros por lo que son sincronizados unos con otros en el eje de tiempo.
En referencia a la figura 20, las piezas de información de elementos de reproducción #1· a #3 en ambas de las listas de reproducción 3D y 2D se refieren a los mismos clips de AV #1 a #3. Por consiguiente, información de listas de reproducción común puede prepararse para ambas de las listas de reproducción 3D y 2D para describir/definir las listas de reproducción 3D y 2D (véanse los números de referencia dfl y df2) . Es decir, siempre y cuando la información de listas de reproducción se describa de tal manera que se logre la lista de reproducción 3D, la lista de reproducción 3D funciona como (i) una lista de reproducción 3D cuando el dispositivo de reproducción es del tipo de presentación visual L-R, y (ii) una lista de reproducción 2D cuando el dispositivo de reproducción es del tipo de presentación visual L-L. Al preparar una pieza de información de listas de reproducción que describe ambas de las listas de reproducción 2D y 3D como se muestra en la figura 20, las listas de reproducción 2D y 3D se interpretan cada una como una lista de reproducción 2D o 3D, dependiendo del tipo de presentación visual del dispositivo de reproducción que interpreta esta información de listas de reproducción. Esto reduce la carga en el personal creativo.
La figura 21 muestra una versión diferente de la lista de reproducción 3D mostrada en la figura 20. La lista de reproducción 3D de la figura 21 incluye además otra sub-trayectoria. A diferencia de la lista de reproducción 3D de la figura 20 que incluye una sub-trayectoria con el ID de sub-trayectoria "0", la lista de reproducción 3D de la figura 21 incluye además la segunda sub-trayectoria identificada por su ID de sub-trayectoria "1" . Esta sub-trayectoria con el ID de sub-trayectoria "1" se refiere a los clips de AV #7, #8 y #9. Cuando hay dos o más piezas de información de sub-trayectoria, definen respectivamente una pluralidad de flujos de AV de vista derecha que ofrecen diferentes ángulos a los cuales el ojo derecho del espectador ve el objeto. Aquí, el número de grupos de clips de AV es igual al número de ángulos. Se proporcionan sub-trayectorias en correspondencia una a una con los ángulos.
En el ejemplo de la figura 21, el flujo de AV de vista derecha almacenado en los clips de AV #4, #5 y #6 y el flujo de AV de vista derecha almacenado en los clips de AV #7, #8 y #9 ofrecen diferentes ángulos a los cuales el ojo derecho del espectador ve el objeto. Como se muestra por los números de referencia rf7, rf8 y rf9, la sub-trayectoria con el ID de sub-trayectoria "0" se refiere a los clips de AV #4, #5 y #6. Mientras tanto, como se muestra por los números de referencia rflO, rfll y rfl2, la sub-trayectoria con el ID de sub-trayectoria "1" se refiere a los clips de AV #7, #8 y #9. De acuerdo con el tamaño de pantalla del dispositivo de presentación visual y la preferencia del usuario, el dispositivo de reproducción cambia entre diferentes sub-trayectorias que serán reproducidas en sincronización con la trayectoria principal que almacene el flujo de AV de vista izquierda. De esta manera, el dispositivo de reproducción puede presentar visualmente video esteroscópico usando imágenes de paralaje con las cuales el usuario se sienta cómodo.
Cuando la información de listas de reproducción se describe para lograr de esta manera la lista de reproducción 3D de la figura 21, esta lista de reproducción 3D funciona como (i) una lista de reproducción 3D cuando el dispositivo de reproducción es del tipo de presentación visual L-R y (ii) una lista de reproducción 2D cuando el dispositivo de reproducción es del tipo de presentación visual L-L. Al preparar una información de listas de reproducción que describe ambas de las listas de reproducción 2D y 3D como se muestra en la figura 21, las listas de reproducción 2D y 3D cada una son interpretadas y reproducidas como una lista de reproducción 2D o 3D de una manera adecuada, dependiendo del tipo de presentación visual del dispositivo de reproducción que interprete esta información de listas de reproducción. Esto reduce la carga en el personal creativo.
Ahora se da una descripción de una lista de reproducción en la cual consisten elementos de reproducción 2D y elementos de reproducción 3D. Durante la reproducción de esta lista de reproducción, los elementos de reproducción 2D y 3D deben conectarse unos con otros sin interrupciones.
El contenido que almacena videos 3D no necesariamente consiste sólo en videos 3D. En algunos contenidos, videos 2D y 3D coexisten. Durante la reproducción de estos contenidos, los videos 2D y 3D incluidos en los mismos tienen que ser reproducidos sin interrupciones. La figura 22A muestra un caso en donde videos 2D y 3D coexisten en un contenido. Una sección de reproducción #1 es una sección en la cual video 3D es reproducido (en adelante también llamada una "sección de reproducción de video 3D" ) . En la sección de reproducción #1, los flujos de video de vista izquierda y derecha son ambos reproducidos, y las imágenes de ojo izquierdo y derecho son presentadas visualmente de manera alternante. Si el flujo de video de vista izquierda es reproducido a una velocidad de cuadros de N cuadros por segundo, entonces el flujo de video de vista derecha será también reproducido a una velocidad de cuadro de N cuadros por segundo. Al ser presentados visualmente cuadros del flujo de video de vista izquierda y derecha de manera alternante, una totalidad del video 3D es reproducida a una velocidad de cuadros de N x 2 cuadros por segundo (una velocidad de cuadros N x 2 Hz) . Por otro lado, una sección de reproducción #2 es una sección en la cual video 2D es reproducido (en adelante también llamada una "sección de reproducción de video 2D" ) . En la sección de reproducción #2, sólo el flujo de video de vista izquierda es reproducido a una velocidad de cuadros de M cuadros por segundo (a velocidad de cuadros en N Hz) . En el ejemplo de la figura 22A, la reproducción se lleva a cabo a una velocidad de cuadros de 24 cuadros por segundo (a velocidad de cuadros 24 Hz) en la sección de reproducción #2. Las secciones de reproducción #1 y #3 son estructuradas de la misma manera, y la reproducción se lleva a cabo a una velocidad de cuadros de 24 x 2 Hz, o velocidad de cuadros de 48 Hz, en las secciones de reproducción #1 y #3.
Cuando se reproducen las secciones de reproducción #1, #2 y #3 en este orden, la reproducción no se lleva a cabo a la misma velocidad de cuadros a lo largo de las secciones de reproducción #1, #2 y #3. Cada vez que se cambie una velocidad de cuadros, la conexión HDMI entre el dispositivo de reproducción y la televisión tiene que ser reiniciada; esto causa retraso y por lo tanto no garantiza reproducción sin interrupciones. Un método para evitar este problema se ilustra en la figura 22B. De acuerdo con este método, el video que es idéntico al video del flujo de video de vista izquierda es almacenado/presentado visualmente como el video del flujo de video de vista derecha incluso en una sección de reproducción de video 2D, tal como la sección de reproducción #5. De esta manera, la reproducción se lleva a cabo a la misma velocidad de cuadros tanto en la sección de reproducción de video 2D como en otras secciones de reproducción de video 3D (secciones de reproducción #4 y #6) . Al llevarse a cabo la reproducción en la sección de reproducción #5 a la misma velocidad de cuadros que la velocidad de cuadros a la cual video 3D es reproducido, la reproducción de las secciones de reproducción #4, #5 y #6 en este orden no requiere el reinicio indicado de la conexión HDMI, el cual se requiere cuando se cambia de una velocidad de cuadro a otra. Así, el retraso causado por el reinicio de la conexión HDMI puede ser evitado. Sin embargo, la sección de reproducción #5 estructurada de la manera anterior tiene que incluir dos flujos de video, en particular dos flujos de video de vista izquierda y derecha, a pesar del hecho de que estos flujos sean presentados visualmente como video 2D después de todo. La desventaja de esta sección de reproducción #5 es que contiene una cantidad más grande de datos - es decir, toma más tiempo y esfuerzo de crear datos .
En vista de lo anterior, la siguiente estructura, la cual se ilustra en la figura 23, es sugerida. A cada sección de reproducción le es asignado un indicador duplicado, el cual es un campo para identificar el método de reproducción correspondiente. Flujos de video de vista izquierda y derecha de los cuales se reproduce video 3D, se preparan para cada sección de reproducción de video 3D, mientras que sólo un flujo de video de vista izquierda, del cual se reproduce video 2D, se prepara para cada sección de reproducción de video 2D. El dispositivo de reproducción se configura para llevar a cabo reproducción usando dos tipos de métodos de reproducción: (i) un método de "reproducir cada imagen una vez" (en adelante, "reproducción normal"); y (ii) un método de "reproducir cada imagen dos veces" (en adelante, "reproducción duplicada"). En cada sección de reproducción, el dispositivo de reproducción lleva a cabo procesamiento de reproducción de acuerdo con el campo correspondiente. Con la estructura anterior, el indicador duplicado asignado a cada sección de reproducción de video 3D indica "reproducción normal", y el indicador duplicado asignado a cada sección de reproducción de video 2D indica "reproducción duplicada" . Como resultado, la reproducción se lleva a cabo a la misma velocidad de cuadros en ambas de las secciones de reproducción de video 3D y 2D. Por consiguiente no hay necesidad de restablecer sincronización o de reiniciar la conexión HDMI entre el dispositivo de reproducción y el dispositivo de presentación visual después de cambiar de una sección de reproducción a otra, y el retraso causado por este restablecimiento de la sincronización o reinicio de la conexión HDMI puede ser evitado. Esto hace posible que el dispositivo de reproducción lleve a cabo reproducción sin interrupciones. En un caso en donde un indicador duplicado asignado a cada sección de reproducción de video 3D y el indicador duplicado asignado a cada sección de reproducción de video 2D indican ambos "reproducción normal" , la velocidad de cuadros a la cual la reproducción se lleva a cabo en cada sección de reproducción de video 3D es diferente a la velocidad de cuadros a la cual la reproducción se lleva a cabo en cada sección de reproducción de video 2D. Esto causa retraso cuando se cambia de una sección de reproducción por otra, y evita que el dispositivo de reproducción lleve a cabo reproducción sin interrupciones. Sin embargo, , en tal caso, la carga de procesamiento puede reducirse durante la reproducción de video 2D, especialmente cuando la televisión esté configurada para sufrir carga de procesamiento (por ejemplo, consumir una gran cantidad de energía) durante reproducción a alta velocidad de cuadros.
En el ejemplo de la figura 23, los indicadores duplicados asignados a las secciones de reproducción #1 y #3 (secciones de reproducción de video 3D) indican cada uno "reproducción normal", mientras que el indicador duplicado asignado a la sección de reproducción #2 (sección de reproducción de video 2D) indica "reproducción duplicada. Flujos de video de vista izquierda y derecha, de los cuales se reproduce video 3D, se preparan para cada una de las secciones de reproducción #1 y #3, mientras que sólo el flujo de video de vista izquierda, del cual se reproduce video 2D, se prepara para la sección de reproducción #2. En las secciones de reproducción #1 y #3, el dispositivo de reproducción reproduce y presenta visualmente imágenes del flujo de video de vista izquierda e imágenes del flujo de video de vista derecha de manera alternante en una forma ordinaria. En la sección de reproducción #2, sin embargo, el dispositivo de reproducción reproduce y presenta visualmente cada imagen del flujo de video de vista izquierda dos veces.
A continuación se describe una estructura de datos específica de una lista de reproducción 3D con referencia a la figura 24. Los elementos de reproducción #1 y #3 de la lista de reproducción 3D, los cuales entran dentro de las secciones de reproducción de video 3D, se refieren a un flujo de AV de vista izquierda que almacena el flujo de video de vista izquierda. Mientras tanto, los sub-elementos de reproducción #1 y #3 que serán reproducidos en sincronización con los elementos de reproducción #1 y #3 se refieren a un flujo de AV de vista derecha que almacena un flujo de video de vista derecha. Un elemento de reproducción #2, el cual entra dentro de una sección de reproducción de video 2D, se refiere sólo al flujo de AV de vista izquierda que almacena el flujo de video de vista izquierda. Los elementos de reproducción incluidos en la lista de reproducción 3D son conectados sin interrupciones uno al otro de acuerdo con condiciones de conexión. Estos elementos de reproducción están en correspondencia uno a uno con los indicadores duplicados asignados a las secciones de reproducción. Un elemento de reproducción es reproducido de acuerdo con "reproducción normal" cuando el indicador duplicado correspondiente indica "0" . Por otro lado, un elemento de reproducción es reproducido de acuerdo con "reproducción duplicada" cuando el indicador duplicado correspondiente indica "1" . El dispositivo de reproducción lleva a cabo procesamiento de reproducción con referencia al indicador duplicado de cada elemento de reproducción.
Cada elemento de reproducción incluye un campo para un indicador duplicado como se muestra en la figura 24. Sin embargo, en lugar de este campo explícito, cada método de reproducción puede incluir información de identificación que muestre "si la sección de reproducción correspondiente es o no provista con video 2D" , y puede ser reproducido usando un método de reproducción asociado con la información de identificación. Por ejemplo, cuando un elemento de reproducción para reproducir video 2D va a ser reproducido en sincronización con un sub-elemento de reproducción que no tiene flujo de AV al cual referirse, la información de identificación incluida en este elemento de reproducción puede indicar "reproducción duplicada" . Asimismo, cuando un elemento de reproducción para reproducir video 2D va a ser reproducido en sincronización con un sub-elemento de reproducción que se refiera a un flujo de AV de vista izquierda, la información de identificación incluida en este elemento de reproducción puede indicar "reproducción duplicada". Además, cuando un elemento de reproducción para reproducir video 2D va a ser reproducido en sincronización con ningún sub-elemento de reproducción, la información de identificación incluida en este elemento de reproducción puede indicar "reproducción duplicada" .
Es permisible prohibir la coexistencia de elementos de reproducción 2D y 3D en una lista de reproducción. Esto hace posible evitar fácilmente el problema de retraso causado al cambiar la velocidad de cuadros cuando se cambie entre videos 2D y 3D.
La figura 25 muestra una estructura de datos de información de listas de reproducción. Como se muestra en la figura 25, la información de listas de reproducción incluye: "Información de Trayectoria Principal (MAinPath) " , "Tabla de Información de Sub-Trayectoria (SubPath) " , "Datos de Extensión (Extension_Data) " e "Información de Marca (Mark information) " .
Primero, se da una descripción de la información MainPath. Las líneas delanteras mpl indican un acercamiento de la estructura interna de la información MainPath. Como se indica por las líneas delanteras mpl, la información MainPath está compuesta de una pluralidad de piezas de información Playitem, en particular información Playitem #1 a #N. La información Playitem define una o más secciones de reproducción lógicas que constituyen la MainPath. Las líneas delanteras mp2 de la figura 25 indican un acercamiento de la estructura de la información Playitem. Como se indica por las líneas delanteras mp2, la información Playitem está compuesta de: "Clip_lnformation_file_name" que indica el nombre de archivo de la información de sección de reproducción del archivo de flujos de AV al cual pertenecen el punto IN y el punto OUT de la sección de reproducción; "Clip_codec_identifier" que indica el método de codificación de flujos de AV; "is_multi_angle" que indica si el Playitem es o no de ángulos múltiples; "connection_condition" que indica si se conecta o no sin interrupciones el Playitem actual y el Playitem anterior; "ref_to_STC_id [0] " que indica de manera única la STC_Sequence seleccionada por el Playitem; "In_time" que es información del tiempo que indica el punto de inicio de la sección de reproducción; "Out_time" que es información de tiempo que indica el punto de fin de la sección de reproducción; "UO_mask_table" que indica qué operación de usuario debe ser ocultada por el Playitem; "STN_table" ; "left-view/right-view identification information" ; "multi_clip_entry" y "duplícate flag" .
A continuación se describe la "STN_table" , la "left-view/right-view identification information", y la "multi_clip_entry" .
La "STN_table (Stream Number_table) " es una tabla en la cual números de flujo lógicos son asignados a pares de (i) una entrada de flujo que incluye un ID de paquete y (ii) un atributo de flujo. El orden de los pares de una entrada de flujo y un atributo de flujo en la STN_table indica un orden de prioridad de los flujos correspondientes. Esta STN_table es provista para reproducción 2D, y una STN_table para reproducción 3D es provista independientemente de esta tabla .
La "left-view/right-view Identification information" es información de especificación de flujo de video de vista base que especifica cuál del flujo de video de vista izquierda y el flujo de video de vista derecha es el flujo de video de vista base. Cuando la información de identificación de vista izquierda/vista derecha muestra "0", significa que el flujo de video de vista izquierda es el flujo de video de vista base. Cuando la información de identificación de vista izquierda/vista derecha muestra "1" , significa que el flujo de video de vista derecha es el flujo de video de vista base.
La "connection_condition" indica un tipo de conexión entre el elemento de reproducción actual y el elemento de reproducción anterior. Cuando la connection_condition de un elemento de reproducción es "1" , indica que una conexión sin interrupciones entre el flujo de AV especificado por el elemento de reproducción y el flujo de AV especificado por el elemento de reproducción anterior no se garantiza. Cuando la connection_condition de un elemento de reproducción es "5" o "6" , indica que una conexión sin interrupciones entre el flujo de AV especificado por el elemento de reproducción y el flujo de AV especificado por el elemento de reproducción anterior es garantizada .
Cuando la connection_condition es "5", los STCs entre elementos de reproducción pueden ser discontinuos. Es decir, la hora de inicio de presentación visual de video del inicio del flujo de AV de partida del elemento de reproducción post-conexión puede ser discontinua de la hora de fin de presentación visual de video del final del flujo de AV concluyente del elemento de reproducción pre-conexión. Debe notarse aquí que los flujos de AV tienen que ser generados de tal manera que la decodificación por el decodificador de objetivos de sistema (descrito más adelante) no falle cuando la reproducción se lleve a cabo después de que el flujo de AV del elemento de reproducción post-conexión se ingrese en el filtro PID del decodificador de objetivos de sistema inmediatamente después de que el flujo de AV del elemento de reproducción de pre-conexión sea ingresado en el filtro PID del decodificador de objetivos de sistema. Asimismo, hay algunas condiciones limitativas. Por ejemplo, el cuadro de fin de audio del flujo de AV del elemento de reproducción de pre-conexión debe superponerse, en el eje de tiempo de reproducción, con el cuadro de inicio de audio del elemento de reproducción post-conexión.
Cuando la connection_condition es "6", un flujo de AV del elemento de reproducción de pre-conexión conectado con un flujo de AV del elemento de reproducción de post-conexión debe ser reproducible como un clip de AV. Es decir, los STCs y ATCs serían continuos a lo largo de los flujos de AV del elemento de reproducción de pre-conexión y el elemento de reproducción de post-conexión.
La "Multi_clip_entry" es información que identifica flujos de AV que representan videos de diferentes ángulos cuando una sección de varios ángulos se forma por el elemento de reproducción.
Esto concluye la descripción de la información MainPath. A continuación se da una descripción detallada de la tabla de información SubPath.
La figura 26 muestra la estructura interna de la tabla de información SubPath. Las líneas delanteras sul de la figura 26 indican un acercamiento de la estructura interna de la tabla de información SubPath. Como se indica por las líneas delanteras sul, la tabla de información SubPath incluye una pluralidad de piezas de información SubPath, en particular información SubPath 1, 2, 3, ... m. Estas piezas de información SubPath son instancias que se han derivado de una estructura de clase, y las piezas de información SubPath tienen una estructura interna común. Las líneas delanteras su2 indican un acercamiento de la estructura interna que es común para las piezas de información SubPath. Como se indica por las líneas delanteras su2 , cada pieza de información SubPath incluye: SubPath_type que indica un tipo de sub-trayectoria; y una o más piezas de información de SubPlayItem, en particular información SubPlayItem #1 a #M. Las líneas delanteras su3 indican un acercamiento de la estructura interna de la información SubPlayItem. Como se indica por las líneas delanteras su3 , la información SubPlayItem incluye "Clip_information_file_name" , "Clip_codec_identifier" , "ref_to_STC_id [0] " , "SubPlayItem_In_time" , "SubPlayItem_Out_time" , "sync_PlayItem_id" , y "sync_start_PTS_of_PlayItem" . A continuación se da una descripción de la estructura interna de la información SubPlayItem.
El "Clip_information_file_name" es información que, con el nombre de archivo de la información de Clip escrito en el mismo, especifica en forma única un SubClip que corresponde al SubPlayItem.
El "Clip_codec_identifier" indica un método de codificación del archivo de flujos de AV.
El "ref_to_STC_id [0] " indica de manera única la STC_Sequence que es el objetivo de SubPlayItem.
El "SubPlayItem_In_time" es información que indica el punto de inicio del SubPlayItem en el eje de tiempo de reproducción del SubClip.
El "SubPlayItem_Out_time" es información que indica el punto de fin del SubPlayltem en el eje de tiempo de reproducción del SubClip.
El "sync_PlayItem_id" es información que especifica en forma única, entre elementos de reproducción que constituyen la MainPath, un Playitem con el cual el SubPlayltem va a ser sincronizado. El "SubPlayItem_In_time" está presente en el eje de tiempo de reproducción del Playitem especificado por el "sync_PlayItem_id" .
El "sync_start_PTS_of_PlayItem" indica, con la precisión de tiempo de 45 KHz, la posición del punto de partida del SubPlayltem especificado por el SubPlayItem_In_time, en el eje de tiempo de reproducción del Playitem especificado por el "sync_PlayItem_id" .
La figura 27 muestra secciones de reproducción definidas para las vistas izquierda y derecha. La figura 27 se basa en la figura 17. La segunda hilera de la figura 27 muestra un eje de tiempo en el cual In_Time y Out_Time de Playitem son indicados en correspondencia con la figura 27. En forma similar, la primera hilera de la figura 27 muestra un eje de tiempo en el cual In_Time y Out_Time de SubPlayltem son indicados. Las tercera y cuarta hileras de la figura 27 también corresponden a la segunda y tercera hileras de la figura 17, respectivamente. Las imágenes I de las vistas izquierda y derecha se ubican en el mismo punto en el eje de tiempo. La descripción de la estructura de datos de la información de listas de reproducción concluye aquí .
Esto concluye la descripción de la información de sub-trayectoria . A continuación se da una descripción detallada de la información de marcas de entrada.
La información de marcas de entrada puede ser anexa a una posición dentro de una sección de reproducción definida por el elemento de reproducción. En particular, la información de marca de entrada es anexa a una posición que puede ser un punto de inicio de reproducción en el elemento de reproducción, y se usa para reproducción rápida. Por ejemplo, durante la reproducción de un título de película, la reproducción de capítulos se logra cuando una marca de entrada es anexa a una posición de inicio de capítulo.
Esto concluye la descripción de la información de marcas de entrada. A continuación se da una descripción detallada de los datos de extensión.
Los datos de extensión son una extensión única para la lista de reproducción 3D, y no son compatibles con la lista de reproducción 2D. Los datos de extensión almacenan STN_table_SSs #1 a #N. Cada STN_table_SS corresponde a una pieza diferente de información de elementos de reproducción, y' es una tabla en la cual se asignan números de flujo lógicos a pares de una entrada de flujo y un atributo de flujo para reproducción 3D. El orden de los pares de una entrada de flujo y un atributo de flujo en la STN_table_SS indica un orden de prioridad de los flujos correspondientes. La tabla de selección de flujos está constituida de la STN_table en la información de elementos de reproducción y la STN_table_SS en los datos de extensión.
A continuación se describe la tabla de selección de flujos que está incluida en la estructura interna descrita arriba de la información Playltem.
La figura 28A muestra la tabla de selección de flujos. La tabla de selección de flujos está compuesta de una pluralidad de entradas de flujo. Como se indica por los signos "}", las entradas de flujo se clasifican en: (i) entradas de flujo que se definen en la STN_table; y (ii) entradas de flujo que se definen en la STN_table_SS .
Como las entradas de flujo de la STN_table, el audio/PG/IG para 2D que son reproducibles durante la reproducción 2D pueden ser registrados. Por esta razón, la STN_table incluye un grupo de entradas de flujos de video 2D, un grupo de entradas de flujos de audio 2D, un grupo de entradas de flujos de PG 2D y un grupo de entradas de flujos de IG 2D, y los identificadores de paquete de los flujos de video, audio, PG e IG pueden ser descritos en estos grupos de entradas de flujos.
Como las entradas de flujos de la STN_table_SS , el audio/PG/IG para 3D que son reproducibles durante reproducción estereoscópica pueden ser registrados. Por esta razón, la STN_table_SS incluye un grupo de entradas de flujos de video 3D, un grupo de entradas de flujos de audio 3D, un grupo de entradas de flujos de PG 3D, un grupo de entradas de flujos de IG 3D e información de combinación de flujos, y los identificadores de paquetes de los flujos de video, audio, PG e IG pueden describirse en estos grupos de entradas de flujo.
La figura 28B muestra los elementos estructurales que son comunes para las entradas de flujo. Como se muestra en la figura 28B, cada entrada de flujo de la tabla de selección de flujos incluye un "número de selección de flujos", "información de trayectoria de flujo" e "información de identificación de flujo" .
El "número de selección de flujos" es un número asignado a cada entrada de flujo en la tabla de selección de flujos, y se incrementa por uno en el orden empezando con la "entrada de flujo 1". El "número de selección de flujo" se usa por el dispositivo de reproducción para identificar cada flujo.
La "información de trayectorias de reproducción" es información que indica un flujo de AV en el cual el flujo indicado por la información de identificación de flujo es multiplexado . Por ejemplo, cuando la "información de trayectoria de flujo" es "trayectoria principal", indica un flujo de AV del elemento de reproducción; y cuando la "información de trayectoria de reproducción" es "ID de sub-trayectoria (1"', indica un flujo de AV de un sub-elemento de reproducción que corresponde a la sección de reproducción del elemento de reproducción, en la sub-trayectoria indicada por el ID de sub-trayectoria.
La "información de identificación de flujos" es información tal como el PID, e indica un flujo multiplexado en el archivo de flujos de AV referenciado . Información de atributo de cada flujo también es registrada en cada entrada de flujo. Aquí, la información de atributo es información que indica características de cada flujo. Por ejemplo, en el caso de audio, gráficos de presentación o gráficos interactivos, la información de atributos incluye un atributo de idioma o similar.
En la STN_table_SS , las entradas de flujo para los flujos de video de vista izquierda y derecha tienen los mismos valores con respecto a, por ejemplo, la velocidad de cuadros, resolución y formato de video. Por esta razón, la entrada de flujo puede incluir un indicador que indique si el flujo correspondiente es el flujo de video de vista izquierda o el flujo de video de vista derecha.
Esto concluye la descripción de la tabla de selección de flujos. A continuación se da una descripción detallada de la información de identificación de vista izquierda/vista derecha.
Se ha asumido en la descripción que la vista izquierda sirve como la vista principal, y la vista izquierda es presentada visualmente durante presentación visual 2D. Sin embargo, como alternativa, la vista derecha puede servir como la vista principal. Una lista de reproducción incluye información que indica cuál de la vista izquierda y la vista derecha sirve como la vista principal y es presentada visualmente durante reproducción 2D. El juicio en cuanto a cuál de la vista izquierda y la vista derecha sirve como la vista principal se determina de acuerdo con esta información. Esta información es la información de identificación de vista izquierda/vista derecha .
Se considera generalmente que un video de vista izquierda se genera como video 2D en un estudio. Sin embargo, algunos pudieran pensar que es preferible crear un video de vista derecha como video 2D. Debido a esta posibilidad, la información de identificación de vista izquierda/vista derecha, que indica cuál de la vista izquierda y vista derecha sirve como la vista base, puede establecerse para cada pieza de información de elementos de reproduce ion.
La figura 29 muestra una lista de reproducción 3D que se hace al añadir la información de identificación de vista izquierda/vista derecha a la lista de reproducción 3D mostrada en la figura 20. Con esta información, cuando el flujo de video de vista derecha es especificado como el flujo de video de vista base, el flujo de video de vista derecha es ingresado primero en el decodificador de video para obtener datos de imagen no comprimidos, incluso si la vista derecha es especificada por la información de sub-trayectoria. Después, se lleva a cabo compensación de movimiento con base en los datos de imagen no comprimidos obtenidos al decodificar el flujo de video de vista derecha. Esta estructura da flexibilidad a la selección de cuál de la vista izquierda y la vista derecha deben servir como la vista base.
Cada flujo y la información de identificación de vista izquierda/vista derecha pueden enviarse al dispositivo de presentación visual, y el dispositivo de presentación visual puede usar la información de identificación de vista izquierda/vista derecha para distinguir entre los flujos de vista izquierda y vista derecha. Cuando se usan los lentes obturadores, es necesario reconocer cuál del video de vista izquierda y el video de vista derecha es el video principal que va a ser referenciado por el elemento de reproducción, para de esta manera sincronizar la operación de los lentes obturadores con la presentación visual del dispositivo de presentación visual. Por lo tanto, señales de conmutación son enviadas a los lentes obturadores de tal manera que el lente sobre el ojo izquierdo se vuelva transparente durante la presentación visual del video de vista izquierda mientras que el lente sobre el ojo derecho se vuelva transparente durante la presentación visual del video de vista derecha.
La distinción entre la vista izquierda y la vista derecha también es necesaria incluso en el método de visión estereoscópica a simple vista en el cual el dispositivo de presentación visual tiene una pantalla integrada con un prisma, tal como lente lenticular. Por lo tanto, la información de identificación de vista izquierda/vista derecha también se utiliza cuando este método es usado.
Esto concluye la descripción de la información de identificación de vista izquierda/vista derecha. La información de identificación de vista izquierda/vista derecha es provista en sobre la suposición de que cualquiera del video de vista izquierda o el video de vista derecha entre las imágenes de paralaje pueda ser reproducido como video 2D. Sin embargo, algunas imágenes de paralaje pueden no ser adecuadas para usarse como imágenes 2D dependiendo de sus tipos .
A continuación se describen imágenes de vista izquierda y derecha que no son adecuadas para uso como imágenes 2D.
La figura 30 muestra dos piezas de información de listas de- reproducción que definen de manera diferente la imagen de vista izquierda, imagen de vista derecha e imagen central. La esquina derecha inferior de la figura 30 muestra una imagen estereoscópica que está diseñada para producir un efecto de pantalla que haga al espectador sentirse como si el dinosaurio se estuviera acercando justo enfrente de sus ojos. La imagen estereoscópica está compuesta de imágenes L y R mostradas sobre las mismas en la figura 30. Una imagen estereoscópica constituida de imágenes L y R que cada una muestran un objeto (el dinosaurio en la figura 30) visto desde el lado se ve como si se extendiera ampliamente fuera del frente de la pantalla (en adelante, "efecto de extensión"). Aquí, cuando el flujo de video de vista izquierda se usa como un flujo de video 2D, el espectador reconocería visualmente el objeto como un objeto grande y extraño que se encuentra horizontalmente . Para evitar este problema, una pieza de información de listas de reproducción que especifica un flujo de video que representa imágenes centrales se selecciona como la lista de reproducción actual durante reproducción 2D.
En la figura 30, "00005. mpls" especifica los flujos de video de vista izquierda y derecha que proporciona un gran efecto de extensión como la información de trayectoria principal y la información de sub-trayectoria, respectivamente .
I El "00003.mpls" especifica el flujo de video que representa imágenes centrales, usando la trayectoria principal. El objeto película en la esquina izquierda superior de la figura 30 se describe de tal manera que cualquiera de 00005. mpls o 00003. mpls se selecciona para reproducción dependiendo de la capacidad de reproducción 3D (capacidad 3D) del dispositivo de reproducción (la palabra "si" en la figura 30) .
Esto concluye la descripción de la implementación del medio de grabación y método de grabación. A continuación se describe el dispositivo de reproducción en detalle .
La figura 31 muestra la estructura de un dispositivo de reproducción 2D/3D. El dispositivo de reproducción 2D/3D incluye una unidad de BD-ROM 1, una memoria de almacenamiento temporal de lectura 2a, una memoria de almacenamiento temporal de lectura 2b, un interruptor 3, un decodificador de objetivos de sistema 4, un conjunto de memoria de planos 5a, una unidad de composición de planos 5b, una unidad de transmisión/recepción HDMI 6, una unidad de control de reproducción 7, una memoria de información de administración 9, un conjunto de registros 10, una unidad de ejecución de programas 11, una memoria de programas 12, un módulo HDMV 13, una plataforma BD-J 14, un middle are 15, un módulo de administración de modos 16, una unidad de procesamiento de eventos de usuario 17, un almacenamiento local 18 y una memoria no volátil 19.
Al igual que en el dispositivo de reproducción 2D, la unidad de BD-ROM 1 lee datos de un disco BD-ROM con base en una solicitud proveniente de la unidad de control de reproducción 7. Un archivo de flujos de AV leído del disco BD-ROM es transferido a la memoria de almacenamiento temporal de lectura 2a o 2b.
Cuando se reproduce video 3D, la unidad de control de reproducción 7 envía una solicitud de lectura que instruye a la unidad de BD-ROM 1 leer el flujo de AV de 2D/vista izquierda y el flujo de AV de vista derecha de manera alternante sobre una base por extensión. La unidad de BD-ROM 1 lee extensiones que constituyen el flujo de AV de 2D/vista izquierda en la memoria de almacenamiento temporal de lectura 2a, y lee extensiones que constituyen el flujo de AV de vista derecha en la memoria de almacenamiento temporal de lectura 2b. Cuando se reproduce video 3D, la unidad de BD-ROM 1 debe tener una velocidad de lectura más alta que cuando reproduce video 2D, toda vez que es necesario leer tanto el flujo de AV de 2D/vista izquierda como el flujo de AV de vista derecha simultáneamente.
La memoria de almacenamiento temporal de lectura 2a es una memoria de almacenamiento temporal que puede lograrse por, por ejemplo, una memoria de doble puerto, y almacena datos del flujo de AV 2D/vista izquierda leído por la unidad de BD-ROM 1.
La memoria de almacenamiento temporal de lectura 2b es una memoria de almacenamiento temporal que puede lograrse mediante, por ejemplo, una memoria de doble puerto, y almacena datos del flujo de AV de vista derecha leído por la unidad de BD-ROM 1.
El interruptor 3 se usa para cambiar el origen de datos que serán ingresados en las memorias de almacenamiento temporal de lectura, entre la unidad de BD-ROM 1 y el almacenamiento local 18.
El decodificador de objetivos de sistema 4 decodifica los flujos al llevar a cabo procesamiento de desmultiplexión en los paquetes de origen leídos en las memorias de almacenamiento temporal de lectura 2a y 2b.
El conjunto de memorias de planos 5a está compuesto de una pluralidad de memorias de planos. Las memorias de planos incluyen un plano de video de vista izquierda, un plano de video de vista derecha, un plano de video secundario, un plano de gráficos interactivos (plano de IG) y un plano de gráficos de presentación (plano de PG) .
La unidad de composición de planos 5b superpone instantáneamente imágenes en el plano de video de vista izquierda, plano de video de vista derecha, plano de video secundario, plano de IG, plano de PG y plano de GFX, y presenta visualmente las imágenes superpuestas en una pantalla tal como una pantalla de TV. Al presentar visualmente estas imágenes superpuestas, la unidad de composición de planos 5b corta las imágenes en un conjunto del plano de video secundario, plano de PG y plano de IG para la vista izquierda y vista derecha de manera alternante, y compone las imágenes cortadas con el plano de video de vista izquierda o derecha. Las imágenes compuestas son transferidas al plano de GFX para procesamiento de superposición .
La unidad de composición de planos 5b corta gráficos en el plano de IG para la vista izquierda y la vista derecha de manera alternante, usando la información de desplazamiento especificada por la API, y envía, a la televisión, una imagen generada al superponer las imágenes en el plano de video de vista izquierda o derecha, el plano de video secundario, el plano de PG y el plano de IG.
La imagen superpuesta es enviada a la televisión o similar de acuerdo con el método 3D. Cuando es necesario reproducir las imágenes de vista izquierda y las imágenes de vista derecha de manera alternante usando los lentes obturadores, las imágenes son enviadas tal cual. Cuando las imágenes superpuestas son enviadas a, por ejemplo, una televisión con un lente lenticular, imágenes de vista izquierda y derecha son transferidas y almacenadas en una memoria de almacenamiento temporal en este orden; una vez que las dos imágenes han sido almacenadas, son enviadas simultáneamente .
La unidad de transmisión/recepción HDMI 6 incluye una interfaz que se conforma a, por ejemplo, la norma HDMI. La unidad de transmisión/recepción HDMI 6 lleva a cabo transmisión/recepción de datos de tal manera que el dispositivo de reproducción y un dispositivo (en la presente modalidad, la televisión 300) conectado al dispositivo de reproducción usando la conexión HDMI se conformen a la norma HDMI . Los datos de imagen almacenados en el video y los datos de audio no comprimidos decodificados por el decodificador de audio son transferidos a la televisión 300 por medio de la unidad de transmisión/recepción HDMI 6. La televisión 300 contiene, por ejemplo, (i) información que indica si soporta o no la presentación visual estereoscópica, (ü) información con respecto a la resolución con la cual se puede llevar a cabo la presentación visual 2D, y (iii) información con respecto a la resolución con la cual se puede llevar a cabo la presentación visual estereoscópica. Después de recibir una solicitud del dispositivo de reproducción por medio de la unidad de transmisión/recepción HDMI 6, la televisión 300 regresa la información necesaria solicitada (por ejemplo, las piezas de información (i), (ii) y (iii) arriba) al dispositivo de reproducción. De esta manera, el dispositivo de reproducción puede obtener información que indique si la televisión 300 soporta o no la presentación visual estereoscópica de la televisión 300 por medio de la unidad de transmisión/recepción HDMI 6.
Cuando la unidad de ejecución de programas 11 o similar instruye a la unidad de control de reproducción 7 reproducir una lista de reproducción 3D, la unidad de control de reproducción 7 identifica un flujo de AV 2D/vista izquierda de un elemento de reproducción que es el objetivo de reproducción entre la lista de reproducción 3D, e identifica un flujo de AV de vista derecha de un sub-elemento de reproducción en la sub-trayectoria 3D que debe ser reproducido en sincronización con el elemento de reproducción. Posteriormente, la unidad de control de reproducción 7 interpreta el mapa de entrada del archivo de información de clips correspondiente, y solicita a la unidad de BD-ROM 1 leer alternantemente extensiones del flujo de AV 2D/vista izquierda y el flujo de AV de vista derecha, iniciando con el punto de inicio de reproducción, con base en el tipo de inicio de extensión que indique cuál de las extensiones del flujo de AV 2D/vista izquierda y el flujo de AV de vista derecha se dispone primero. Cuando la reproducción es iniciada, la primera extensión es leída en la memoria de almacenamiento temporal de lectura 2a o 2b. Una vez que esta lectura se ha completado, la primera extensión se transfiere de la memoria de almacenamiento temporal de lectura 2a o 2b al decodificador de objetivos de sistema 4. Cuando se reproduce la lista de reproducción 3D, la unidad de control de reproducción 7 notifica a la unidad de composición de planos 5b de los metadatos 3D incluidos en el archivo de información de clips que corresponda al flujo de AV 3D/vista izquierda.
Al llevar a cabo el control mencionado arriba, la unidad de control de reproducción 7 puede leer un archivo en la memoria al llevar a cabo una invocación de sistema para una apertura de archivo .
La apertura de archivo indica un proceso en el cual el sistema de archivos (i) busca un directorio usando el nombre de archivo que sea dado después de llevar a cabo la invocación de sistema, (ii) asegura un Bloque de Control de Archivos (FCB) si el archivo es encontrado, y (iii) regresa el número del manejo de archivos. El FCB es generado al copiar, en la memoria, los contenidos de la entrada de directorio del archivo objetivo. Posteriormente, la unidad de control de reproducción 7 puede transferir el archivo objetivo del BD-ROM a la memoria al presentar este manejo de archivo a la unidad de BD-ROM 1.
El motor de reproducción 7a ejecuta funciones de reproducción de AV. Las funciones de reproducción de AV indican un grupo de funciones tradicionales que se originaron de los reproductores de CD y DVD. Aquí, las funciones de reproducción de AV son procesamiento tal como inicio de reproducción, paro de reproducción, pausa, cancelar pausa, cancelar función de imagen fija, adelantado llevado a cabo al especificar un valor que indique la velocidad de reproducción, rebobinado llevado a cabo al especificar un valor que indique la velocidad de reproducción, cambio de audio, cambio de datos de imagen para video secundario, cambio de ángulo, etc.
El motor de control de reproducción 7a ejecuta funciones de reproducción de listas de reproducción en respuesta a una invocación de función proveniente de un intérprete de comandos (operador del modo HDMV) y una ® plataforma Java (operador del modo BD-J) . Las funciones de reproducción de listas de reproducción son procesamiento de llevar a cabo, de entre las funciones de reproducción de AV mencionadas arriba, el inicio de reproducción y el fin de reproducción de acuerdo con la información de listas de reproducción actual que constituya la lista de reproducción actual y la información de clips actual.
La memoria de información de administración 9 es una memoria para almacenar la información de listas de reproducción actual y la información de clips actual. La información de listas de reproducción actual es una pieza de información de listas de reproducción que actualmente está siendo el objetivo de procesamiento, dentro de una pluralidad de piezas de información de listas de reproducción que pueden ser accedidas desde el BD-ROM, unidad de medios integrada o unidad de medios removible . La información de clips actual es una pieza de información de clips que actualmente está siendo el objetivo de procesamiento, dentro de una pluralidad de piezas de información de clips que pueden ser accedidas desde el BD-ROM, unidad de medios integrada o unidad de medios removible .
El conjunto de registros 10 (un conjunto de registros de estado/ajustes de reproductor) es un conjunto de registros que incluye: un registro de estado de reproductor para almacenar un estado de reproducción de listas de reproducción; un registro de programación de reproductor para almacenar información de configuración que indique la configuración del dispositivo de reproducción; y un registro de propósitos generales para almacenar información arbitraria que se vaya a usar por contenidos. Aquí, el estado de reproducción de listas de reproducción indica, por ejemplo, los datos de AV que están siendo usados de entre varias piezas de información de datos de AV descritas en la lista de reproducción, y una posición (hora) en la cual una porción de la lista de reproducción que actualmente se está reproduciendo existe.
Cuando el estado de reproducción de listas de reproducción ha cambiado, el motor de control de reproducción 7b almacena el estado de reproducción de listas de reproducción cambiado en el conjunto de registros 10. También, de acuerdo con una instrucción enviada desde una aplicación ejecutada por el intérprete de comandos (operador del modo HDMV) y la plataforma Java* (operador del modo BD-J) , un valor especificado por la aplicación puede ser almacenado, y el valor almacenado puede ser transferido a la aplicación .
La unidad de ejecución de programas 11 es un procesador para ejecutar un programa almacenado en un archivo de programas BD . La unidad de ejecución de programas 11 lleva a cabo los siguientes controles al operar de acuerdo con el programa almacenado: (1) instruir a la unidad de control de reproducción 7 reproducir una lista de reproducción; y (2) transferir, al decodificador de objetivos de sistema, PNGs y JPEGs para un menú o gráficos para un juego, de tal forma que puedan ser presentados visualmente en la pantalla. Estos controles se pueden llevar a cabo libremente de acuerdo con la construcción del programa, y cómo se lleven a cabo los controles se determina por el proceso de programación de la aplicación BD-J en el proceso de creación.
La memoria de programas 12 almacena un escenario dinámico actual, y se usa para el procesamiento llevado a cabo por el módulo HDMV (operador del modo HDMV) y la plataforma Java* (operador del modo BD-J) . El escenario dinámico actual es uno del Index. bdmv, objeto BD-J y objeto película grabados en el BD-ROM que actualmente está siendo seleccionado para ejecución. La memoria de programas 12 incluye una memoria de pila.
La memoria de pila es una región de pila para almacenar códigos de bytes de la aplicación de sistema, códigos de bytes de la aplicación de BD-J, parámetros de sistema usados por la aplicación de sistema, y parámetros de aplicación usados por la aplicación BD-J.
El módulo HDMV 13 es un reproductor virtual de DVD que es un operador del modo HDMV. El módulo HDMV 13 también es un ejecutor del modo HDMV. El módulo HDMV 13 tiene un intérprete de comandos, y lleva a cabo el control en el modo HDMV para interpretar y ejecutar el comando de navegación que constituye el objeto película. El comando de navegación es descrito en una sintaxis que simula una sintaxis usada en el video DVD. En consecuencia, es posible lograr un control de reproducción tipo video de DVD al ejecutar el comando de navegación .
La plataforma BD-J 14 es una plataforma Java° que es un operador del modo BD-J, y se implementa completamente con el Java 2 Plataform, Micro Edition (J2ME) Personal Basis Profile (PBP 1.0) y especificación Globally Executable MHP (GEM 1.0.2) para objetivos de medios de paquete. La plataforma BD-J 14 está compuesta de un cargador de clase, un intérprete de código de bytes y un administrador de aplicaciones .
El cargador de clase es uno de aplicaciones de sistema, y carga una aplicación de BD-J al leer códigos de bytes del archivo de clase que existe en la carpeta de archivos JAR, y almacenar códigos de byte en la memoria de pila .
El intérprete de códigos de bytes es lo que se conoce como una maquina virtual Java . El interprete de códigos de bytes convierte (i) los códigos de bytes que constituyen la aplicación BD-J almacenada en la memoria de pila y (ii) los códigos de bytes que constituyen la aplicación de sistema, en códigos nativos, y causa que la MPU ejecute los códigos nativos.
El administrador de aplicaciones es uno de aplicaciones de sistema, y lleva a cabo señalización de aplicaciones para la aplicación BD-J (por ejemplo, inicia o concluye la aplicación de BD-J) con base en la tabla de administración de aplicaciones en el objeto BD-J. Esto concluye la estructura interna de la plataforma BD-J.
El middleware 15 es un sistema operativo para el software integrado, y está compuesto de un núcleo y un controlador de dispositivo. El núcleo proporciona a la aplicación BD-J una función única para el dispositivo de reproducción, en respuesta a una invocación para la interfaz de programación de aplicaciones (API) de la aplicación BD-J. El middleware 15 también logra el control del hardware, tal como iniciar el manej ador de interrupción al enviar una señal de interrupción.
El módulo de administración de modos 16 contiene Index. bdmv que fue leído del BD-ROM, unidad de medios integrada o unidad de medios removible, y lleva a cabo administración de modos y control ramas. La administración de modos por el módulo de administración de modos es asignación de módulos para causar que ya sea la plataforma BD-J o el módulo HDMV ejecuten el escenario dinámico.
La unidad de procesamiento de eventos de usuario 17 recibe una operación de usuario por medio de un control remoto, y causa que la unidad de ejecución de programas 11 o la unidad de control de reproducción 7 lleven a cabo procesamiento según se instruya por la operación de usuario recibida. Por ejemplo, cuando el usuario oprime un botón en el control remoto, la unidad de procesamiento de eventos de usuario 17 instruye a la unidad de ejecución de programas 11 ejecutar un comando incluido en el botón. Por ejemplo, cuando el usuario oprime un botón de adelantado o rebobinado en el control remoto, la unidad de procesamiento de eventos de usuario 17 instruye a la unidad de control de reproducción 7 ejecutar el procesamiento de adelantado o rebobinado en el flujo de AV de la lista de reproducción que actualmente esté siendo reproducida.
El almacenamiento local 18 incluye la unidad de medios integrada para acceder a un disco duro y la unidad de medios removible para acceder a una tarjeta de memoria semiconductora, y almacena contenidos adicionales descargados, datos que serán usados por aplicaciones, y similares. Un área para almacenar los contenidos adicionales se divide en áreas pequeñas que están en correspondencia una a una con BD-ROMs. Asimismo, un área para almacenar datos usados por aplicaciones se dividen en áreas pequeñas que están en correspondencia una a una con aplicaciones.
La memoria no volátil 19 es un medio de grabación que es, por ejemplo, una memoria legible/escribible, y es un medio tal como memoria flash o FeRAM que puede preservar los datos grabados incluso si no se suministra energía al mismo. La memoria no volátil 19 se usa para almacenar un respaldo de datos almacenado en el conjunto de registro 10.
A continuación se describirán las estructuras internas del decodificador de objetivos de sistema 4 y el conjunto de mémorias de planos 5a. La figura 32 muestra las estructuras internas del decodificador de objetivos de sistema 4 y el conjunto de memorias de planos 5a. Como se muestra en la figura 32, el decodificador de objetivos de sistema 4 y el conjunto de memorias de planos 5a incluyen un contador ATC 21, un desempaquetador de origen 22, un filtro PID 23, un contador STC 24, un contador ATC 25, un desempaquetador de origen 26, un filtro PID 27, un decodificador de video primario 31, un plano de video de vista izquierda 32, un plano de video de vista derecha 33, un decodificador de video secundario 34, un plano de video secundario 35, un decodificador de PG 36, un plano de PG 37, un decodificador de IG 38, un plano de IG 39, , un decodificador de audio primario 40, un decodificador de audio secundario 41, un mezclador 42, un motor de renderización 43 y un plano de GFX 44.
El contador ATC 21 genera Reloj de Hora de Llegada (ATC) para ajustar la sincronización de operación dentro del dispositivo de reproducción.
Después de que un paquete de origen es almacenado en la memoria de almacenamiento temporal de lectura 2a, el desempaquetador de origen 22 transfiere un paquete TS del paquete de origen al filtro PID. Más específicamente, el desempaquetador de origen 22 transfiere el paquete TS al filtro PID de acuerdo con la velocidad de grabación del archivo de flujos de AV en el momento en que el valor del ATC generado por el contador ATC y el valor del ATS del paquete de origen se vuelven idénticos. Al transferir el paquete TS, el desempaquetador de origen 22 ajusta la hora de entrada en el decodificador de acuerdo con el ATS de paquete de origen.
El filtro PID 23 transfiere, de entre los paquetes TS enviados desde el desempaquetador de origen 22, paquetes TS que tengan un PID que coincida con un PID requerido para reproducción, al decodificador de video primario 31, el decodificador de video secundario 34, el decodificador de IG 38, el decodificador de PG 36, el decodificador de audio primario 40 o el decodificador de audio secundario 41.
El contador STC 24 genera un Reloj de Hora de Sistema (STC) para ajustar la sincronización de operación de cada decodificador .
El contador ATC 25 genera un Reloj de Hora de Llegada (ATC) para ajustar la sincronización de operación dentro del dispositivo de reproducción.
Después de que un paquete de origen es almacenado en la memoria de almacenamiento temporal de lectura 2b, el desempaquetador de origen 26 transfiere un paquete TS del paquete de origen al filtro PID. Más específicamente, el desempaquetador de origen 26 transfiere el paquete TS al filtro PID de acuerdo con la velocidad de sistema del flujo de AV en el momento en que el valor del ATC generado por el contador ATC y el valor del ATS del paquete de origen se vuelvan idénticos. Al transferir el paquete TS, el desempaquetador de origen 26 ajusta la hora de entrada en el decodificador de acuerdo con el ATS del paquete de origen.
El filtro PID 27 transfiere, de entre los paquetes TS enviados desde el desempaquetador de origen 26, paquetes TS que tengan un PID que coincida con un PID escrito en la tabla de selección de flujos del elemento de reproducción actual, al decodificador de video primario, de acuerdo con el PID.
El decodificador de video primario 31 decodifica el flujo de video de vista izquierda, y escribe los resultados de la decodificación, en particular cuadros de video no comprimidos, en el plano de video de vista izquierda 32.
El plano de video de vista izquierda 32 es una memoria de planos que puede almacenar datos de imagen, una resolución de, por ejemplo, 1920 x 2160 (1280 x 1440) .
El plano de video de vista derecha 33 es una memoria de planos que puede almacenar datos de imagen por una resolución de, por ejemplo, 1920 x 2160 (1280 x 1440) .
El decodificador de video secundario 34 tiene la misma estructura que el decodificador de video primario, decodifica un flujo de video secundario ingresado al mismo, y escribe imágenes resultantes en el plano de video secundario de acuerdo con horas de presentación visual respectivas (PTSs) .
El plano de video secundario 35 almacena datos de imagen para el video secundario que es enviado desde el decodificador de objetivos de sistema 4 como resultado de decodificar el flujo de video secundario.
El decodificador de PG 36 extrae un flujo de gráficos de presentación de los paquetes TS ingresados desde el desempaquetador de origen, decodifica el flujo de gráficos de presentación extraído, y escribe los datos de gráficos descomprimidos resultantes en el plano de PG de acuerdo con horas de presentación visual respectivas (PTSs) .
El plano de PG 37 almacena un objeto de gráficos descomprimido obtenido al decodificar el flujo de gráficos de presentación.
El decodificador de IG 38 extrae un flujo de gráficos interactivos de los paquetes TS ingresados desde el desempaquetador de origen, decodifica el flujo de gráficos interactivos extraído y escribe el objeto de gráficos descomprimido resultante en el plano de IG de acuerdo con horas de presentación visual respectivas (PTSs) .
El plano de IG 39 almacena datos de gráficos obtenidos al decodificar el flujo de gráficos interactivos.
El decodificador de audio primario 40 decodifica el flujo de audio primario.
El decodificador de audio secundario 41 decodifica el flujo de audio secundario.
El mezclador 42 mezcla el resultado de decodificación del decodificador de audio primario 40 con el resultado de decodificación del decodificador de audio secundario 41.
El motor de renderización 43 decodifica datos de gráficos (por ejemplo, JPEG y PNG) usados por la aplicación de BD-J cuando renderiza un menú.
El plano de GFX 44 es una memoria de planos en la cual se escriben datos de gráficos (por ejemplo, JPEG y PNG) después de que son decodificados .
A continuación se explicará la estructura interna del decodificador de video primario 31. El decodificador de video primario 31 está compuesto de una TB 51, una MB 52, una EB 53, una TB 54, una MB 55, una EB 56, un decodificador de video 57, un interruptor de almacenamiento temporal 58, una DPB 59 y un interruptor de imágenes 60.
La Memoria de Almacenamiento Temporal de Transporte (TB) 51 es una memoria de almacenamiento temporal para almacenar temporalmente paquetes TS que contengan el flujo de video de vista izquierda tal cual, después de que sean enviados desde el filtro PID 23.
La memoria de almacenamiento temporal multiplexada (MB) 52 es una memoria de almacenamiento temporal para almacenar temporalmente paquetes PES cuando el flujo de video sea enviado de la TB a la EB . Cuando los datos son transferidos de la TB a la MB, los encabezados TS son retirados de los paquetes TS .
La Memoria de Almacenamiento Temporal Elemental (EB) 53 es una memoria de almacenamiento temporal para almacenar unidades de acceso de video en el estado codificado. Cuando los datos son transferidos de la MB a la EB, se retiran los encabezados PES.
La Memoria de Almacenamiento Temporal de Transporte (TB) 54 es una memoria de almacenamiento temporal para almacenar temporalmente paquetes TS que contengan el flujo de video de vista derecha tal cual, después de que sean enviados desde el filtro PID.
La Memoria de Almacenamiento Temporal Multiplexada (MB) 55 es una memoria de almacenamiento temporal para almacenar temporalmente paquetes PES cuando el flujo de video sea enviado de la TB a la EB. Cuando los datos son transferidos de la TB a la MB, se retiran los encabezados TS de los paquetes TS .
La Memoria Elemental (MB) 56 es una memoria de almacenamiento temporal para almacenar unidades de acceso de video en 1 estado codificado. Cuando los datos son transferidos de la MB a la EB, se retiran los encabezados PES .
El decodificador de video 57 genera una imagen de cuadro/campo al decodificar cada unidad de acceso que constituye el flujo elemental de video en horas de decodificación predeterminadas (DTSs) . Ya que hay varios métodos de codificación por compresión (por ejemplo, MPEG-2, MPEG-4 AVC y VC-1) que se pueden usar para codificar por compresión el flujo de video que será multiplexado en el archivo de flujos de AV, el método de decodificación usado por el decodificador de video 57 se selecciona de acuerdo con el atributo de flujos de cada flujo. Cuando se decodifican datos de imagen que constituyen el flujo de video de vista base, el decodificador de video 57 lleva a cabo compensación de movimiento usando piezas de datos de imagen, que existen en las direcciones futura y pasada, como imágenes de referencia. Cuando decodifica datos de imágenes que constituyen el flujo de video de vista dependiente, el decodificador de video 57 lleva a cabo compensación de movimiento usando piezas de datos de imagen que constituyen el flujo de video de vista base como imágenes de referencia. Después de que cada dato de imagen es decodificado de esta manera, el decodificador de video 57 transfiere la imagen de cuadro/campo decodificada a la DPB 59, y transfiere la imagen de cuadro/campo correspondiente al interruptor de imágenes en la hora de presentación visual (PTS) asignada al mismo.
El interruptor de almacenamiento temporal 58 determina de cuál de la EB 53 y la EB 56 la siguiente unidad de acceso debe ser extraída, usando la información de cambio de decodificación obtenida cuando el decodificador de video 57 decodificó las unidades de acceso de video, y transfiere una imagen de la EB 53 o la EB 56 al decodificador de video 57 en la hora de decodificación (DTS) asignada a la unidad de acceso de video. Ya que los DTSs de los flujos de video de vista izquierda y derecha se establecen por alternan en un eje de tiempo sobre una base por imagen, es preferible que las unidades de acceso de video sean transferidas al decodificador de video 57 sobre una base por imagen cuando, por ejemplo, se lleve a cabo decodificación fuera de programa no obstante de los DTSs.
La Memoria de Almacenamiento Temporal de Imágenes Decodificadas (DPB) 59 es una memoria de almacenamiento temporal para almacenar temporalmente la imagen de cuadros/campo decodificada . La DPB 59 se usa por el decodificador de video 57 para referirse a las imágenes decodificadas cuando el decodificador de video 57 decodifique una unidad de acceso de video tal como la imagen P o la imagen B que han sido codificadas por la codificación predictiva ínter- imágenes .
Cuando la imagen de cuadro/campo decodificada transferida desde el decodificador de video 57 va a ser escrita en un plano de video, el interruptor de imágenes 60 cambia el destino de escritura entre el plano de video de vista izquierda y el plano de vidéo de vista derecha. Cuando el flujo de vista izquierda está siendo procesado, datos de imagen descomprimidos son escritos instantáneamente en el plano de video de vista izquierda. Cuando el flujo de vista derecha está siendo procesado, datos de imagen descomprimidos son escritos instantáneamente en el plano de video de vista derecha.
La figura 33 muestra la estructura interna de la unidad de composición de planos 5b. La unidad de composición de planos 5b incluye: unidades de corte 61a, 61b y 61c para cortar datos de imagen descomprimidos y datos de gráficos almacenados en los planos con base en los metadatos 3D; una unidad de corte 61d para cortar datos de gráficos descomprimidos almacenados en un plano con base en la API de programas; un interruptor 62 para cambiar entre el plano de video de vista izquierda 32 y el plano de video de vista derecha 33 para recibir una salida de los mismos; y unidades de composición 63, 64, 65 y 66 para componer los planos.
El conjunto de memorias de planos 5a incluye un plano de video de vista izquierda, un plano de video de vista derecha, un plano de video secundario, un plano de PG, un plano de IG y un plano de GFX, los cuales están dispuestos en el orden indicado. El decodificador de objetivos de sistema 4 escribe datos de imagen en el plano de video de vista izquierda o derecha a las sincronizaciones de las PTS correspondientes .
Con base en el valor establecido en el PSR 22 y el indicador duplicado asignado al elemento de reproducción que está siendo actualmente reproducido, el interruptor 62 se conecta al plano de video de vista izquierda o derecha, y establece una trayectoria de conexión con el plano conectado para de esta manera recibir datos por medio de la trayectoria de conexión. Una vez que el interruptor 62 ha seleccionado uno de los planos al que está conectado a lo largo de la trayectoria de conexión, el interruptor 62 transfiere datos recibidos desde el plano seleccionado. Los datos transferidos son superpuestos con datos en el plano de video secundario, el plano de PG y el plano de IG.
En este método, diferentes contenidos son almacenados en los planos de video de vista izquierda y derecha para lograr la visión estereoscópica. Sin embargo, incluso si el mismo contenido es almacenado en los planos de video de vista izquierda y derecha, es posible lograr una visión pseudoestereoscópica al asignar diferentes coordenadas a los pixeles en los planos de video de vista izquierda y derecha. Entre las memorias de planos descritas arriba, el plano de PG logra visión estereoscópica al cambiar las coordenadas de pixeles en la memoria de planos.
A continuación se describe cómo se logra la visión estereoscópica por el plano de PG.
La figura 34 muestra cómo se compone el plano de PG.
Ahora se da una descripción de un método de componer planos, al tomar un ejemplo del plano de PG mostrado en la figura 34. La unidad de composición de planos 5b obtiene un valor de desplazamiento que corresponde a la hora de presentación visual actual, de entre las entradas de desplazamiento que existen en los metadatos 3D y que correspondan a los PIDs de los gráficos de presentación que actualmente están siendo reproducidos. Cuando el plano de imagen que será superpuesto es el plano de video de vista izquierda, la unidad de composición de planos 5b desplaza las coordenadas de los datos de imagen almacenadas en el plano de PG hacia la dirección positiva a lo largo del eje X por el valor de desplazamiento. La unidad de composición de planos 5b después corta el plano de PG de tal manera que el plano de PG cortado quepa dentro del plano de video de vista izquierda, y proporciona al plano de PG de tal manera que el plano de PG puede ser compuesto con los demás planos (véase la hilera superior de la figura 34) .
Cuando el plano de imagen que será superpuesto es el plano de video de vista derecha, la unidad de composición de planos 5b desplaza las coordenadas de los datos de imagen almacenados en el plano de PG hacia la dirección negativa a lo largo del eje X por el valor de desplazamiento. La unidad de composición de planos 5b después corta el plano de PG de tal manera que el plano de PG cortado quepa dentro del plano de video de vista derecha, y superpone el plano de PG cortado (véase la hilera inferior de la figura 34) . El plano de IG y el plano de video secundario se procesan de la misma manera.
La figura 35 muestra esquemáticamente cómo se presenta visualmente un plano al usuario después de haber sido cortado y superpuesto con el uso de los valores de desplazamiento. Al desplazar y cortar el plano con el uso de los valores de desplazamiento, es posible crear imágenes de paralaje para los ojos izquierdo y derecho. Esto hace posible dar profundidad a una imagen 2D. al dar profundidad a una imagen 2D, el espectador reconoce que la imagen 2D se ve como si se estuviera saliendo del frente de la pantalla de la imagen de presentación visual.
Esto concluye la descripción de la composición de planos. A continuación se describe una estructura interna del conjunto de registros 10 y el detalle del motor de control de reproducción 7b.
La figura 36 muestra las estructuras internas del conjunto de registros 10 y el motor de control de reproducción 7b.
El lado izquierdo de la figura 36 muestra la estructura interna del conjunto de registros 10, y el lado derecho muestra la estructura interna del motor de control de reproducción 7b.
Los valores almacenados en los PSRs (véase figura 36) son referenciados y actualizados por el objeto película y la aplicación BD-J según sea necesario. Como se muestra en la figura 36, los valores almacenados en los PSRs son parámetros referenciados por el objeto película y la aplicación BD-J, y de esta manera también son llamados parámetros de sistema.
Primero, se describirán PSRs representativos.
PSR 1 es un registro de números de flujo para el flujo de audio, y almacena un número de flujo de audio actual.
PSR 2 es un registro de números de flujo para el flujo de PG, y almacena un número de flujo de PG actual.
PSR 4 se establece en un valor que varía de "1" a "100" para indicar un número de título actual.
PSR 5 se establece en un valor que varía de "1" a "999" para indicar un número de capítulo actual; y se establece en un valor "OxFFFF" para indicar que el número de capítulo es inválido en el dispositivo de reproducción.
PSR 6 se establece en un valor que varía de entre "0" a "999" para indicar un número de lista de reproducción actual .
PSR 7 se establece en un valor que varía de "0" a "255" para indicar un número de elemento de reproducción actual .
PSR 8 se establece en un valor que varía de "0" a "OXFFFFFFFF" para indicar un punto de tiempo de reproducción actual (PTM actual) con la precisión de tiempo de 45 KHz.
PSR 10 es un registro de números de flujo para el flujo de IG, y almacena un número de flujo de IG actual.
PSR 21 indica si el usuario desea o no llevar a cabo reproducción estereoscópica. Un valor se establece en el PSR 21 por medio de navegación del archivo de programas BD, API, o el OSD del reproductor. El control remoto 500 tiene un "botón de cambio 2D/3D" cuando la unidad de procesamiento de eventos de usuario 17 notifica que el botón de cambio 2D/3D es oprimido a una sincronización arbitraria (por ejemplo, durante la reproducción de una lista de reproducción 3D) el valor del PSR 21 es reiniciado - es decir, cambiado de un valor que indica la reproducción estereoscópica a un valor que indica reproducción 2D, o viceversa. De esta manera la .preferencia del usuario puede tomarse en consideración.
PSR 22 indica un valor de tipo de presentación visual .
PSR 23 se usa para establecer "Capacidad de Presentación Visual para 3D" . Esto indica si el dispositivo de presentación visual conectado al dispositivo de reproducción es o no capaz de llevar a cabo reproducción estereoscópica .
PSR 24 se usa para establecer "Capacidad de Reproductor para 3D" . Esto indica si el dispositivo de reproducción es o no capaz de llevar a cabo reproducción estereoscópica. La "Capacidad de Reproductor para 3D" almacenada en el PSR 24 significa capacidad de reproducción 3D del dispositivo de reproducción como un todo, y de esta manera puede conocerse simplemente como "capacidad 3D" .
Por otro lado, el motor de control de reproducción 7b incluye una unidad de ejecución de procedimientos 8 para determinar en forma única el tipo de presentación visual de la lista de reproducción actual al referirse al PSR 4, PSR 6, PSR 21, PSR 23 y PSR 24 en el conjunto de registros 10, y la tabla de selección de flujos de la información de listas de reproducción actual en la memoria de información de administración 9.
Cuando el valor del PSR 21 se cambia durante la reproducción de una lista de reproducción 3D, la unidad de ejecución de procedimientos 8 reinicia el valor de tipo de presentación visual de PSR 22 al seguir el procedimiento de procedimiento mostrado en la figura 37. Para ser más específicos, la unidad de ejecución de procedimientos 8 establece PSR 22 para indicar el "tipo de presentación visual L-R" (Etapa S114) cuando se satisfacen todas las siguientes condiciones: (i) que el PSR 24 para indicar "Capacidad de Reproductor para 3D" almacena un valor "1", es decir, que el dispositivo de reproducción tenga la capacidad de reproducción estereoscópica (etapa Slll: SI); (ii) que el PSR 21 para indicar el tipo de presentación visual establecido por el usuario almacene un valor que indique la "reproducción estereoscópica" (etapa S112 : SI); y (iii) que el PSR 23 para indicar "Capacidad de Presentación Visual para 3D" almacene un valor "1", es decir, que el dispositivo de presentación visual conectado al dispositivo de reproducción sea capaz de llevar a cabo reproducción estereoscópica (etapa S113 : SI). Por otro lado, la unidad de ejecución de procedimientos 8 establece PSR 22 para indicar el "tipo de presentación visual L-L" cuando el PSR 21, PSR 23 y PSR 24 se establezcan en valores que no sean los valores descritos arriba (etapa S115) .
Esto concluye la descripción del conjunto de registros 10.
Nótese que el dispositivo de reproducción 200 de la presente modalidad es un dispositivo de reproducción 3D/2D capaz de reproducir video 3D. Sin embargo, un dispositivo de reproducción 2D reproduce el video 2D al referirse sólo a una lista de reproducción 2D que describe una trayectoria de reproducción a lo largo de la cual se reproduce video 2D.
Ahora se da una descripción de un mecanismo de un dispositivo de reproducción 2D para reproducir una lista de reproducción 2D.
La figura 38 muestra una relación entre el archivo de índices ( Index.bdmv) y el archivo de programas BD (AAA.PRG) . Listas de reproducción 2D y 3D son grabadas en un BD-ROM que tiene grabado en el mismo video 3D. Aquí, las listas de reproducción 2D y 3D describen trayectorias de reproducción a lo largo de las cuales los videos 2D y 3D son reproducidos, respectivamente. Cuando el usuario ha seleccionado y ejecutado un título del archivo de programas BD, el programa del archivo de programas BD verifica (i) si el dispositivo de reproducción soporta reproducción de video, y (ii) si el dispositivo de reproducción soporta reproducción de video, si el usuario ha seleccionado reproducción de video 3D. El dispositivo de reproducción cambia en consecuencia a una lista de reproducción que será reproducida .
La figura 39 es un diagrama de flujo de acuerdo con el cual una lista de reproducción 2D o 3D es seleccionada por el programa del archivo de programas BD .
En SI, el valor del PST 24 es verificado. Cuando el valor del PST 24 es "0", significa que el dispositivo de reproducción es un dispositivo de reproducción 2D, y por lo tanto video 2D es reproducido. Cuando el valor del PST 24 es "1", el procesamiento se mueve a S2.
En S2 , el programa presenta visualmente una pantalla de menú y pregunta al usuario si desea la reproducción de video 2D o video 3D. El usuario selecciona uno de los videos 2D y 3D mediante, por ejemplo, un control remoto. Cuando el usuario desea reproducción del video 2D, la lista de reproducción 2D es reproducida. Cuando él usuario desea reproducción del video 3D, el procesamiento se mueve a S3.
En S3, el programa verifica .si la presentación visual soporta la reproducción del video 3D. Por ejemplo, el programa conecta el dispositivo de reproducción al presentador visual que usa la conexión HDMI , de tal manera que el dispositivo de reproducción pueda preguntar al presentador visual en cuanto a si el presentador visual soporta la reproducción del video 3D. Cuando el presentador visual no soporta la reproducción del video 3D, la lista de reproducción 2D es reproducida. Aquí, como alternativa, el programa puede presentar, en la pantalla de menú o similar, una notificación para notificar al usuario que la televisión no soporta la reproducción del video 3D. Cuando el presentador visual soporta la reproducción del video 3D, la lista de reproducción 3D es reproducida.
Nótese que los números de prefijo (por ejemplo, XXX en el caso de XXX.mpls) dados a los nombres de archivo de las listas de reproducción 2D y 3D pueden ser consecutivos. Esto hace fácil identificar la lista de reproducción 3D que corresponda a la lista de reproducción 2D. Esto concluye la descripción de la selección de listas de reproducción 2D y 3D. <Cómo cambiar sin interrupciones entre reproducción estereoscópica y reproducción 2D> Cuando el usuario selecciona reproducción de video 2D durante reproducción de video 3D (reproducción estereoscópica) , es necesario cambiar a reproducción 2D a una sincronización arbitraria. En forma similar, cuando el usuario selecciona reproducción de video 3D (estereoscópica) durante reproducción de video 2D, es necesario cambiar de reproducción 2D a reproducción estereoscópica suavemente. Un ejemplo del último caso es cuando el usuario desea cambiar de reproducción estereoscópica a reproducción 2D debido a tensión ocular.
Un método para cambiar de reproducción de video 3D a reproducción de video 2D es cambiar de reproducción de una lista de reproducción 3D, que almacena la trayectoria de reproducción a lo largo de la cual el video 3D es reproducido, a la reproducción de una lista de reproducción 2D, la cual almacena la reproducción a lo largo de la cual el video 2D es reproducido. De acuerdo con este método, por ejemplo, cuando se reproduce el video 3D a partir de la lista de reproducción 3D, el usuario envía una instrucción para cambiar de la reproducción de video 3D a la reproducción de video 2D por medio de un menú o similar presentado visualmente por el archivo de programas BD. En respuesta a esta instrucción, el archivo de programas BD detiene la reproducción de la lista de reproducción 3D, y especifica/selecciona la lista de reproducción 2D que corresponda a esta lista de reproducción 3D. Después, el archivo de programas BD especifica el punto de inicio de reproducción de la lista de reproducción 2D especificada/seleccionada, que corresponde a la hora a la cual la reproducción de la lista de reproducción 3D se detiene, y lleva a cabo reproducción de salto a partir de este punto de inicio de reproducción especificado. De la manera anterior, el dispositivo de reproducción cambia de la reproducción de video 3D a la reproducción de video 2D. Sin embargo, el uso de este método requiere procesamiento de (i) detener la reproducción de la lista de reproducción 3D y (ii) ejecutar el archivo de programas BD. En otras palabras, el uso de este método da origen al problema de que el dispositivo de reproducción no puede cambiar de la reproducción de video 3D a la reproducción de video 2D sin interrupciones .
Además, cuando se cambia a reproducción de video 2D durante reproducción de video 3D, el dispositivo de reproducción tiene que cambiar del procesamiento de enviar alternantemente imágenes de los flujos de video de vista izquierda y derecha al procesamiento de sólo enviar imágenes del flujo de video de vista izquierda. Más específicamente, la velocidad de cuadros a la cual las imágenes son enviadas tiene que cambiar de una velocidad de cuadros de 48 Hz a una velocidad de cuadros de 24 Hz. Como resultado, el dispositivo de reproducción y la televisión deben volver a establecer sincronización uno con otro (es decir, reiniciar la conexión HDMI entre los mismos) . Es decir, se causa un retraso cuando se cambia de la reproducción de video 3D a la reproducción de video 2D. En vista de este problema, tiene que haber un mecanismo que no haga que el dispositivo de reproducción cambie la velocidad de cuadros.
Ahora se describe un método para cambiar sin interrupciones entre reproducción 3D (estereoscópica) y reproducción 2D.
Como se muestra en la figura 40, este método permite que el dispositivo de reproducción cambie video que será enviado a la televisión de acuerdo con el ajuste del PSR 22, incluso cuando los flujos de video de vista izquierda y derecha para reproducir el video 3D estén siendo referenciados por la lista de reproducción 3D. Para ser más específicos, cuando el PSR 22 se pone en el "tipo de presentación visual L-R" , el dispositivo de presentación visual envía de manera alternante imágenes del flujo de video de vista izquierda 24 Hz e imágenes del flujo de video de vista derecha de 24 Hz ambos a una velocidad de cuadros de 48 Hz. Cuando el PSR 22 se pone en el "tipo de presentación visual L-L" , el dispositivo de presentación visual lleva a cabo reproducción duplicada sólo del flujo de video de vista izquierda, que es el flujo de video de vista base (en otras palabras, el dispositivo de presentación visual envía cada imagen del flujo de video de vista izquierda dos veces, a una velocidad de cuadros de 48 Hz) . De esta manera, se envían imágenes a la misma velocidad de cuadros tanto antes como después de que se cambie el tipo de presentación visual.
El valor del PSR 22 es cambiado cuando el PSR 21 que indica el tiempo de presentación visual programado por el usuario es cambiado por medio de, por ejemplo, el comando de navegación del archivo de programas BD, API, OSD del reproductor, u operaciones de botón del control remoto 500. Esto hace posible un cambio de estado durante reproducción. En el ejemplo de la figura 40, un estado de salida es cambiado durante la reproducción de la lista de reproducción 3D. Es decir, aunque el video 3D es presentado visualmente en la televisión hasta el tiempo ti (es decir, mientras el tipo de presentación visual es el "tipo de presentación visual L-R"), el video 2D es presentado visualmente en un periodo de tiempo entre los tiempos ti y t2, durante los cuales el tipo de presentación visual es el "tipo de presentación visual L-L" . En el tiempo t2 en adelante, el tipo de presentación visual se pone de nuevo en el "tipo de presentación visual L-R" y el video 3D es presentado visualmente en la televisión. No obstante, ya que las imágenes son enviadas a la televisión a una velocidad de cuadros de 48 Hz en cualquier momento, no habrá necesidad de restablecer sincronización, o de reiniciar la conexión HDMI , entre el dispositivo de reproducción y la televisión. Esto hace posible cambiar sin interrupciones entre reproducción 3D (estereoscópica) y reproducción 2D.
Con la estructura anterior, no hay necesidad de cambiar de una lista de reproducción a otra después de cambiar de reproducción de video 3D a reproducción de video 2D. Durante la reproducción de video 3D, el usuario puede cambiar dinámicamente a la reproducción de video 2D. Además, ya que imágenes del video 2D son reproducidas por duplicado, no se tiene ni que reproducir imágenes de video 3D, ni cambiar la velocidad de cuadro. Esto hace posible cambiar sin interrupciones entre reproducción de video 3D y reproducción de video 2D sin ocasionar ningún retraso.
Las operaciones de . la unidad de composición de planos 5b hacen posible cambiar sin interrupciones entre reproducción 3D (estereoscópica) y reproducción 2D como se muestra en la figura 40. En este momento, el decodificador de video decodifica de manera alternante, en una forma ordinaria, imágenes de los flujos de video de vista izquierda y derecha referenciadas por la lista de reproducción 3D de acuerdo con las sincronizaciones mostradas por los DTSs . Las imágenes decodificadas son almacenadas en las memorias de planos correspondientes de acuerdo con las sincronizaciones mostradas por los PTSs .
Mientras tanto, el interruptor 62 de la unidad de composición de planos 5b sigue el procedimiento mostrado en la figura 41 para cambiar entre memorias de planos de las cuales se obtienen datos. La figura 41 es un diagrama de flujo del control de cambios llevado a cabo por el interruptor 62. Cuando el valor del PSR 22 indica el tipo de presentación visual L-R (etapa S101: Sí), el interruptor 62 se conecta a la memoria de planos de vista actual (etapa 5102) . Cuando el valor del PSR 22 indica el tipo de presentación visual L-L (etapa S101: NO), el interruptor 62 se conecta al plano de video de vista izquierda 32 (etapa 5103) .
Después de que el interruptor 62 ha llevado a cabo el control de cambios, los datos almacenados en cada plano del conjunto de memoria de planos 5a son leídos y transferidos y sujetos al procesamiento de superposición.
Posteriormente, la vista actual es cambiada (etapa S104), y el procesamiento se mueve a la etapa S101. La unidad de composición de planos 5b repite la secuencia de procesamiento de etapas S101 a S105 a 48 Hz . Nótese que la vista actual es una vista izquierda al principio de la reproducción de un flujo de video. Cada vez que el procesamiento de la etapa S105 es ejecutado, la vista actual es cambiada de manera alternante, es decir, la vista izquierda es cambiada por la vista derecha, y viceversa.
El control de cambios anterior llevado a cabo por el interruptor 62 permite (i) enviar video 3D a una velocidad de cuadros de 48 Hz cuando el PSR 22 indique el "tipo de presentación visual L-R" , y (ii) enviar video 2D a una velocidad de cuadros de 48 Hz cuando el PSR 22 indique el "tipo de presentación visual L-L" .
Nótese que es posible cambiar sin interrupciones entre la reproducción 3D (estereoscópica) y la reproducción 2D como se muestra en la figura 40 al cambiar el procesamiento llevado a cabo por el decodificador de video primario 31, en lugar de al cambiar el procesamiento llevado a cabo por la unidad de composición de planos 5b. La figura 42 muestra la estructura del decodificador de video primario 31 que logra el cambio sin interrupciones entre reproducción de video 3D y reproducción de video 2D.
La unidad de control de reproducción 7 notifica al decodificador de video primario 31 de una notificación que indica el conjunto de tipos de presentación visual al PSR 22. Cuando el tipo de presentación visual es el tipo de presentación visual L-R, el interruptor de imágenes 60 envía cada una de las imágenes decodificadas de los flujos de video de vista izquierda y derecha, los cuales han sido transferidos desde el decodificador 57, al plano de video correspondiente a la sincronización mostrada por el PTS correspondiente. Cuando el tipo de presentación visual es el tipo de presentación visual L-L, el interruptor de imágenes 60 envía (i) la imagen decodificada del flujo de video de vista izquierda, la cual ha sido transferida desde el decodificador 57, al plano de video de vista izquierda en la sincronización mostrada por el PTS correspondiente, y (i) esta imagen decodificada de flujo de video de vista izquierda al plano de video de vista derecha a la sincronización obtenida al añadir el retraso de presentación visual 3D al PTS.
La estructura anterior hace posible el cambio sin interrupciones entre reproducción 3D (estereoscópica) y la reproducción 2D.
Como se indicó arriba, cuando el dispositivo de reproducción es del tipo de presentación visual L-R, la presente modalidad permite enviar de manera alternante piezas de datos de imagen obtenidas de los flujos de video de vista izquierda y derecha. Por otro lado, cuando el dispositivo de reproducción es del tipo de presentación visual L-L, la presente modalidad permite enviar cada dato de imagen obtenido del flujo de video de vista izquierda dos veces en sucesión. De esta manera, el video 3D, el cual es enviado cuando el tipo de presentación visual es el tipo de presentación visual L-R, y el video 2D, el cual es enviado cuando el tipo de presentación visual es el tipo de presentación visual L-L, son enviados a la misma velocidad de cuadros. En consecuencia, no hay necesidad de volver a establecer sincronización, o de reiniciar la conexión HDMI , entre el dispositivo de reproducción y el dispositivo de presentación visual después de cambiar entre el video 3D y el video 2D, haciendo entonces posible la reproducción sin interrupciones del video 3D y el video 2D.
Se ha descrito en la presente modalidad que el dispositivo de reproducción 2D está configurado para reproducir el video de ojo izquierdo como video 2D . Sin embargo, no sobra decir que la presente modalidad puede lograr aún los mismos efectos cuando el dispositivo de reproducción 2D se configure para reproducir el video de ojo derecho como video 2D.
Se ha descrito arriba que la presente invención es un método para grabar video 3D. La presente invención también se puede utilizar cuando se grabe video de alta velocidad de cuadros. El video de alta velocidad de cuadros está compuesto de (i) video de cuadros con números impares, que almacena cuadros con números impares extraídos del video de alta velocidad de cuadros, y (ii) video de cuadros de números pares, que almacena cuadros con números pares extraídos del video de alta velocidad de cuadros. Al grabar el video de cuadros con números impares y el video de cuadros con números pares respectivamente como el video de 2D/ojo izquierdo y video de ojo derecho usando la estructura de datos descrita en la presente modalidad, es posible obtener los mismos efectos que cuando se graba el video 3D. Más específicamente, con el uso de un BD-ROM en el cual el video de alta velocidad de cuadros anterior ha sido grabado de acuerdo con la presente modalidad, el dispositivo de reproducción 2D puede reproducir el video de cuadros con números impares, mientras que el dispositivo de reproducción 2D/3D puede reproducir ya sea el video de cuadros con números impares o el video de alta velocidad de cuadros. Por lo tanto, este BD-ROM es compatible con y puede ser reproducido tanto en el dispositivo de reproducción 2D como en el dispositivo de reproducción 2D/3D. <Modificación 1 de la primera modalidad> Como se muestra en la figura 43, el PSR 22 puede indicar tres tipos de presentación visual, en particular el "tipo de presentación visual L-R" , "tipo de presentación visual L-L" y "tipo de presentación visual 2D normal" . Aquí, el "tipo de presentación visual L-R" y el "tipo de presentación visual L-L" son idénticos al "tipo de presentación visual L-R" y "tipo de presentación visual L-L" ilustrados en la figura 40. El "tipo de presentación visual 2D normal" indica que piezas de datos de imagen sólo de flujos de video de vista izquierda se reproducen cada una una vez .
De acuerdo con la estructura mostrada en la figura 43, las imágenes son enviadas a una velocidad de cuadros de 48 Hz en una sección de reproducción en la cual el tipo de presentación visual es el "tipo de presentación visual L-R" o el "tipo de presentación visual L-L", mientras que imágenes son enviadas a una velocidad de cuadros más lenta, en particular a una velocidad de cuadros de 24 Hz, en una sección de reproducción en la cual el tipo de presentación visual es el "tipo de presentación visual 2D normal" . En consecuencia, se hace necesario reiniciar la conexión HD I y cambiar de una velocidad de cuadros a otra en el límite entre (i) la sección de reproducción en la cual el tipo de presentación visual es el "tipo de presentación visual L-R" o "tipo de presentación visual L-L" y (ii) la sección de reproducción en la cual el tipo de presentación visual es el "tipo de presentación visual 2D normal" . Esto causa retraso, y por lo tanto no puede lograr un cambio sin interrupciones entre la reproducción de video 3D y reproducción de video 2D. Sin embargo, la estructura mostrada en la figura 43 aún es beneficiosa toda vez que, cuando la televisión sufre carga de procesamiento (por ejemplo, consume una gran cantidad de energía) en llevar a cabo reproducción a alta velocidad de cuadros, la estructura puede reducir esta carga de procesamiento especialmente durante la reproducción de video 2D.
Como se muestra en la figura 44, el tipo de presentación visual programada en el PSR 22 puede utilizarse no sólo durante una sección de reproducción en la cual video de 3D que almacene flujos de video de vista izquierda y derecha sea reproducido, sino también durante una sección de reproducción en la cual video 2D que almacene sólo un flujo de video de vista izquierda sea reproducido. En este caso también, hay tres tipos de presentación visual que se han mencionado arriba, en particular el "tipo de presentación visual L-R", "tipo de presentación visual L-L" y "tipo de presentación visual 2D normal"; sin embargo, durante la sección de reproducción en la cual el video 2D que almacena sólo el flujo de video de vista izquierda es reproducido, el estado de "tipo de presentación visual L-R" no es aplicable. El dispositivo de reproducción 2D/3D lleva a cabo procesamiento de reproducción de acuerdo con el tipo de presentación visual. Cada sección de reproducción incluye diferentes elementos de reproducción y similares. Los elementos de reproducción se configuran de tal manera que se conecten sin interrupciones unos a otros de acuerdo con las condiciones de conexión correspondientes. La estructura mostrada en la figura 44 hace posible que el usuario cambie libremente entre reproducción de video 3D y reproducción de video 2D, incluso cuando una sección de reproducción en la cual el video 3D sea reproducido y una sección de reproducción en la cual el video 2D sea reproducido coexistan en una lista de reproducción 3D.
Nótese que cuando el dispositivo de reproducción cambia a una sección de reproducción en la cual video 2D que almacena sólo el flujo de video de vista izquierda es reproducido mientras el tipo de presentación visual se pone en el "tipo de presentación visual L-R" , el PSR 22 es cambiado al "tipo de presentación visual L-L" . De esta manera, el video 2D puede ser reproducido a una velocidad de cuadros a la cual el video 3D fue reproducido. En consecuencia, la reproducción de video 3D puede ser seguida por la reproducción de video 2D sin cambiar una velocidad de cuadros .
También, cuando el dispositivo de reproducción cambia a una sección de reproducción en la cual video 2D que almacena sólo el flujo de video de vista izquierda es reproducido mientras el tipo de presentación visual está puesto en el "tipo de presentación visual L-R" , el indicador duplicado asignado a esta sección de reproducción puede ser priorizado. Por ejemplo, el tipo de presentación visual puede cambiarse mientras se le da prioridad a información (por ejemplo, el indicador duplicado mencionado arriba) asignada a la sección de reproducción. Cuando el indicador duplicado muestra "reproducción duplicada", el PSR 22 es cambiado para indicar el "tipo de presentación visual L-L" . Cuando el indicador duplicado muestra "reproducción normal", el PSR 22 es cambiado para indicar el "tipo de reproducción 2D normal" . <Modificación 2 de la primera modalidad> Un mapa de entrada puede configurarse de tal manera que, como se muestra en la figura 45, un indicador de inicio de extensión (EXTSTART) sea añadido a información sobre cada punto de entrada. El indicador de inicio de extensión se pone en "1" cuando el SPN indicado por el punto de entrada correspondiente está al principio de una extensión que constituye un archivo de flujos de.AV, y "0" cuando el SPN indicado por el punto de entrada correspondiente no está al principio de una extensión que constituye un archivo de flujos de AV. Esto permite obtener el tamaño de cada extensión a partir de información del mapa de entrada correspondiente, haciendo entonces fácil que el dispositivo de reproducción 2D/3D lleve a cabo procesamiento de reproducir en forma alternante los flujos de AV sobre una base por extensión. La figura 46 muestra esquemáticamente relaciones entre puntos de entrada y flujos de AV. Por ejemplo, el archivo de flujos de AV mostrado en la figura 46 puede ser reproducido desde el principio como video 3D como sigue. En primer lugar, un tamaño de lectura de la primera extensión en el flujo de AV de vista izquierda se calcula con base en una diferencia entre (i) el SPN del punto de entrada #1 cuyo indicador de inicio de extensión muestra "1" y (ii) el SPN del siguiente punto de entrada #2 cuyo indicador de inicio de extensión muestra "1" . Posteriormente, se pide a la unidad de BD-ROM leer la primera extensión en el flujo de AV de vista izquierda. Luego, un tamaño de lectura de la primera extensión en el flujo de AV de vista derecha se calcula con base en una diferencia entre (i) el SPN del punto de entrada #3 cuyo indicador de inicio de extensión muestra "1" y (ii) el SPN del siguiente punto de entrada #4 cuyo indicador de inicio de extensión muestra "1". Posteriormente, se pide a la unidad de BD-ROM leer la primera extensión en el flujo de AV de vista derecha. Al llevar a cabo entonces el procesamiento de lectura de manera alternante para los flujos de AV de vista izquierda y derecha, las extensiones de los flujos de AV de vista izquierda y derecha pueden ser leídas de manera alternante una por una, incluso cuando no haya información sobre extensiones del sistema de archivos. En consecuencia, la unidad de BD-ROM puede llevar a cabo reproducción consecutivamente sin ningún salto.
En caso de que una extensión empiece con un paquete TS que incluye el encabezado de la imagen I que esté localizado al principio de un GOP que constituya un flujo de video de vista izquierda de un flujo de AV de vista izquierda, debe crearse también un punto de entrada. En forma similar, en caso de que una extensión empiece con un paquete TS que incluye el encabezado de la imagen que se ubica al principio de un GOP de ojo derecho que constituye un flujo de video de vista derecha de un flujo de AV de vista derecha, también se debe crear un punto de entrada.
Se ha descrito arriba que un indicador de inicio de extensión se añade a cada punto de entrada de un mapa de entrada. Sin embargo, un mapa de entrada es provisto con un indicador de un bit llamado un indicador de cambio de ángulo, que indica una sincronización para cambiar a un ángulo diferente durante reproducción de varios ángulos. Para reducir el tamaño de bits, los indicadores de inicio de extensión pueden combinarse con el indicador de cambio de ángulo. En este caso, la información de encabezado de mapa de entrada puede ser provista con un indicador que indique si este campo de un bit es el "indicador de inicio de extensión" o el "indicador de cambio de ángulo". Aquí, el dispositivo de reproducción 2D/3D interpreta el significado de este campo de un bit en el mapa de entrada al verificar el indicador provisto a la información de encabezado de mapa de entrada, y cambiar a procesamiento adecuado de acuerdo con el resultado de esta verificación.
Se ha descrito arriba que un indicador de inicio de extensión se añade a cada punto de entrada de un mapa de entrada. Sin embargo, la presente invención no está limitada a esto. El indicador de inicio de extensión puede ser remplazado por cualquier información que puede identificar los tamaños de extensión del flujo de AV correspondiente. Por ejemplo, los tamaños de extensión del flujo de AV correspondiente pueden ser listados y almacenados en un archivo de información de clips como metadatos . Como alternativa, una secuencia de bits puede ser reservada en correspondencia uno a uno con puntos de entrada de un mapa de entrada, para indicar así que (i) cada punto de entrada está al principio de una extensión cuando el bit correspondiente muestra "1", y (ii) cada punto de entrada no está al principio de una extensión cuando el bit correspondiente muestra "0" .
Segunda modalidad La sección Segunda modalidad describe un método de reproducción y un dispositivo de reproducción que se utilizarán en caso de que una imagen no pueda ser decodificada debido a daño durante la reproducción de video 3D grabado en un BD-ROM.
La hilera superior de la figura 48 muestra ejemplarmente imágenes de flujos de video de vista izquierda y derecha que serán reproducidos como video 3D, en el orden en el cual son presentados visualmente. La hilera superior de la figura 48 indica que hay imágenes que no pueden ser decodificadas debido a la ocurrencia de algún error (por ejemplo, un error de ^sintaxis) durante la reproducción. Estas imágenes que no pueden ser decodificadas debido a la ocurrencia de este error se conocen como imágenes dañadas 6501. La presentación visual de las imágenes dañadas 6501, las cuales están incluidas en el flujo de video de vista derecha, causaría incomodidad al espectador.
En vista del problema anterior, un dispositivo de reproducción de la segunda modalidad presenta visualmente imágenes durante reproducción de video 3D como se muestra en la hilera superior de la figura 48. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de reproducción presenta visualmente, en reemplazo de las imágenes dañadas 6501, imágenes del flujo de video de vista izquierda que cada una van a ser presentadas visualmente junto con una correspondiente de las imágenes dañadas 6501. Estas imágenes de los flujos de video de vista izquierda son llamadas en adelante "contrapartes de imagen dañada 6502" .
A continuación se describe un dispositivo de reproducción que ha sido modificado para ejecutar el método anterior. El dispositivo de reproducción de la presente modalidad comprende una versión modificada del decodificador de video primario incluido en el dispositivo de reproducción 200 descrito en la primera modalidad. La figura 47 muestra la estructura de un decodificador de video primario incluido en el dispositivo de reproducción de la segunda modalidad. Los PTSs de las contrapartes de imagen dañadas 6502 del flujo de video de vista izquierda, los cuales se supone que son presentados visualmente junto con las imágenes dañadas 6501, se obtienen cada uno al sustraer un retraso de presentación visual 3D del PTS de una de las imágenes dañadas 6501 correspondientes. En consecuencia, cuando el decodificador de video 57 notifica al interruptor de imágenes 60 que el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 (i) busca imágenes del flujo de video de vista izquierda a las que les sean asignados PTSs cuyos valores se obtengan respectivamente al sustraer el retraso de presentación visual 3D de valores de PTSs a los que se les han asignado las imágenes dañadas 6501, después (ii) envía, al plano de video de vista derecha, las imágenes que se hayan encontrado como resultado de la búsqueda. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
Como una modificación de la presente modalidad, el dispositivo de reproducción puede presentar visualmente imágenes durante reproducción de video 3D como se muestra en la hilera inferior de la figura 49. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de presentación visual puede presentar visualmente, el reemplazo de las imágenes dañadas 6501, imágenes del flujo de video de vista derecha que cada una precedan inmediatamente la imagen dañada 6501 correspondiente. A continuación se describe un dispositivo de presentación visual cuyas funciones han sido extendidas para ejecutar el método anterior. Cuando el decodificador de video 57 notifica al interruptor de imágenes 60 que el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 descarga las imágenes dañadas 6501 sin enviarlas al plano de video de vista derecha. Esto deja, en el plano de video de vista derecha, imágenes del flujo de video de vista derecha que cada una preceden inmediatamente la imagen dañada 6501 correspondiente. Como resultado, estas imágenes que se dejan en el plano de video de vista derecha en reemplazo de las imágenes dañadas 6501 son sometidas al procesamiento de superposición llevado a cabo por la unidad de composición del plano 5b. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
Como otra modificación, el dispositivo de reproducción 2D/3D puede presentar visualmente imágenes durante reproducción de video 3D como se muestra en la hilera inferior de la figura 50. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de presentación visual 2D/3D puede (i) presentar visualmente, en reemplazo de las imágenes dañadas 6501, imágenes del flujo de video de vista derecha que cada una presentan inmediatamente la imagen dañada 6501 correspondiente, y (ii) presentar visualmente, en reemplazo de las contrapartes de imagen dañada 6502 que se supone que cada una son presentadas visualmente junto con la imagen dañada 6501 correspondiente, imágenes del flujo de video de vista izquierda que cada una preceden inmediatamente la contraparte de imagen dañada 6502 correspondiente. A continuación se describe un dispositivo de presentación visual 2D/3D cuyas funciones han sido extendidas para ejecutar el método anterior. Cuando el decodificador de video 57 notifica al interruptor de imágenes 60 que el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 descarta las imágenes dañadas 6501 sin enviarlas al plano de video de vista derecha. Esto deja, en el plano de video de vista derecha, imágenes del flujo de video de vista derecha que cada una preceden inmediatamente la imagen dañada 6501 correspondiente. Como resultado, estas imágenes que se dejan en el plano de video de vista derecha en reemplazo de las imágenes dañadas 6501' se someten al procesamiento de superposición llevado a cabo por la unidad de composición de planos 5b. En forma similar, cuando el decodificador de video 57 notifica al interruptor de imágenes 60 que el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 identifica las contrapartes de imagen dañada 6502 que (i) se supone que son cada una presentadas visualmente junto con la imagen dañada 6501 correspondiente, y (ii) cada una tienen el mismo PTS que la imagen dañada 6501 correspondiente. Después, el decodificador de objetivos de sistema 4 descarta estas contrapartes de imagen dañada 6502 sin enviarlas al plano de video de vista izquierda. Esto deja, en el plano de video de vista izquierda, imágenes del flujo de video de vista izquierda que cada una preceden inmediatamente la contraparte de imagen dañada 6502 correspondiente. Como resultado, estas imágenes que se dejan en el plano de video ~de vista izquierda en reemplazo de las contrapartes de imagen dañada 6502 se someten al procesamiento de superposición llevado a cabo por la unidad de composición de planos 5b. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
Como otra modificación más, el dispositivo de reproducción 2D/3D puede presentar visualmente imágenes durante reproducción de video 3D como se muestra en la hilera inferior de la figura 51. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de presentación visual 2D/3D puede presentar visualmente, en reemplazo de las imágenes dañadas 6501, una imagen complementaria pre-preparada 6801 que tenga un solo color negro. A continuación se describe un dispositivo de presentación visual 2D/3D cuyas funciones han sido extendidas para ejecutar el método anterior. Cuando el decodificador de video 57 notifica al interruptor de imágenes 60 que el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodi ficador de objetivos de sistema 4 envía, al plano de video de vista derecha, la imagen complementaria 6801 a las sincronizaciones mostradas por los PTSs de las imágenes dañadas 6501. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
En otra modificación más, el dispositivo de reproducción 2D/3D puede presentar visualmente imágenes durante reproducción de video 3D como se muestra en la hilera inferior de la figura 52. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de presentación visual 2D/3D puede presentar visualmente la imagen complementaria 6801 en reemplazo de las imágenes dañadas 6501 y las contrapartes de imagen dañada 6502. A continuación se describe un dispositivo de presentación visual 2D/3D cuyas funciones han sido extendidas para ejecutar el método anterior. Cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 envía, al plano de video de vista derecha, la imagen complementaria 6801 a las sincronizaciones mostradas por los PTSs de las imágenes dañadas 6501. De manera similar, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 (i) identifica las contrapartes de imagen dañada 6502 que cada una se supone que son presentadas visualmente junto con la imagen dañada 6501 correspondiente, y (ii) envía, al plano de video de vista izquierda, la imagen complementaria 6801 a las sincronizaciones mostradas por los PTSs de las contrapartes de imagen dañada 6502. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
Como otra modificación más, el dispositivo de reproducción 2D/3D puede presentar visualmente imágenes durante reproducción de video 3D como se muestra en la hilera inferior de la figura 53. Para ser más específicos, cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el dispositivo de presentación visual 2D/3D puede (i) generar imágenes complementarias 6801 a partir de (a) imágenes del flujo de video de vista derecha que cada una preceden inmediatamente la imagen dañada 6501 correspondiente y (b) las contrapartes de imagen dañada 6502, y (ii) presentar visualmente las imágenes complementarias 6801 en reemplazo de las imágenes dañadas 6501. A continuación se describe un dispositivo de presentación visual 2D/3D cuyas opciones han sido extendidas para ejecutar el método anterior. Cuando el flujo de video de vista derecha incluye las imágenes dañadas 6501, el decodificador de objetivos de sistema 4 (i) genera imágenes complementarias 6801 a partir de (a) imágenes del flujo de video de vista derecha que cada una preceden inmediatamente la imagen dañada 6501 correspondiente y (ii) las contrapartes de imagen dañada 6502, y (ii) envía, al plano de video de vista derecha, las imágenes complementarias 6801 a las sincronizaciones mostradas por los PTSs de estas imágenes dañadas 6501. La estructura anterior puede evitar la presentación de las imágenes dañadas al espectador, reduciendo así el nivel de incomodidad que tendría que sentir el espectador.
Lo anterior ha descrito el método de reproducción y el dispositivo de reproducción que se utilizarán en caso de que las imágenes no puedan ser decodificadas debido a daño. Aunque se ha descrito que las imágenes dañadas 6501 están incluidas en el flujo de video de vista derecha, no sobra decir que las estructuras descritas arriba también son aplicables en caso de que las imágenes dañadas 6501 estén incluidas en el flujo de video de vista izquierda (en este caso, el procesamiento llevado a cabo con respecto al flujo de video de vista izquierda y el procesamiento llevado a cabo con respecto al flujo de video de vista derecha son intercambiados) . Debe notarse que como se ha descrito en la presente modalidad, en caso de que las imágenes del flujo de video de vista derecha se configuren para referirse a las imágenes del flujo de video de vista izquierda, una contraparte de imagen dañada del flujo de video de vista derecha que corresponda a una imagen dañada del flujo de video de vista izquierda también se volvería una imagen dañada. Por esta razón, cuando el flujo de video de vista izquierda incluye una o más imágenes dañadas, es efectivo usar métodos de reemplazo tanto de las imágenes dañadas como de las contrapartes de imagen dañada con otras imágenes -es decir, es efectivo usar los métodos explicados con referencia a las figuras 50 y 52.
Tercera modalidad Esta sección Tercera modalidad describe el procesamiento de pausa para pausar video 3D grabado en un BD-ROM.
Como se muestra en la figura 54, cuando el usuario envía una instrucción de pausar la reproducción de video 2D, un dispositivo de reproducción decodifica una imagen del video 2D que es presentada visualmente en el momento del envío de la instrucción de pausa, y sigue enviando la imagen decodificada a una velocidad de cuadros a la cual el flujo de video se conforma hasta que se envíe una instrucción de cancelar la pausa. Por otro lado, hay dos métodos que se ejecutarán por un dispositivo de reproducción cuando el usuario envíe una instrucción de pausar la reproducción de video 3D : el primer método, el cual se muestra en la figura 55A, es decodificar una imagen de un video de vista izquierda o derecha que sea presentado visualmente en el momento de la emisión de la instrucción de pausa, y seguir enviando la imagen decodificada hasta que se emita una instrucción de cancelar la pausa; el segundo método, el cual se muestra en la figura 55B, es decodificar un par de imágenes de los videos de vista izquierda y derecha que son presentados visualmente en el momento de la emisión de la instrucción de pausa y seguir enviando el par decodificado de imágenes hasta que se emita la instrucción de cancelar la pausa. Nótese que puede haber dos tipos de comandos para enviar una instrucción de pausa y dos tipos de APIs, de tal manera que los dos métodos anteriores puedan distinguirse unos de otros con base en el archivo de programas BD o similar .
A continuación se describe un dispositivo de reproducción 2D/3D cuyas funciones han sido extendidas para ejecutar los métodos anteriores de llevar a cabo procesamiento de pausa durante la reproducción de video 3D.
Primero, se da a continuación una descripción de un dispositivo de reproducción 2D/3D cuyas funciones han sido extendidas para ejecutar el primer método de presentar visualmente una imagen de uno del video de 2D/ojo izquierdo y el video de ojo derecho en el momento de la emisión de la instrucción de pausa. Después de recibir la instrucción de pausa de la unidad de procesamiento de eventos de usuario 17 o la unidad de ejecución de programas, la unidad de control de reproducción 7 del dispositivo de reproducción 2D/3D 200 envía una instrucción de CC de decodificación a la unidad de BD-ROM 1 y el decodificador de objetivos de sistema 4. Después de recibir la instrucción de CC de decodificación, la unidad de BD-ROM 1 cesa la lectura de datos del disco BD-ROM. Después de recibir la instrucción de cese de decodificación, el decodificador de objetivos de sistema 4 cesa la decodificación así como el envío de audio al altavoz. Aquí, si una imagen está siendo escrita en el plano de video de vista izquierda o derecha en el momento de recibir la instrucción de CC de decodificación, el decodificador de objetivos de sistema 4 espera hasta que se haya completado la escritura de esta imagen, y notifica a la unidad de composición de planos 5b del estado de pausa. Como se muestra en la figura 56, la unidad de composición de planos 5b recibe el estado de pausa del decodificador de objetivos de sistema. El estado de pausa incluye un indicador que indica en cuál de los planos de video de vista izquierda y derecha se ha escrito la última imagen enviada por el decodificador de objetivos de sistema. Cuando la última imagen decodificada y enviada por el decodificador de objetivos de sistema ha sido escrita en el plano de video de vista izquierda, el interruptor 62 de la unidad de composición de planos 5b selecciona el plano de video de vista izquierda como un plano seleccionado para procesamiento de superposición. Por otro lado, cuando la última imagen decodificada y enviada por el decodificador de objetivos de sistema ha sido escrita en el plano de video de vista derecha, el interruptor 62 de la unidad de composición de planos 5b selecciona el plano de video de vista derecha como un plano de video seleccionado para procesamiento de superposición. La unidad de composición de planos 5b lleva a cabo procesamiento de superponer el plano de video seleccionado con otros planos a intervalos equivalentes a la velocidad de cuadros a la cual video 3D es reproducido (el doble de la velocidad de cuadros a la cual el video 2D es reproducido) .
Segundo, a continuación se da una descripción de un dispositivo de reproducción 2D/3D cuyas funciones han sido extendidas para ejecutar el segundo método de presentar visualmente un par de imágenes del video de 2D/ojo izquierdo y el video de ojo derecho presentadas visualmente en el momento de la emisión de la instrucción de pausa. Después de recibir la instrucción de pausa de la unidad de procesamiento de eventos de usuario 17, o la unidad de ejecución de programas 11, la unidad 7 del dispositivo de reproducción 2D/3D 200 envía una instrucción de cese de decodificación a la unidad de BD-ROM 1 y al decodificador de objetivos de sistema 4. Después de recibir la instrucción de cese de decodificación, la unidad de BD-ROM 1 cesa la lectura de datos del disco BD-ROM. Después de recibir la instrucción de cese de decodificación, el decodificador de objetivos de sistema 4 cesa la decodificación así como el envío de audio al altavoz. Aquí, si se está escribiendo una imagen en el plano de video de vista izquierda o derecha en el momento de recibir la instrucción de cese de decodificación, el decodificador de objetivos de sistema 4 espera hasta que la escritura de esta imagen se complete. Asimismo, si la última imagen ha sido enviada al plano de video de vista izquierda (es decir, la última imagen que ha sido enviada es del flujo de video de vista izquierda) , el decodificador de objetivos de sistema 4 espera más hasta que una imagen del flujo de video de vista derecha, que va a ser presentada visualmente junto con la última imagen enviada al plano de video de vista izquierda, sea decodificada y enviada al plano de video de vista derecha. El decodificador de objetivos de sistema 4 notifica después a la unidad de composición de planos 5b del estado de pausa. Después de recibir el estado de pausa del decodificador de objetivos de sistema, la unidad de composición de planos 5b lleva a cabo de manera alternante (i) procesamiento de superponer el plano de video de vista izquierda con otros planos y (ii) procesamiento de superponer el plano de video de vista derecha con otros planos, intervalos equivalentes a la velocidad de cuadros a la cual video 3D es reproducido.
Esto concluye la descripción del procesamiento de pausa para pausar el video 3D.
Cuarta modalidad Esta sección Cuarta modalidad describe la estructura de datos de imágenes fijas que constituyen video 3D y un método de reproducción y un dispositivo de reproducción para reproducir las imágenes fijas.
Primero, se describe a continuación la estructura de datos de imágenes fijas que constituyen video 3D y un método de reproducción para reproducir las imágenes . fij as .
La figura 57 muestra estructuras GOP de imágenes fijas. Un GOP de un flujo de video de vista izquierda almacena una unidad de acceso de video de una imagen I . Almacenado al final de la unidad de acceso de video de la imagen I está un código de fin de secuencia 6401 para notificar al decodificador de video primario 31 el fin de la secuencia de video (nótese que el código de fin de secuencia 6401 es Sequence_end_code en el caso de MPEG-2, y EndOfSequence en el caso de MPEG-4 AVC) . Un GOP de ojo derecho de un flujo de video de vista derecha almacena una unidad de acceso de una imagen que será presentada visualmente junto con la primera imagen I del GOP correspondiente del flujo de video de vista izquierda. Un PTS asignado a esta imagen muestra la misma hora que un PTS asignado a la primera imagen del GOP correspondiente del flujo de video de vista izquierda. Almacenado al final de la primera imagen del GOP de ojo derecho está un código de fin de secuencia 6402 para notificar al decodificador de video primario 31 del fin de la secuencia de video.
A continuación se da una descripción de un dispositivo de reproducción 2D/3D cuyas funciones han sido extendidas para reproducir imágenes fijas que constituyen video 3D. Supóngase un caso en donde el dispositivo de reproducción 2D/3D intente reproducir el flujo de video de vista izquierda que incluye las imágenes fijas mostradas en la figura 57 como video 2D. En este caso, si la unidad de acceso de video de esta imagen fija almacena el código de fin de secuencia 6401, el decodificador de video primario 31 del dispositivo de reproducción 2D/3D cesa procesamiento de decodificación después de haber decodificado esta unidad de acceso de video. De esta manera, el procesamiento de decodificación no se lleva a cabo incluso si la siguiente unidad de acceso de video es ingresada al decodificador de video primario 31, logrando así la reproducción de la imagen fija. La siguiente imagen fija es reproducida cuando el procesamiento de decodificación se reanuda por la unidad de control de reproducción o similar emitiendo una instrucción de inicio de decodificación.
Por otro lado, en caso de que el dispositivo de reproducción 2D/3D intente reproducir los flujos de video de vista izquierda y derecha incluyendo las imágenes fijas mostradas en la figura 57 como video 3D, el decodificador de video primario 31 ignora el código de fin de secuencia 6401 almacenado en la unidad de acceso de video del flujo de video de vista izquierda, y sólo se refiere al código de fin de secuencia 6402 almacenado en la unidad de acceso de video del flujo de video de vista derecha. Es decir, si el código de fin de secuencia 6402 es almacenado en la unidad de acceso de video del flujo de video de vista derecha, el decodificador de video primario 31 cesa el procesamiento de decodificación después de haber decodificado esta unidad de acceso de video. Esta estructura hace posible la reproducción tanto de imágenes fijas que constituyen el video 2D, como de imágenes fijas que constituyen el video 3D.
Se ha descrito arriba que el código de fin de secuencia 6402, que es idéntico al código de fin de secuencia 6401 del flujo de video de vista izquierda, es almacenado al final de la primera imagen del GOP de ojo derecho del flujo de video de vista derecha. Como alternativa, el código de fin de secuencia 6402 puede tener un formato único diseñado solamente para el flujo de video de vista derecha. Por ejemplo, el código de fin de secuencia 6402 puede definirse nuevamente, o el código de fin de secuencia 6402 puede definirse exclusivamente para el flujo de video de vista derecha por los datos complementarios del flujo de video de vista derecha. Como alternativa, el código de fin de secuencia 6402 puede ser reemplazado por la información de cambio de decodificación ilustrada en la figura 8 a la cual se haya añadido un indicador, el indicador indicando si la unidad de acceso de video correspondiente es la última unidad de acceso de video del GOP. Esta estructura distingue claramente el código de fin de secuencia 6401 del flujo de video de vista izquierda del código de fin de secuencia 6402 del flujo de video de vista derecha, y hace que sea fácil que el decodificador de video primario 31 lleve a cabo procesamiento de reproducir las imágenes fijas como video 3D.
Quinta modalidad Esta sección Quinta modalidad describe un método de reproducción y un dispositivo de reproducción para llevar a cabo reproducción especial de video 3D grabado en un BD-ROM.
Bloques mostrados en la figura 58A representan extensiones intercaladas de los flujos de AV de vista izquierda y derecha. Los bloques blancos representan extensiones del flujo de AV de vista izquierda, y los bloques sombreados representan extensiones del flujo de AV de vista derecha. Los triángulos invertidos indican posiciones de puntos de entrada. 7109A, 7109C y 7109E son puntos de entrada de un flujo de video de vista izquierda incluido en el flujo de AV de vista izquierda. 7109B y 7109D son puntos de entrada de un flujo de video de vista derecha incluido en el flujo de AV de vista derecha. Las flechas 7101, 7102, 7103, 7104 y 7105 cada una muestran un área de paquetes TS que almacenan la imagen indicada por el punto de entrada correspondiente. Una vez que los paquetes TS en estas áreas han sido leídos, las imágenes indicadas por los puntos de entrada pueden ser decodificadas . Estas áreas se conocen como tamaños TS de imagen de entrada. Los tamaños TS de imagen de entrada son cada uno almacenados como información sobre el punto de entrada correspondiente, junto con SPNs y PTSs .
Para llevar a cabo reproducción adelantada del video 3D, es necesario reproducir pares de (i) imágenes I indicadas por los puntos de entrada del flujo de video de vista izquierda y (ii) imágenes indicadas por los puntos de entrada del flujo de video de vista derecha. En este momento, como se muestra por una trayectoria de reproducción del video 3D en la figura 58A, se debe llevar a cabo un salto cada vez que la imagen indicada por cada punto de entrada sea reproducida. Esto degrada el desempeño de reproducción del dispositivo de reproducción 2D/3D.
En vista del problema anterior, como se muestra en la figura 58B, la imagen indicada por cada punto de entrada del flujo de video de vista derecha se coloca además en una posición adyacente a la posición de la imagen I indicada por el punto de entrada correspondiente del flujo de vista izquierda (es decir, la imagen I que será presentada visualmente junto con la imagen del flujo de video de vista derecha como el video 3D) . Además, el tamaño TS de imagen de entrada almacenada en cada punto de entrada del flujo de video de vista izquierda muestra un área de paquetes TS incluida en la extensión correspondiente del flujo de AV de vista izquierda, los paquetes TS que almacenan (i) el equivalente de la imagen indicada por el punto de entrada correspondiente del flujo de video de vista derecha y (ii) la imagen I indicada por el punto de entrada del flujo de video de vista izquierda.
Tomando un ejemplo de la primera imagen I mostrada en la figura 58B, el equivalente de la imagen indicada por el punto de entrada correspondiente del flujo de video de vista derecha (la imagen almacenada en el tamaño de TS de imagen de entrada 7102) es puesto en una posición que es contigua a la posición de esta imagen I indicada por el primer punto de entrada del flujo de video de vista izquierda, que va a ser presentada visualmente junto con la imagen almacenada en el tamaño TS de imagen de entrada 7102 como el video 3D . El tamaño TS de imagen de entrada almacenado en el primer punto de entrada del flujo de video de vista izquierda muestra un área de paquetes TS incluidos en el flujo de AV de vista izquierda, los paquetes TS almacenan (i) el equivalente de la imagen indicada por el punto de entrada correspondiente del flujo de video de vista derecha y (ii) la imagen indicada por el primer punto de entrada del flujo de video de vista izquierda. Es decir, el tamaño TS de imagen de entrada almacenado en el primer punto de entrada del flujo de video de vista izquierda es indicado por una flecha 7106 mostrada en la figura 58B. Cuando se lleva a cabo reproducción adelantada del video 3D, la estructura anterior permite leer simultáneamente las imágenes I de los flujos de video de vista izquierda y derecha, reduciendo así el número de saltos llevado a cabo durante la reproducción.
Para lograr la estructura anterior, al flujo de AV de vista izquierda le pueden ser asignados PIDs para reproducción especial y almacenar imágenes I del flujo de video de vista derecha en correspondencia con estos PIDs, como se muestra en la figura 59A. En este caso, cuando se reproducen sólo las imágenes indicadas por puntos de entrada (por ejemplo, adelantado y rebobinado) , el dispositivo de reproducción 2D/3D sólo lee el flujo de AV de vista izquierda. Cuando las imágenes del flujo de video de vista derecha leídas del flujo de AV de vista izquierda han sido ingresadas al filtro PID 23, el decodificador de objetivos de sistema 4 del dispositivo de reproducción 2D/3D transfiere datos de estas imágenes a la TB 54 y lleva a cabo procesamiento de decodificación en el flujo de video de vista derecha.
Asimismo, para lograr la estructura anterior, el flujo de AV de vista izquierda puede almacenar imágenes indicadas por los puntos de entrada del flujo de video de vista derecha para reproducción especial, como se muestra en la figura 59B. En este caso, cada una de estas imágenes es almacenada en la unidad de acceso de video de ojo derecho 7201 de la primera imagen I en el GOP correspondiente del flujo de video de vista izquierda (es decir, la unidad de acceso de video de ojo derecho 7201 de la imagen que será presentada visualmente junto con cada imagen del flujo de video de vista derecha) . Las unidades de acceso de video de ojo derecho 7201 se almacenan cada una en un área que puede ser definida como una reserva de la unidad de acceso de video correspondiente, de tal forma que el dispositivo de reproducción 2D no pueda reproducir las unidades de acceso de video de ojo derecho 7201. Cuando se reproducen sólo las imágenes indicadas por puntos de entrada (por ejemplo, adelantado y rebobinado) , el dispositivo de reproducción 2D/3D sólo lee el flujo de AV de vista izquierda. Cuando las unidades de acceso de video de ojo derecho 7201 del flujo de video de vista derecha han sido ingresadas al filtro PID 23, el decodificador de objetivos de sistema 4 del dispositivo de reproducción 2D/3D transfiere datos de estas unidades de acceso de video de ojo derecho 7201 a la TV 54 y lleva a cabo procesamiento de decodi icación en el flujo de video de vista derecha.
Sexta modalidad Esta sección Sexta modalidad describe un dispositivo de grabación para llevar a cabo el método de grabación descrito en la primera modalidad.
Cuando el método de grabación va a lograrse por la tecnología de grabación en tiempo real, el dispositivo de grabación para llevar a cabo el método de grabación crea un archivo de flujos de AV en tiempo real y graba el archivo de flujos de AV en el BD-RE, BD-R, disco duro o tarjeta de memoria semiconductora.
En este caso, el archivo de flujos de AV puede ser un flujo de transporte obtenido por el dispositivo de grabación que codifica una señal de entrada análoga en tiempo real, o un flujo de transporte obtenido por el dispositivo de grabación al parcializar un flujo de transporte ingresado digitalmente .
El dispositivo de grabación para llevar a cabo la grabación en tiempo real incluye: un codificador de video para obtener un flujo de video al codificar una señal de video; un codificador de audio para obtener un flujo de audio al codificar una señal de audio; un multiplexor para obtener un flujo digital en el formato MPEG-2 TS al multiplexar el flujo de video, flujo de audio y similares; y un empaquetador de origen para convertir paquetes TS que constituyan el flujo digital en el formato MPEG-2 TS en paquetes de origen. El dispositivo de grabación almacena un flujo digital MPEG-2 que ha sido convertido en el formato de paquete de origen en un archivo de flujos de AV, y escribe el archivo de flujos de AV en el BD-RE, BD-R o similar. Cuando el flujo digital es escrito, la unidad de control del dispositivo de grabación lleva a cabo procesamiento de generar la información de clip y la información de listas de reproducción en la memoria. Más específicamente, cuando el usuario solicita el procesamiento de grabación, la unidad de control crea un archivo de flujos de AV y un archivo de información de clips en el BD-RE o el BD-R.
Después de esto, cuando la posición de inicio de un GOP en el flujo de video se detecta del flujo de transporte ingresado desde fuera del dispositivo, o cuando el GOP del flujo de video es creado por el codificador, la unidad de control del dispositivo de grabación obtiene (i) el PTS de la imagen intra colocada al principio del GOP y (ii) el número de paquete del paquete de origen que almacena la posición de inicio del GOP, y escribe además el par de PTS y el número de paquete en el mapa de entrada del archivo de información de clips como un par de entrada EP_PTS y entrada EP_SPN. Posteriormente, cada vez que se genera un GOP, un par de entrada EP_PTS y entrada EP_SPN se escribe además en el mapa de entrada del archivo de información de clips. Aquí, cuando la posición de inicio de un GOP es una imagen IDR, un indicador "is_angle_change" que ha sido puesto en "ON" se añade a un par de la entrada EP_PTS y entrada EP_SPN. Asimismo, cuando la porción de inicio de un GOP no es una imagen IDR, un indicador "is_angle_change" que ha sido puesto en "OFF" se añade a un par de entrada EP_PTS y entrada EP_SPN.
Además, la información de atributo de un flujo en el archivo de información de clips se establece de acuerdo con el atributo del flujo que será grabado. Después de que el archivo de flujos de AV y la información de clips han sido generados y escritos en el BD-RE o el BD-R de la manera anterior, la información de listas de reproducción que define la trayectoria de reproducción por medio del mapa de entrada en la información de clips se genera y escribe en el BD-RE o el BD-R. Cuando se ejecuta este proceso con la tecnología de grabación en tiempo real, una estructura jerárquica compuesta de la información de clips de flujos de AV y la información de listas de reproducción se obtiene en el BD-RE o el BD-R.
Esto concluye la descripción del dispositivo de grabación para llevar a cabo el método de grabación por la grabación en tiempo real. A continuación se da una descripción del dispositivo de grabación para llevar a cabo el método de grabación por la grabación de pre-formato .
El dispositivo de grabación descrito aquí se usa por el personal creativo en un estudio de producción para distribuir contenidos fíImicos. El dispositivo de grabación de la presente invención se usa como sigue. Primero, de acuerdo con las operaciones del personal creativo, un flujo digital que ha sido codificado por compresión de acuerdo con la norma MPEG, y un escenario que describe cómo un título fílmico debe ser reproducido, son generados. Después, se genera un flujo de bits de volumen para un BD-ROM que incluya estos datos.
La figura 60 muestra la estructura interna del dispositivo de grabación. Como se muestra en la figura 60, el dispositivo de grabación incluye un codificador de video 501, una unidad de creación de material 502, una unidad de generación de escenarios 503, una unidad de creación de programas BD 504, una unidad de procesamiento de multiplexión 505 y una unidad de procesamiento de formato 506.
El codificador de video 501 genera flujos de video de vista izquierda y derecha al codificar imágenes de mapas de bits descomprimidas de vista izquierda y derecha de acuerdo con un método de compresión tal como MPEG-4 AVC o MPEG-2. En este momento, el flujo de video de vista derecha se genera al codificar cuadros del flujo de video de vista izquierda por la codificación predictiva inter- imágenes . En el proceso de la codificación predictiva inter- imágenes, la información de profundidad para el video 3D se extrae de vectores de movimiento de las imágenes de vista izquierda y derecha, y la información de profundidad es escrita en una unidad de almacenamiento de información de profundidad de cuadros 501a. El codificador de video 501 extrae vectores de movimiento en unidades de 8 x 8 ó 16 x 16 macrobloques, para de esta manera llevar a cabo compresión de imágenes con el uso de características de imágenes correlacionadas.
Supóngase un caso en donde vectores de movimiento sean extraídos en unidades de macrobloques a partir de video que muestre una casa en el fondo y un círculo enfrente, como se muestra en la figura 61. En este caso, la predicción inter- imágenes se lleva a cabo entre imágenes de ojo izquierdo y derecho. Como resultado, nos e detecta ningún vector de movimiento de la porción de la imagen que corresponde a la "casa" , pero se detectan vectores de movimiento de la porción de la imagen que corresponde a la "casa" .
Los vectores de movimiento detectados son extraídos, y la información de profundidad se genera sobre una base por cuadros, cuando el video 3D es presentado visualmente. La información de profundidad es, por ejemplo, una imagen que tiene la misma resolución que un cuadro que tiene la profundidad de 8 bits.
La unidad de creación de material 502 genera flujos tales como un flujo de audio, un flujo de gráficos de presentación y un flujo de gráficos interactivos, y escribe estos flujos generados en una unidad de almacenamiento de flujos de audio 502A, una unidad de almacenamiento de flujos de gráficos de presentación 502b y una unidad de almacenamiento de flujos de gráficos interactivos 502c, respectivamente .
La unidad de creación de material 502 crea el flujo de audio al codificar audio PCM lineal descomprimido y similares por un método de compresión tal como AC3. A diferencia de esto, la unidad de creación del material 502 crea un flujo de gráficos de presentación en un formato de flujo de PG que se conforma a la norma BD-ROM, con base en el archivo de información de subtítulos que incluye una imagen de subtítulos, una sincronización de presentación visual y efectos de subtítulo tales como desvanecimiento hacia adentro y hacia afuera. La unidad de creación de material 502 crea también un flujo de gráficos interactivo en un formato para la pantalla de menú que se conforma a la norma BD-ROM, con base en el archivo de menú que describe imágenes de mapas de bits que se usarán para el menú, transición de los botones dispuestos en el menú, y los efectos de presentación visual.
La unidad de generación de escenarios 503 genera un escenario en el formato BD-ROM, de acuerdo con la información sobre cada flujo generado por la unidad de creación de material 502 y las operaciones del personal creativo por medio de la GUI. Aquí, el escenario significa archivos tales como un archivo de índices, un archivo de objetos película y un archivo de listas de reproducción. La unidad de generación de escenarios 503 genera también un archivo de parámetros que describe qué flujos constituyen cada flujo de AV para lograr el procesamiento de multiplexión. Las estructuras de datos de los archivos generados, en particular el archivo de índices, el archivo de objetos película y el archivo de listas de reproducción, son iguales a la estructura de datos descrita en la primera modalidad.
La unidad de creación de programas BD 504 crea un código de origen para un archivo de programas BD y un programa BD de acuerdo con una solicitud proveniente del usuario recibida por medio de una interfaz de usuario tal como la GUI. En este momento, el programa del archivo de programas BD puede usar la información de profundidad enviada desde el codificador de video 501 para establecer la profundidad del plano de GFX.
La unidad de procesamiento de multiplexión 505 genera un archivo de flujos de AV en el formato MPEG-2 TS al multiplexar una pluralidad de flujos descritos en los datos de escenario BD-ROM, tales como el flujo de video de vista izquierda, flujo de video de vista derecha, video, audio, subtítulos y botones. Cuando se genera el archivo de flujos de AV, la unidad de procesamiento de multiplexión 505 genera también un archivo de información de clips que forma un par con el archivo de flujos de AV.
La unidad de procesamiento de multiplexión 505 genera el archivo de información de clips al asociar, como un par, (i) el mapa de entrada generado por la propia unidad de procesamiento de multiplexión 505 y (ii) información de atributo que indica atributo de audio, atributo de imagen y similares para cada flujo incluido en el archivo de flujos de AV. La estructura del archivo de información de clips es la misma que la estructura que se ha descrito en las modalidades anteriores.
La unidad de procesamiento de formatos 506 genera una imagen de disco en el formato UDF (un sistema de archivos que se conforma a la norma BD-ROM) al disponer, en el formato que se conforma a la norma BD-ROM, archivos y directorios que incluyen los datos de escenario BD-ROM generados por la unidad de generación de señales 503, el archivo de programas BD creado por la unidad de creación de programas BD 504, y el archivo de flujos de AV y el archivo de información de clips generados por la unidad de procesamiento de multiplexión 505.
En este momento, la unidad de procesamiento de formato 506 genera metadatos 3D para el flujo de PG, flujo de ID y flujo de video secundario usando la información de profundidad enviada desde el codificador de video 501. La unidad de procesamiento de formato 506 también (i) establece la disposición de imágenes en la pantalla automáticamente, de tal manera que no se superpongan con objetos del video 3D, y (ii) ajusta valores de desplazamiento de tal manera que las profundidades no se superpongan unas con otras. La disposición de archivos de la imagen de disco generada de esta manera se establece para obtener la estructura de datos de la disposición de archivos descrita en las modalidades 1 y 2. La disposición de archivos de la imagen de disco generada se establece de acuerdo con la estructura de datos de la disposición de archivos descrita en la primera y segunda modalidades. El BD-ROM puede fabricarse al convertir la imagen de disco generada en datos adecuados para el procesamiento de prensado de BD-ROM, y llevando a cabo el procesamiento de prensado de BD-ROM en estos datos.
(Modalidad como dispositivo de grabación para lograr copia administrada) El dispositivo de grabación puede tener una función para escribir un flujo digital por copia administrada.
Copia administrada es tecnología para comunicarse con un servidor y hacer posible la ejecución de copias sólo si la copia es autenticada y permitida. La copia administrada se utiliza cuando el flujo digital, información de listas de reproducción, información de clips y programa de aplicación grabados en un medio de grabación de sólo lectura (por ejemplo, un BD-ROM) van a ser copiadas en otro disco óptico (por ejemplo, BD-R, BD-RE, DVD-R, DVD-RW y DVD-RAM) , disco duro, y medio removible (por ejemplo, una tarjeta de memoria SD, Memoria Portátil, CompactFlash, SmartMedia, MultiMediaCard) . Esta tecnología hace posible llevar a cabo varios controles, tales como limitar el número de respaldos y permitir el respaldo sólo cuando haya una carga en el respaldo.
Cuando se lleva a cabo una copia del BD-ROM al BD-R o BD-RE, si el origen de copia y el destino de copia tienen la misma capacidad de grabación, la copia administrada sólo requiere una copia secuencial del flujo de bits en el BD-ROM desde la circunferencia más interior hasta la circunferencia más exterior del BD-ROM.
Cuando la tecnología de copia administrada' se usa para copiar de/en medios de diferentes tipos, se requiere transcodificación. Aquí, "transcodificación" indica el procesamiento de adaptar el flujo digital grabado en el BD-ROM al formato de aplicación del medio de destino de copia al convertir el formato del flujo digital del formato de flujo de transporte MPEG-2 en el formato de flujo de programas MPEG-2 y similares, o al llevar a cabo recodificación después de reducir las velocidades de bits asignadas a flujos de video y audio. Para llevar a cabo transcodificación, es necesario obtener el archivo de flujos de AV, información de clips e información de listas de reproducción llevando a cabo el procesamiento de grabación en tiempo real descrito arriba.
(Notas adicionales) La presente invención ha sido descrita arriba a través de las mejores modalidades que el solicitante reconoce hasta el momento. Sin embargo, mejoras o cambios adicionales pueden añadirse con respecto a los tópicos técnicos siguientes. Se debe notar que si se implementa o no la presente invención exactamente como se indicó por las modalidades anteriores, o si se añaden o no mejoras adicionales de cambios a las modalidades anteriores, es opcional y se puede determinar por la subjetividad de una persona que implemente la presente invención.
(Métodos de visión estereoscópica) El método de imágenes de paralaje usado en la primera modalidad presenta visualmente imágenes de ojo izquierdo y derecho de manera alternante en la dirección del eje de tiempo. Así, a diferencia de una película 2D ordinaria que es presentada visualmente a 24 cuadros por segundo, este método tiene que presentar visualmente un total de 48 imágenes de ojo izquierdo y derecho por segundo. Por lo tanto, este método es adecuado para usarse en un dispositivo de presentación visual que pueda grabar la pantalla a una velocidad relativamente alta. Esta técnica de visión estereoscópica que utiliza el método de imágenes de paralaje se ha usado comúnmente para atracciones de parques de diversiones y similares - es decir, ya se ha establecido técnicamente. Por consiguiente, esta técnica puede ser la forma más cercana de tecnología que podría implementarse prácticamente para uso doméstico. Debe mencionarse que muchos otros métodos/técnicas han sido sugeridos para lograr esta visión estereoscópica utilizando las imágenes de paralaje, tales como el método de separación de dos colores. Aunque la secuenciación de cuadros alternos y la técnica de lentes de polarización se explican en la presente modalidad como ejemplos de métodos/técnicas para lograr la visión estereoscópica, la visión estereoscópica puede lograrse usando otros métodos/técnicas que no sean las dos técnicas mencionadas arriba, siempre y cuando se logre usando imágenes de paralaje.
El lente lenticular en el dispositivo de presentación visual 300 puede ser reemplazado con otro dispositivo (por ejemplo, elementos de cristal líquido) que tenga la misma función que el lente lenticular. Como alternativa, un filtro de polarización vertical y un filtro de polarización horizontal pueden ser provistos para pixeles de ojo izquierdo y pixeles de ojo derecho, respectivamente. Aquí, la visión estereoscópica se puede lograr por el espectador al ver la pantalla del dispositivo de presentación visual a través de lentes polarizantes incluyendo un filtro de polarización vertical para el ojo izquierdo y un filtro de polarización horizontal para el ojo derecho .
(Estructura de datos de Index. bdmv para almacenar video 3D) También es posible proporcionar diferentes tipos de archivos de índices a un dispositivo de reproducción 2D y un dispositivo de reproducción 3D, en lugar de proporcionar diferentes tipos de listas de reproducción a los mismos. En este caso, el dispositivo de reproducción 2D se refiere a "Index. bdmv" mientras que el dispositivo de reproducción 3D se selecciona "Index.3dmv" después de iniciar la reproduceión .
(Estructura de datos usada cuando se maneja una pluralidad de flujos) Cuando hay una pluralidad de flujos, la información de sub-trayectoria puede usarse como se describió arriba, o multi_clip_entries para varios ángulos puede ser usado. Cuando se usa "multi_clip_entries" , es preferible que el UO para cambiar el ángulo se prohiba después de que un flujo adecuado se seleccione de acuerdo con el tamaño de pantalla del dispositivo de presentación visual, para de esta manera no cambiar erróneamente por otro flujo que esté dedicado para un tamaño de pantalla diferente.
(Objetivos de aplicación de vistas izquierda y derecha) No sólo flujos de video que se refieran al contenido principal del disco sino también imágenes de viñeta pueden ser provistas por separado para las imágenes izquierda y derecha. .Aquí, como es el caso con el flujo de video, un dispositivo de reproducción 2D presenta visualmente viñetas 2D convencionales, pero un dispositivo de reproducción 3D envía viñetas de ojo izquierdo y viñetas de ojo derecho, las cuales han sido preparadas para reproducción 3D, de acuerdo con el método de presentación visual 3D correspondiente.
La misma regla aplica a los siguientes elementos: imágenes de menú; imágenes de viñeta que muestran diferentes escenas para búsqueda de capítulos e imágenes reducidas que muestran diferentes escenas.
(Creación del programa de cada modalidad) El programa de aplicación descrito en cada modalidad de la presente invención puede crearse como sigue. Primero, el desarrollador de software escribe, usando un lenguaje de programación, un programa de origen que logra cada diagrama de flujo y componente funcional. Aquí, el desarrollador de software escribe el programa de origen que logra cada componente funcional usando la estructura de clase, variables, variables de disposición e invocaciones a funciones externas de acuerdo con la estructura de frases del lenguaje de programación.
El programa de origen escrito es enviado al compilador como archivos. El compilador traduce el programa de origen y genera un programa de objetos.
La traducción llevada a cabo por el compilador incluye procesos tales como análisis de sintaxis, optimización, asignación de recursos y generación de códigos. En el análisis de sintaxis, los caracteres, frases, estructura de frases y significado del programa de origen son analizados. El programa de origen se convierte después en un programa intermedio. En la optimización, el programa intermedio se somete a procesamiento tal como el establecimiento de bloques básicos, el control de análisis de flujo y análisis de flujo de datos. En la asignación de recursos, para adaptarse a los conjuntos de instrucciones del procesador objetivo, las variables en el programa intermedio son asignadas al registro o memoria del procesador objetivo. En la generación de códigos, cada instrucción intermedia en el programa intermedio se convierte en un código de programa, y se obtiene un programa de objetos.
El programa de objetos generado está compuesto de uno o más códigos de programa que hacen que la computadora ejecute cada etapa de los diagramas de flujo y cada procedimiento de los componentes funcionales explicados en las modalidades anteriores. Hay varios tipos de códigos de programa, tales como el código nativo del procesador y el código de bytes Java . Hay también varias formas en las cuales las etapas de los códigos de programa se logran. Por ejemplo, cuando las etapas pueden lograrse usando funciones externas, las frases de invocación para invocar las funciones externas se usan como los códigos de programa. Los códigos de programa que logran una etapa pueden pertenecer a diferentes programas de objetos. En el procesador RISC en el cual se limitan los tipos de instrucciones, cada etapa de los diagramas de flujo puede lograrse al combinar instrucciones de operaciones aritméticas, instrucciones de operaciones lógicas, instrucciones de ramificación y similares.
Después de que el programa de objetos es generado, el programador activa un enlazador. El enlazador asigna los espacios de memoria- a los programas de objetos y los programas de biblioteca relacionados, y los enlaza juntos para generar un módulo de carga. El módulo de carga se genera bajo la suposición de que sea leído por la computadora y haga que la computadora ejecute los procedimientos de procesamiento de los diagramas de flujo y los procedimientos de procesamiento de los componentes funcionales . El programa descrito aquí puede ser grabado en un medio de grabación legible por computadora que será proporcionado al usuario.
(Cómo describir la estructura de datos) Entre las estructuras de datos descritas arriba, una estructura repetitiva que' tiene una pluralidad de piezas de tipo de información predeterminados pueden definirse al establecer (i) un valor inicial para la variable de control y (ii) una condición de repetición, en la palabra "para". La oración "Hacer Mientras" puede usarse también.
Asimismo, una estructura de datos arbitraria, en la cual información predeterminada se defina cuando se satisfaga una condición predeterminada, puede definirse al describir, en la oración condicional, (i) la condición que será satisfecha y (ii) una variable que se establecerá cuando se satisfaga la condición. La palabra "cambiar" o la palabra "caso" también se pueden usar.
Como se describió arriba, la estructura de datos de cada modalidad puede describirse de acuerdo con la gramática de un lenguaje de programación de alto nivel. Por lo tanto, la estructura de datos de cada modalidad se somete a los procesos de traducción llevados a cabo por el compilador, incluyendo el análisis de sintaxis, optimización, asignación de recursos y generación de códigos. En un lenguaje orientado por objetivos, la estructura de datos descrita en un lenguaje de programación de alto nivel es tratada como una porción que no es el método de la estructura de clase, es decir, como una variable de elementos tipo disposición en la estructura de clase, y constituye una parte del programa. Es decir, la estructura de datos de cada modalidad se convierte en código de computadora, luego se graba en un medio de grabación legible por computadora y se vuelve una variable de el evento del programa. Ya que se puede tratar de esta manera, la estructura de datos descrita hasta el momento es sustancialmente un programa.
(Reproducción del disco óptico) La unidad de BD-ROM está equipada con una cabeza óptica que incluye un láser semiconductor, un lente colimado, un divisor de haz, un lente objetivo, un lente recolector y un detector de luz. Los haces de luz emitidos desde el láser semiconductor pasan a través del lente colimado, divisor de haz y lente objetivo, y son recogidos en la superficie de información del disco óptico.
Los haces de luz recogidos son reflejados/difractados en el disco óptico, pasan a través del lente objetivo, divisor de haz y lente colimado, y son recogidos en el detector de luz. Se genera una señal de reproducción dependiendo de la cantidad de luz recolectada en el detector de luz .
(Variaciones del medio de grabación) El medio de grabación descrito en cada modalidad indica un medio de paquete general completamente, incluyendo el disco óptico y la tarjeta de memoria semiconductora. En cada modalidad, se asume, como un ejemplo, que el medio de grabación es un disco óptico en el cual datos necesarios se graban preliminarmente (por ejemplo, un disco óptico de sólo lectura existente tal como el BD-ROM o DVD-ROM) . Sin embargo, la presente invención no está limitada a esto. Por ejemplo, la presente invención puede ser implementada como sigue: (i) obtener contenido 3D que incluya los datos necesarios para implementar la presente invención y se distribuya por un difusor o por medio de una red; (ii) grabar el contenido 3D en un disco óptico grabable (por ejemplo, un disco óptico grabable existente tal como el BD-RE y DVD-RAM) usando un dispositivo terminal que tenga la función de escribir en un disco óptico (la función puede estar integrada en un dispositivo de reproducción, o el dispositivo no necesariamente puede ser un dispositivo de reproducción); y (iii) aplicar el disco óptico que tenga grabado en el mismo el contenido 3D al dispositivo de reproducción de la presente invención.
(Modalidades de dispositivo de grabación y dispositivo de reproducción de tarjeta de memoria semiconductora) A continuación se describen modalidades del dispositivo de grabación para grabar la estructura de datos de cada modalidad en una memoria semiconductora, y el dispositivo de reproducción para reproducir la memoria semiconductora .
Primero se explicará el mecanismo para proteger los derechos de autor de datos grabados en el BD-ROM, como tecnología anterior.
Algunos de los datos grabados en el BD-ROM pueden haber sido cifrados según sea necesario en vista de la confidencialidad de los datos.
Por ejemplo, el BD-ROM puede contener, como datos cifrados, los datos que correspondan a un flujo de video, un flujo de audio o un flujo que incluya éstos.
A continuación se describe el descifrado de los datos cifrados entre los datos grabados en el BD-ROM.
El dispositivo de reproducción de tarjeta de memoria semiconductora almacena preliminarmente datos (por ejemplo, una clave de dispositivo) que corresponden a una clave que es necesaria para descifrar los datos cifrados grabados en el BD-ROM.
Por otro lado, el BD-ROM tiene preliminarmente grabados en el mismo (i) datos (por ejemplo, un bloque de clave de medio (MKB) que corresponde a la clave de dispositivo mencionada arriba) que corresponde a una clave que es necesaria para descifrar los datos cifrados, y (ii) datos cifrados (por ejemplo, una clave de título cifrada que corresponde a la clave de dispositivo mencionada arriba y MKB) que se genera al cifrar la propia clave que es necesaria para descifrar los datos cifrados. Nótese que aquí que la clave de dispositivo, NKB y clave de título cifrada se tratan como un conjunto, y se asocian además con un identificador (por ejemplo, un ID de volumen) escrita en un área (llamada BCA) del BD-ROM que no puede ser copiada en general. Aquí, los datos cifrados no pueden ser descifrados si estos elementos se combinan incorrectamente. Sólo si la combinación es correcta, una clave (por ejemplo, una clave de título que se obtenga al descifrar la clave de título cifrada usando la clave de dispositivo, MKB e ID de volumen mencionados arriba) que sea necesaria para descifrar los datos cifrados puede ser derivada. Los datos cifrados pueden ser descifrados usando la clave derivada.
Cuando un dispositivo de reproducción intenta reproducir un BD-ROM cargado en el mismo, no puede reproducir los datos cifrados a menos que el propio dispositivo tenga una clave de dispositivo que forme un par con (o corresponda a) la clave de título cifrada y la MKB grabada en el BD-ROM. Esto se debe a que la clave (clave de título) que se requiere para descifrar los datos cifrados ha sido cifrada, y es grabada en el BD-ROM como la clave de título cifrada y la clave que es necesaria para descifrar los datos cifrados no puede derivarse si la combinación de la MKB y la clave de dispositivo no es correcta.
De manera inversa, cuando la combinación de la clave de título cifrada, MKB, clave de dispositivo e ID de volumen es correcta, los flujos de video y audio son decodificados por el decodificador con el uso de la clave mencionada arriba (por ejemplo, una clave de título que se obtiene al descifrar la clave de título cifrada usando la clave de dispositivo, MKB e ID de volumen) que es necesaria para descifrar los datos cifrados. El dispositivo de reproducción está estructurado de esta manera.
Esto concluye la descripción del mecanismo para proteger los derechos de autor de datos grabados en el BD-ROM. Se debe notar aquí que este mecanismo no está limitado al ser aplicado al BD-ROM, sino que también se puede aplicar a, por ejemplo, una memoria semiconductora legible/grabable (por ejemplo, una memoria semiconductora portátil tal como la tarjeta SD) para la implementación .
A continuación se describe el procedimiento de reproducción que se seguirá por el dispositivo de reproducción de tarjeta de memoria semiconductora. En caso de que el dispositivo de reproducción reproduzca un disco óptico, el dispositivo de reproducción está estructurado para leer datos por medio de una unidad de disco óptico, por ejemplo. Por otro lado, en caso de que el dispositivo de reproducción reproduzca una tarjeta de memoria semiconductora, el dispositivo de reproducción está estructurado para leer datos por medio de una interfaz para la lectura de los datos de la tarjeta de memoria semiconductora.
Más específicamente, el dispositivo de reproducción puede estar estructurado de tal forma que, cuando se inserte una tarjeta de memoria semiconductora en una ranura (no ilustrada) provista en el mismo, el dispositivo de reproducción y la tarjeta de memoria semiconductora se conectan eléctricamente uno al otro por medio de la interfaz de tarjeta de memoria semiconductora, el dispositivo de reproducción lea datos de la tarjeta de memoria semiconductora por medio de la interfaz de tarjeta de memoria semiconductor.
(Modalidades del dispositivo de recepción) El dispositivo de reproducción explicado en cada modalidad puede lograrse como un dispositivo terminal que reciba datos (datos de distribución) que correspondan a los datos explicados en cada modalidad desde un servidor de distribución para un servicio de distribución electrónico, y grabe los datos recibidos en una tarjeta de memoria semiconductora .
Este dispositivo terminal se puede lograr al estructurar el dispositivo de reproducción explicado en cada modalidad para que lleve a cabo estas operaciones, o se puede lograr como un dispositivo terminal dedicado que sea diferente del dispositivo de reproducción explicado en cada modalidad y almacene los datos de distribución en una tarjeta de memoria semiconductora. A continuación se describe un caso en donde se usa el dispositivo de reproducción. También, en la siguiente descripción, se usa una tarjeta SD como la memoria semiconductora de destino de grabación .
Cuando el dispositivo de reproducción va a grabar datos de distribución en una tarjeta de memoria SD insertada en una ranura provista en el mismo, el dispositivo de reproducción solicita primero a un servidor de distribución (no ilustrado) que almacena datos de distribución transmitir los datos de distribución. En este momento, el dispositivo de reproducción lee información de identificación para identificar de manera única la tarjeta de memoria SD insertada (por ejemplo, información de identificación asignada en forma única a cada tarjeta de memoria SD, o más específicamente, el número de serie o similar de la tarjeta de memoria SD) , de la tarjeta de memoria SD, y transmite la información de identificación leída al servidor de distribución junto con la solicitud de distribución.
La información de identificación para identificar en forma única la tarjeta de memoria SD corresponde a, por ejemplo, el ID de volumen descrito anteriormente.
Por otro lado, el servidor de distribución almacena datos necesarios (por ejemplo, el flujo de video, el flujo de audio y similares) en un estado cifrado de tal manera que los datos necesarios puedan ser descifrados usando una clave predeterminada (por ejemplo, una clave de título) .
El servidor de distribución contiene, por ejemplo, una clave privada de tal forma que pueda generar dinámicamente diferentes piezas de información de clave pública respectivamente en correspondencia con números de identificación asignados en forma única a cada tarjeta de memoria semiconductora.
Asimismo, el servidor de distribución está estructurado para poder cifrar la propia clave (clave de título) que sea necesaria para descifrar los datos cifrados (es decir, el servidor de distribución está estructurado para poder generar una clave de título cifrada) .
La información de clave pública generada incluye, por ejemplo, información que corresponde a la MKB, ID de volumen y clave de título cifrada descritas arriba. Con esta estructura, cuando, por ejemplo, una combinación del número de identificación de la tarjeta de memoria semiconductora, la clave pública contenida en la información de clave pública que se explicará más adelante, y la clave de dispositivo que se graba preliminarmente en el dispositivo de reproducción, es correcta, una clave (por ejemplo, una clave de título obtenida al descifrar la clave de título cifrada usando la clave de dispositivo, la KB y el número de identificación de la memoria semiconductora) necesaria para descifrar los datos cifrados es obtenida, y los datos cifrados son descifrados usando la clave necesaria obtenida (clave de título) .
Posteriormente, el dispositivo de reproducción graba la pieza de información de clave pública recibida y datos de distribución en un área de grabación de la tarjeta de memoria semiconductora que esté siendo insertada en la ranura del mismo.
Ahora se da una descripción de un ejemplo del método para descifrar y reproducir los datos cifrados entre los datos contenidos en la información de clave pública y datos de distribución grabados en el área de grabación de la tarjeta de memoria semiconductora.
La información de clave pública recibida almacena, por ejemplo, una clave pública (por ejemplo, la MKB y clave de título cifrada descritas arriba) , información de firma, número de identificación de la tarjeta de memoria semiconductora y lista de dispositivos que es información con respecto a los dispositivos que serán invalidados.
La información de firma incluye, por ejemplo, un valor de comprobación aleatoria de la información de clave pública .
La lista de dispositivos es, por ejemplo, información para identificar los dispositivos que pudieran ser reproducidos de una manera no autorizada. La información, por ejemplo, se usa para identificar en forma única los dispositivos, partes de los dispositivos y funciones (programas) que pudieran ser reproducidos de una manera no autorizada, y está compuesta de, por ejemplo, la clave de dispositivo y el número de identificación del dispositivo de reproducción que se graban preliminarmente en el dispositivo de reproducción, y el número de identificación del decodificador provisto en el dispositivo de reproducción.
A continuación se describe la reproducción de los datos cifrados de entre los datos de distribución grabados en el área de grabación de la tarjeta de memoria semiconductora .
Primero, se verifica si la propia clave de descifrado puede o no ser usada antes de descifrar los datos cifrados usando la clave de descifrado.
Más específicamente, se llevan a cabo las siguientes verificaciones. (1) Una verificación de si la información de identificación de la tarjeta de memoria semiconductora contenida en la información de clave pública coincide con el número de identificación de la tarjeta de memoria semiconductora almacenado preliminarmente en la tarjeta de memoria semiconductora. (2) Una verificación de si el valor de comprobación aleatoria de la información de clave pública calculada en el dispositivo de reproducción coincide con el valor de comprobación aleatoria incluido en la información de firma. (3) Una verificación, con base en la información incluida en la lista de dispositivos, de si el dispositivo de reproducción para llevar a cabo la reproducción es auténtico (por ejemplo, la clave de dispositivo mostrada en la lista de dispositivos incluida en la información de clave pública coincide con la clave de dispositivo almacenada preliminarmente en el dispositivo de reproducción) .
Estas verificaciones pueden llevarse a cabo en cualquier orden.
Después de que las verificaciones (1) a (3) descritas arriba son llevadas a cabo, el dispositivo de reproducción lleva a cabo un control para no descifrar los datos cifrados cuando cualquiera de las condiciones sea satisfecha: (i) que la información de identificación de la tarjeta de memoria semiconductora contenida en la información de clave pública no coincida con el número de identificación de la tarjeta de memoria semiconductora almacenada preliminarmente en la tarjeta de memoria semiconductora; (ii) que el valor de comprobación aleatoria de la información de clave pública calculada en el dispositivo de reproducción no coincida con el valor de comprobación aleatoria incluido en la información de firma; y (iii) que el dispositivo de reproducción para llevar a cabo la reproducción no sea auténtico.
Por otro lado, cuando todas las condiciones: (i) que la información de identificación de la tarjeta de memoria contenida en la información de clave pública coincida con el número de identificación de la tarjeta de memoria semiconductora almacenada preliminarmente en la tarjeta de memoria semiconductora; (ii) que el valor de comprobación aleatoria de la información de clave pública calculado en el dispositivo de reproducción coincida con el valor de comprobación aleatoria incluido en la información de firma y (iii) que el dispositivo de reproducción lleve a cabo la reproducción sea auténtico, son satisfechas, se juzga que la combinación del número de identificación de la memoria semiconductora, la clave pública contenida en la información de clave pública y la clave de dispositivo que se graba preliminarmente en el dispositivo de reproducción, es correcta, y los datos cifrados son descifrados usando la clave necesaria para el descifrado (la clave de título que se obtiene al descifrar la clave de título cifrada usando la clave de dispositivo, la MKB y el número de identificación de la memoria semiconductora) .
Cuando los datos cifrados son, por ejemplo, un flujo de video y un flujo de audio, el decodificador de video descifra (decodifica) el flujo de video usando la clave descrita arriba necesaria para el descifrado (la clave de título que se obtiene al descifrar la clave de título cifrada) , y el decodificador de audio descifra (decodifica) el flujo de audio usando la clave descrita arriba necesaria para el descifrado.
Con esta estructura, cuando dispositivos, partes de los dispositivos y funciones (programas) que pudieran ser usados de una manera no autorizada se conocen en el momento de la distribución electrónica, puede distribuirse una lista de dispositivos que muestre estos dispositivos y similares. Esto hace posible que el dispositivo de reproducción que ha recibido la lista inhiba el descifrado con el uso de la información de clave pública (la propia clave pública) cuando el dispositivo de reproducción incluya cualquier cosa mostrada en la lista. Por lo tanto, incluso si la combinación del número de identificación de la memoria semiconductora, la propia clave pública contenida en la información de clave pública y la clave de dispositivo que se graba preliminarmente en el dispositivo de reproducción, es correcta, se lleva a cabo un control para no descifrar los datos cifrados. Esto hace posible evitar el uso de los datos de distribución por un dispositivo no autorizado.
Es preferible que el identificador de la tarjeta de memoria semiconductora que se grabe preliminarmente en la tarjeta de memoria semiconductora sea almacenado en un área de grabación altamente segura. Esto se debe a que, cuando el número de identificación (por ejemplo, el número de serie de la tarjeta de memoria SD) que es grabado preliminarmente en la tarjeta de memoria semiconductora es alterado, se puede hacer fácilmente copias no autorizadas. Más específicamente, números de identificación únicos, aunque diferentes, se asignan respectivamente a tarjetas de memoria semiconductoras, si los números de identificación son alterados para que sean iguales, el juicio descrito arriba en (1) no tiene sentido, y tantas tarjetas de memoria semiconductoras como alteraciones pueden copiarse de una manera no autorizada.
Por esta razón, es preferible que información tal como el número de identificación de la tarjeta de memoria semiconductora se almacene en un área de grabación altamente segura .
Para lograr esto, la tarjeta de memoria semiconductora, por ejemplo, puede tener una estructura en la cual un área de grabación para grabar datos altamente confidenciales tales como el identificador de la tarjeta de memoria semiconductora (en adelante, el área de grabación es llamada una segunda área de grabación) se proporcione por separado de un área de grabación para grabar datos regulares (en adelante, el área de grabación es conocida como primer área de grabación) , un circuito de control para controlar los accesos a la segunda área de grabación es provisto, y la segunda área de grabación es accesible solamente a través del circuito de control.
Por ejemplo, datos pueden ser cifrados de tal manera que los datos cifrados sean grabados en la segunda área de grabación, y el circuito de control pueda ser integrado con un circuito para descifrar los datos cifrados. En esta estructura, cuando se hace un acceso a la segunda área de grabación, el circuito de control descifra los datos cifrados y regresa los datos descifrados. Como otro ejemplo, el circuito de control puede contener información que indique la ubicación en donde se almacenan los datos en la segunda área de grabación, y cuando se haga un acceso a la segunda área de grabación, el circuito de control identifica la ubicación de almacenamiento correspondiente de los datos, y regresa datos que son leídos de la ubicación de almacenamiento identificada.
Una aplicación, la cual se esté ejecutando en el dispositivo de reproducción y vaya a grabar datos en la tarjeta de memoria semiconductora con el uso de la distribución electrónica, envía al circuito de control por medio de una interfaz de tarjeta de memoria, una solicitud de acceso que solicita acceso a los datos (por ejemplo, el número de identificación de la tarjeta de memoria semiconductora) grabados en la segunda área de grabación. Después de recibir la solicitud, el circuito de control lee los datos de la segunda área de grabación y regresa los datos a la aplicación que se esté ejecutando en el dispositivo de reproducción. Envía el número de identificación de la tarjeta de memoria semiconductora y solicita al servidor de distribución distribuir los datos tales como la información de clave pública, y datos de distribución correspondientes. La información de clave pública y datos de distribución correspondientes que son enviados del servidor de distribución se graban en la primera área de grabación.
También, es preferible que la aplicación, la cual se esté ejecutando en el dispositivo de reproducción y vaya a grabar datos en la tarjeta de memoria semiconductora con el uso de la distribución electrónica, verifique preliminarmente si la aplicación fue o no alterada antes de que envíe, al circuito de control por medio de una interfaz de tarjeta de memoria, una solicitud de acceso que solicite acceder a los datos (por ejemplo, el número de identif cación de la tarjeta de memoria semiconductora) grabados en la segunda área de grabación. Para verificar esto, .se puede usar un certificado digital existente que se conforme a la norma X.509, por ejemplo.
Asimismo, los datos de distribución grabados en la primera área de grabación de la tarjeta de memoria semiconductora pueden no necesariamente ser accedidos por medio del circuito de control provisto en la tarjeta de memoria semiconductora.
(LSI de sistema) Es deseable que parte de los componentes del dispositivo de reproducción que están principalmente compuestos de dispositivos lógicos, tales como el decodificador de objetivos de sistema, unidad de control de reproducción 7 y unidad de ejecución de programas, se logren como un LSI de sistema.
El LSI de sistema se obtiene al implementar un chip desnudo en un substrato de alta densidad y al empacarlo. El LSI de sistema también se obtiene al implementar una pluralidad de chips desnudos en un substrato de alta densidad y empacándolos, de tal manera que la pluralidad de chip desnudos tengan una apariencia exterior de un LSI (este LSI de sistema es llamado un módulo de varios chips) .
El LSI de sistema tiene un tipo QFP (Paquete Plano Cuadriculado) y un tipo PGA (Disposición en Cuadrícula de Terminales) . En el LSI de sistema tipo QFP, se fijan terminales a los cuatro lados del paquete. En el LSI de sistema tipo PGA, se fija un gran número de terminales al fondo completo .
Estas terminales funcionan como una interfaz con otros circuitos. El LSI de sistema, el cual es conectado con otros circuitos a través de estas terminales como una interfaz, juega un papel como el núcleo del dispositivo de reproducción 200.
Este LSI de sistema puede ser integrado en varios tipos de dispositivos que puedan reproducir imágenes, tales como una televisión, una consola de juegos, una computadora personal, un teléfono móvil de un segmento, así como en el dispositivo de reproducción 200. El LSI de sistema amplía entonces grandemente el uso de la presente invención.
Es deseable que el LSI de sistema se conforme a la arquitectura UniPhier.
Un LSI de sistema que se conforme a la arquitectura UniPhier incluye los siguientes bloques de circuito.
- Procesador Paralelo de Datos (DPP) El DPP es un procesador tipo SMID en donde una pluralidad de procesadores elementales llevan a cabo una misma operación. El DPP logra decodificación paralela de una pluralidad de pixeles que constituyen una imagen al causar que unidades operativas, integradas respectivamente en los procesadores elementales, operen simultáneamente por una instrucción.
- Procesador Paralelo de Instrucciones (IPP) El IPP incluye: un controlador de memoria local que está compuesto de RAM de instrucciones, caché de instrucciones, RAM de datos y caché de datos; unidad de procesamiento que está compuesta de unidad de búsqueda de instrucciones, decodificador, unidad de ejecución y archivo de registros; y unidad de multiprocesamiento virtual que causa que la unidad de procesamiento ejecute la ejecución paralela de una pluralidad de aplicaciones.
- Bloque MPU El bloque MPU está compuesto de: circuitos periféricos tales como núcleo ARM, interfaz de bus externa (Unidad de Control de Bus: BCU) , controlador DMA, temporizado , controlador de interrupción de vectores e interfaces periféricas tales como UART, GPIO (Entrada Salida de Propósitos Generales) e interfaz serial sincronizada.
- Bloque de flujos I/O El bloque de flujos 1/0 lleva a cabo entrada/salida de datos con el dispositivo de la unidad, dispositivo de unidad de disco duro y dispositivo de unidad de tarjeta de memoria SD que se conectan en los buses externos por medio de la interfaz USB en la interfaz de paquetes ATA.
- Bloque AV 1/0 El bloque AV 1/0, el cual está compuesto de entrada/salida de audio, entrada/salida de video, un controlador OSD, lleva a cabo entrada/salida de datos con la televisión y el amplificador de AV.
- Bloque de Control de Memoria El bloque de control de memoria lleva a cabo la lectura y escritura de/en la SD-RAM conectada con el mismo por medio de los buses externos. El bloque de control de memoria está compuesto de una unidad de conexión de bus interna para controlar la conexión interna entre bloques, unidad de control de acceso para transferir datos con la SDRAM conectada al exterior del LSI de sistema, y unidad de planeación de acceso para ajustar las solicitudes provenientes de los bloques para acceder a la SD-RAM.
A continuación se describe un procedimiento de producción detallado. Primero, se dibuja un diagrama de circuitos de una parte que será el LSI de sistema, con base en los dibujos que muestran estructuras de las modalidades. Después los elementos constituyentes de la estructura objetivo se logran usando elementos de circuito, ICs o LSIs.
Mientras se logran los elementos constituyentes de la manera anterior, buses que conectan entre los elementos de circuito, ICs o LSIs, circuitos periféricos, interfaces con entidades externas y similares son definidos. Además, las líneas de conexión, líneas eléctricas, líneas a tierra, señales de reloj y similares son definidos. Para estas definiciones, las sincronización de operación de los elementos constituyentes se ajustan al tomar en consideración las especificaciones LSI, y el ancho de banda necesarios para los elementos constituyentes son asegurados. Con otros ajustes necesarios, se completa el diagrama de circuitos .
Una vez que se ha completado el diagrama de circuitos, el diseño de implementacion se lleva a cabo. El diseño de implementacion es un trabajo para crear una disposición de tablero al determinar cómo disponer las partes (elementos de circuito, ICs, LSIs) del circuito y las líneas de conexión sobre el tablero.
Después de que se lleva a cabo el diseño de implementacion y la disposición de tablero es creada, los resultados del diseño de implementacion son convertidos en datos CAM, y los datos CAM son enviados a equipo tal como la herramienta de máquina de Control Numérico (NC) . La herramienta de máquina NC lleva a cabo la implementacion de Sistema en Chip (SoC) o la implementacion de Sistema en Paquete (SiP) . La implementacion SoC es tecnología para imprimir una pluralidad de circuitos en un chip. La implementacion SiP es tecnología para empacar una pluralidad de circuitos con resina o similares. A través de estos procesos, un LCI de sistema de la presente invención puede producirse con base en la estructura interna del dispositivo de reproducción 200 descrito en cada modalidad anterior.
Debe notarse aquí que el circuito integrado generado como se describió arriba puede ser llamado IC, LSI, ultra LSI, súper LSI o similar, dependiendo del nivel de integración .
También es posible lograr el LSI de sistema usando la Disposición de Puertas Programable por Campos (FPGA) . En este caso, un gran número de elementos lógicos van a ser dispuestos tipo retícula, y alambres verticales y horizontales se conectan con base en las combinaciones de entrada/salida descritas en una Tabla de Consulta (LUT) , de tal manera que la estructura de hardware descrita en cada modalidad pueda lograrse. La LUT es almacenada en la SRAM. Ya que los contenidos del SRAM son borrados cuando se apaga la energía, cuando se usa la FPGA, es necesario definir la información de configuración de tal manera que se escriba, en la SRAM, la LUT para lograr la estructura de hardware descrita en cada modalidad.
La presente modalidad se logra por middleware y hardware que corresponden al LSI de sistema, una parte de hardware que no sea la parte que corresponda al LSI de sistema, una parte de interfaz para el middleware, parte de interfaz para el middleware y el LSI de sistema, interfaz con la parte de hardware que no sea la parte que corresponda al LSI de sistema, y la parte de interfaz de usuario, y cuando éstas se integran en un dispositivo de reproducción, funcionan en cooperación unas con otras para proporcionar funciones únicas .
Al definir adecuadamente la parte de interfaz del middleware, y la parte de interfaz del middleware y LSI de sistema, es posible desarrollar, independientemente en paralelo, la parte de interfaz de usuario, parte de middleware y parte de LSI de sistema del dispositivo de reproducción. Esto hace posible desarrollar el producto de manera más eficiente. Nótese que la interfaz puede ser segmentada de varias maneras .
Aplicación industrial Un dispositivo de reproducción de la presente invención no requiere un cambio en una velocidad de cuadros de salida cuando se cambia entre reproducción de video 3D y reproducción de video 2D. El dispositivo de reproducción de la presente invención es por lo tanto benéfico cuando se conecta a un monitor usando la conexión HDMI que requiere sincronización entre la velocidad de cuadros de salida del dispositivo de reproducción y la velocidad de cuadros de salida del monitor.
Lista de números de referencia 100 BD-ROM 200 dispositivo de reproducción 300 televisión 400 lentes 3D 500 control remoto I unidad BD 2a, 2b memoria de almacenamiento temporal de lectura 4 decodificador de objetivos de sistema 5b unidad de composición de planos 6 unidad de transmisión/recepción HDMI 7 unidad de control de reproducción 9 memoria de información de administración 10 conjunto de registros II unidad de ejecución de programas 12 memoria de programas 13 módulo HDMV 14 plataforma BD-J 15 middleware 16 módulo de administración de modos 17 unidad de procesamiento de eventos de usuario 18 almacenamiento local 19 memoria no volátil 23, 27 filtro PID 31 decodificador de video primario 32 plano de video de vista izquierda 33 plano de video de vista derecha 34 decodificador de video secundario 35 plano de video secundario 36 decodificador de PG 37 plano de PG 38 decodificador de IG 39 plano de IG 40 decodificador de audio primario 41 decodificador de audio secundario 42 mezclador Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (17)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un dispositivo de recepción para recibir un flujo de video que incluye una o más secciones de video 2D y una o más secciones de video 3D, caracterizado porque: cada sección de video 2D incluye un indicador, y cuando cada indicador es extraído, el dispositivo de recepción envía cada una de piezas de datos de imagen obtenidas al decodificar el flujo de video al menos dos veces en sucesión.
2. El dispositivo de recepción de conformidad con la reivindicación 1, caracterizado porque cuando cada indicador es extraído, el dispositivo de reproducción envía cada una de las piezas de datos de imagen dos veces en sucesión, y al enviar de esta manera cada una de las piezas de datos de imagen dos veces en sucesión, una velocidad de cuadros de salida a la cual cada sección de video 2D es reproducida coincide con una velocidad de cuadros de salida a la cual se reproduce cada sección de video 3D.
3. Un dispositivo de reproducción para reproducir flujos de video 3D que incluyen un flujo de vista base y un flujo de video de vista dependiente, caracterizado porque cuando se lleva a cabo reproducción estereoscópica usando los flujos de video 3D, el dispositivo de reproducción envía primeras piezas de datos de imagen y segundas piezas de datos de imagen a un dispositivo de presentación visual, las primeras piezas de datos de imagen y las segundas piezas de datos de imagen se obtienen al decodificar el flujo de video de vista base y el flujo de video de vista dependiente, respectivamente, y cuando se lleva a cabo reproducción 2D usando los flujos de video 3D, el dispositivo de reproducción envía cada una de las primeras piezas de datos de imagen al dispositivo de presentación visual al menos dos veces en sucesión .
. El dispositivo de reproducción de conformidad con la reivindicación 3, caracterizado porque cuando se lleva a cabo la reproducción 2D usando los flujos de video 3D, el dispositivo de reproducción envía cada una de las primeras piezas de datos de imagen al dispositivo de presentación visual dos veces en sucesión, y al enviar de esta manera cada una de las primeras piezas de datos de imagen dos veces en sucesión, una velocidad de cuadros de salida a la cual la reproducción 2D se lleva a cabo coincide con una velocidad de cuadros de salida a la cual se lleva a cabo la reproducción estereoscópica .
5. El dispositivo de reproducción de conformidad con la reivindicación 3, caracterizado porque comprende una unidad de recepción que funciona para recibir una instrucción de cambio durante la reproducción de los flujos de video 3D, la instrucción de cambio causa que el dispositivo de reproducción cambie de una de la reproducción estereoscópica y la reproducción 2D a la otra.
6. El dispositivo de reproducción de conformidad con la reivindicación 3, caracterizado porque comprende: una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente; un decodificador que funciona para decodificar el flujo de video de vista base y el flujo de video de vista dependiente; y un interruptor que funciona para conectarse a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente, para de esta manera (i) dirigir las primeras piezas de datos de imagen en la memoria de planos de video de vista base, y (ii) dirigir las segundas piezas de datos de imagen en la memoria de planos de video de vista dependiente, en donde cuando se lleva a cabo la reproducción estereoscópica usando los flujos de video 3D, el dispositivo de reproducción envía las primeras piezas de datos de imagen y las segundas piezas de datos de imagen, las cuales se almacenan respectivamente en la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente, al dispositivo de presentación visual, y cuando se lleva a cabo la reproducción 2D usando los flujos de video 3D, el dispositivo de reproducción envía cada una de las primera piezas de datos de imagen, que se almacenan en la memoria de planos de video de vista base, al dispositivo de presentación visual al menos dos veces en sucesión .
7. El dispositivo de reproducción de conformidad con la reivindicación 3, caracterizado porque comprende: una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente ; un decodificador que funciona para decodificar el flujo de video de vista base y el flujo de video de vista dependiente; y un interruptor que funciona para conectar a la memoria de planos de video de vista base o a la memoria de planos de video de vista dependiente, de tal manera que (i) cuando se lleve a cabo la reproducción estereoscópica usando los flujos, de video 3D, (a) dirija las primeras piezas de datos de imagen en la memoria de planos de video de vista base, y (b) dirija las segundas piezas de datos de imagen en la memoria de planos de video de vista dependiente, y (ii) cuando se lleve a cabo la reproducción 2D usando los flujos de video 3D, dirija las primeras piezas de datos de imagen a ambas de la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente, en donde el dispositivo de reproducción envía las piezas de datos de imagen almacenadas en la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente al dispositivo de presentación visual.
8. Un circuito integrado que se usa en un dispositivo de reproducción para reproducir flujos de video 3D que incluyen un flujo de video de vista base y un flujo de video de vista dependiente, caracterizado porque cuando se lleva a cabo reproducción estereoscópica usando los flujos de video 3D, el circuito integrado envía primeras piezas de datos de imagen y segundas piezas de datos de imagen, las cuales se obtienen al decodificar el flujo de video de vista base y el flujo de video de vista dependiente, respectivamente, y cuando se lleva a cabo reproducción 2D usando los flujos de video 3D, el circuito integrado envía cada una de las primeras piezas de datos de imagen al menos dos veces en sucesión .
9. Un dispositivo de reproducción para reproducir uno o más flujos de video grabados en un medio de grabación de acuerdo con piezas de información de sección de reproducción, caracterizado porque las piezas de información de sección de reproducción incluyen (i) piezas de información de sección de reproducción que definen secciones de reproducción 3D que logran reproducción estereoscópica, y (ii) piezas de información de secciones de reproducción que definen secciones de reproducción 2D que logran reproducción 2D, y cuando se conecta sin interrupciones las secciones de reproducción 3D y las secciones de reproducción 2D una con otra, el dispositivo de reproducción envía cada una de las piezas de datos de imagen 2D a un dispositivo de presentación visual al menos dos veces en sucesión, las piezas de datos de imagen 2D siendo obtenidas al decodificar piezas de datos de imagen comprimidas que pertenezcan a las secciones de reproducción 2D.
10. El dispositivo de reproducción de conformidad con la reivindicación 9, caracterizado porque durante la reproducción de las secciones de reproducción 2D, el dispositivo de reproducción envía cada una de las piezas de datos de imagen 2D al dispositivo de presentación visual dos veces en sucesión, y al enviar de esta manera cada una de las piezas de datos de imagen 2D dos veces en sucesión, una velocidad de cuadros de salida a la cual se lleva a cabo la reproducción 2D coincide con una velocidad de cuadros de salida a la cual se lleva a cabo la reproducción estereoscópica.
11. El dispositivo de reproducción de conformidad con la reivindicación 9, caracterizado porque comprende: una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente ; un decodificador que funciona para decodificar un flujo de video de vista base y un flujo de video de vista dependiente, los cuales están incluidos en el uno o más flujos de video; y un interruptor que funciona para conectar a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente, para de esta manera (i) dirigir primeras piezas de datos de imagen obtenidas al decodificar el flujo de video de vista base a la memoria de planos de video de vista base, y (ii) dirigir segundas piezas de datos de imagen obtenidas al decodificar el flujo de video de vista dependiente a la memoria de planos de video de vista dependiente, en donde durante la reproducción de las secciones de reproducción 3D, el dispositivo de reproducción envía las primeras piezas de datos de imagen y las segundas piezas de datos de imagen, las cuales se almacenan respectivamente en la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente, al dispositivo de presentación visual, y durante la reproducción de las secciones de reproducción 2D, el dispositivo de reproducción envía cada una de las primeras piezas de datos de imagen, las cuales se almacenan en la memoria de planos de video de vista base, al dispositivo de presentación visual al menos dos veces en sucesión .
12. El dispositivo de reproducción de conformidad con la reivindicación 9, caracterizado porque comprende: una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente ; un decodificador que funciona para decodificar un flujo de video de vista base y un flujo de video de vista dependiente, los cuales están incluidos en el uno o más flujos de video; y un interruptor que funciona para conectarse a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente, para de esta manera (i) durante la reproducción de las secciones de reproducción 3D, (a) dirigir primeras piezas de datos de imagen obtenidas al decodificar el flujo de video de vista base a la memoria de planos de video de vista base, y (b) dirigir segundas piezas de datos de imagen obtenidas al decodificar el flujo de video de vista dependiente a la memoria de planos de video de vista dependiente, y (ii) durante la reproducción de las secciones de reproducción 2D, dirigir las primeras piezas de datos de imagen a ambas de la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente, en donde el dispositivo de reproducción envía las piezas de datos de imagen almacenadas en la memoria de planos de video de vista base y la memoria de planos de video de vista dependiente al dispositivo de presentación visual.
13. Un circuito integrado que se usa en un dispositivo de reproducción para reproducir uno o más flujos de video grabados en un medio de grabación de acuerdo con piezas de información de sección de reproducción, caracterizado porque las piezas de información de sección de reproducción incluyen (i) piezas de información de sección de reproducción que definen secciones de reproducción 3D que logran reproducción estereoscópica, y (ii) piezas de información de sección de reproducción que definen secciones de reproducción 2D que logran reproducción 2D, y cuando se conectan sin interrupciones las secciones de reproducción 3D y las secciones de reproducción 2D unas con otras, el circuito integrado envía cada una de las piezas de datos de imagen 2D al menos dos veces en sucesión, las piezas de datos de imagen 2D siendo obtenidas al decodificar piezas de datos de imagen comprimidas que pertenecen a las secciones de reproducción 2D .
14. Un medio de grabación que tiene grabado en el mismo (i) flujos de video 3D que incluyen un flujo de video de vista base y un flujo de video de vista dependiente y (ii) información de listas de reproducción, caracterizado porque la información de listas de reproducción incluye piezas de información de sección de reproducción que definen, en correspondencia una a una, una pluralidad de secciones de reproducción, cada una de las piezas de información de sección de reproducción muestra una hora de inicio de reproducción y una hora de fin de reproducción de una de las secciones de reproducción correspondientes en un eje de tiempo de reproducción del flujo de video de vista base y el flujo de video de vista dependiente, las piezas de información de sección de reproducción incluyen (i) piezas de información de sección de reproducción que definen secciones de reproducción 3D que logran reproducción estereoscópica, y (ii) piezas de información de sección de reproducción que definen secciones de reproducción 2D que logran reproducción 2D, y cada una de las piezas de información de sección de reproducción que definen la secciones de reproducción 2D incluye un indicador que indica que cada una de las piezas de datos de imagen 2D deben ser enviadas a un dispositivo de presentación visual al menos dos veces en sucesión, las piezas de datos de imagen 2D siendo obtenidas al decodificar piezas de datos de imagen comprimidas que pertenezcan a una de las secciones de reproducción 2D correspondientes.
15. Un dispositivo de reproducción para reproducir flujos de video 3D que incluyen un flujo de video de vista base y un flujo de video de vista dependiente, caracterizado porque comprende : una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente ; un decodificador que funciona para decodificar el flujo de video de vista base y el flujo de video de vista dependiente; y un interruptor que funciona para conectarse a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente, para de esta manera (i) dirigir las primeras piezas de datos de imagen obtenidas al decodificar el flujo de video de vista base a la memoria de planos de video de vista base, y (ii) dirigir segundas piezas de datos de imagen obtenidas al decodificar el flujo de video de vista dependiente a la memoria de planos de video de vista dependiente, en donde cuando por lo menos una de las piezas de datos de imagen de uno del flujo de video de vista base y el flujo de video de vista dependiente se daña debido a la ocurrencia de un error mientras se decodifica uno de los flujos, el interruptor conecta a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente para de esta manera dirigir al menos una de las piezas de datos de imagen del otro flujo, que corresponda a la por lo menos una pieza de datos de imagen dañada, tanto a la memoria de planos de video de vista base como a la memoria de planos de video de vista dependiente.
16. Un dispositivo de reproducción para reproducir flujos de video 3D que incluyen un flujo de video de vista base y un flujo de video de vista dependiente, caracterizado porque comprende : una memoria de planos de video de vista base; una memoria de planos de video de vista dependiente ; un decodificador que funciona para decodificar el flujo de video de vista base y el flujo de video dependiente; y un interruptor que funciona para conectar a la memoria de planos de video de vista base o la memoria de planos de video de vista dependiente, para de esta manera (i) dirigir primeras piezas de datos de imagen obtenidas al decodificar el flujo de video de vista base a la memoria de planos de video de vista base, y (ii) dirigir segundas piezas de datos de imagen obtenidas al decodificar el flujo de video de vista dependiente a la memoria de planos de video de vista dependiente, en donde cuando por lo menos una de las piezas de datos de imagen de uno del flujo de video de vista base y el flujo de video de vista dependiente se daña debido a que ocurre un error mientras se decodifica uno de los flujos, el dispositivo de reproducción envía, como un par, (i) por lo menos una de las piezas de datos de imagen de uno de los flujos, que se almacena en una de las memorias de planos de video correspondientes inmediatamente antes de que ocurra el error, y (ii) por lo menos una de las piezas de datos de imagen del otro flujo, que se almacenan en la otra memoria de planos de video y que corresponde a la por lo menos una pieza de datos de imagen dañada.
17. Un medio de grabación que tiene grabado en el mismo (i) flujos de video 3D que incluyen un flujo de video de vista base y un flujo de video de vista dependiente y (ii) información de flujos, caracterizado porque el flujo de video de vista base y el flujo de video de vista dependiente comparten el mismo eje de tiempo de reproducc ón, la información de flujo incluye (i) un primer mapa de entrada que muestra, en correspondencia uno a uno, (a) puntos de entrada del flujo de video de vista base y (b) horas de reproducción en el eje de tiempo de reproducción, y (ii) un segundo mapa de entrada que muestra, en correspondencia uno a uno, (a) puntos de entrada del flujo de video de vista dependiente y (b) horas de reproducción en el eje de tiempo de reproducción, y cada uno de los puntos de entrada registrados en el primer mapa de entrada se ubican en la hora de reproducción en la cual uno de los puntos de entrada correspondientes registrados en el segundo mapa de entrada es ubicado.
MX2011006360A 2008-09-30 2009-09-28 Dispositivo de reproduccion, medio de grabacion y circuito integrado. MX2011006360A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10132408P 2008-09-30 2008-09-30
PCT/JP2009/004950 WO2010038409A1 (ja) 2008-09-30 2009-09-28 再生装置、記録媒体、及び集積回路

Publications (1)

Publication Number Publication Date
MX2011006360A true MX2011006360A (es) 2011-07-13

Family

ID=42073191

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2011006360A MX2011006360A (es) 2008-09-30 2009-09-28 Dispositivo de reproduccion, medio de grabacion y circuito integrado.

Country Status (11)

Country Link
US (1) US20100086285A1 (es)
EP (1) EP2360935A4 (es)
JP (1) JPWO2010038409A1 (es)
CN (1) CN102232295A (es)
AU (1) AU2009299356A1 (es)
CA (1) CA2746156A1 (es)
MX (1) MX2011006360A (es)
RU (1) RU2011135363A (es)
SG (1) SG172182A1 (es)
TW (1) TW201029466A (es)
WO (1) WO2010038409A1 (es)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010088092A (ja) * 2008-09-02 2010-04-15 Panasonic Corp 立体映像伝送システム、映像表示装置および映像出力装置
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
USRE45394E1 (en) 2008-10-20 2015-03-03 X6D Limited 3D glasses
US20110228062A1 (en) * 2008-10-20 2011-09-22 Macnaughton Boyd 3D Glasses with OLED Shutters
CA2684513A1 (en) * 2008-11-17 2010-05-17 X6D Limited Improved performance 3d glasses
US8542326B2 (en) 2008-11-17 2013-09-24 X6D Limited 3D shutter glasses for use with LCD displays
KR20110095128A (ko) * 2008-11-18 2011-08-24 파나소닉 주식회사 특수재생을 고려한 재생장치, 집적회로, 재생방법
US20100177161A1 (en) * 2009-01-15 2010-07-15 Dell Products L.P. Multiplexed stereoscopic video transmission
EP2382793A4 (en) * 2009-01-28 2014-01-15 Lg Electronics Inc BROADCAST RECEIVER AND METHOD FOR PROCESSING VIDEO DATA THEREFOR
EP2387022A4 (en) * 2009-02-04 2013-05-29 Panasonic Corp IMAGE PROCESSING DEVICE AND IMAGE DISPLAY PROCESS
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
JP5604810B2 (ja) * 2009-05-26 2014-10-15 三菱電機株式会社 映像情報再生方法、映像情報再生装置、及び記録媒体
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
US8836757B2 (en) * 2009-06-23 2014-09-16 Lg Electronics Inc. 3D image providing device, display device, and method thereof
TW201130289A (en) * 2009-07-14 2011-09-01 Panasonic Corp Image reproducing apparatus
JP4875127B2 (ja) * 2009-09-28 2012-02-15 パナソニック株式会社 三次元画像処理装置
JP5482254B2 (ja) * 2009-11-05 2014-05-07 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
USD692941S1 (en) 2009-11-16 2013-11-05 X6D Limited 3D glasses
KR101279507B1 (ko) * 2009-12-15 2013-06-28 한국전자통신연구원 병렬 처리 기반 파이프라인 복호화 장치 및 방법
US8599932B2 (en) * 2009-12-18 2013-12-03 General Instrument Corporation Carriage systems encoding or decoding JPEG 2000 video
US20110200303A1 (en) * 2010-02-12 2011-08-18 Telefonica, S.A. Method of Video Playback
US20110211816A1 (en) * 2010-02-22 2011-09-01 Richard Edwin Goedeken Method and apparatus for synchronized workstation with two-dimensional and three-dimensional outputs
US20110216173A1 (en) * 2010-03-02 2011-09-08 Comcast Cable Communications, Llc Impairments To 3D Experiences
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP5577789B2 (ja) * 2010-03-25 2014-08-27 ソニー株式会社 画像データ送信装置、画像データ送信方法および画像データ受信装置
US20120050476A1 (en) * 2010-03-29 2012-03-01 Toru Kawaguchi Video processing device
US11711592B2 (en) 2010-04-06 2023-07-25 Comcast Cable Communications, Llc Distribution of multiple signals of video content independently over a network
US10448083B2 (en) 2010-04-06 2019-10-15 Comcast Cable Communications, Llc Streaming and rendering of 3-dimensional video
JP5601006B2 (ja) * 2010-04-08 2014-10-08 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2011223247A (ja) * 2010-04-08 2011-11-04 Sony Corp 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5494152B2 (ja) * 2010-04-08 2014-05-14 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US9237366B2 (en) 2010-04-16 2016-01-12 Google Technology Holdings LLC Method and apparatus for distribution of 3D television program materials
JP5393593B2 (ja) * 2010-05-31 2014-01-22 日立コンシューマエレクトロニクス株式会社 多視点画像補正装置
US8934757B2 (en) * 2010-06-23 2015-01-13 Panasonic Corporation Content distribution system, playback device, distribution server, playback method, and distribution method
JP2012023648A (ja) * 2010-07-16 2012-02-02 Sony Corp 再生装置、再生方法、およびプログラム
JP5633259B2 (ja) * 2010-09-06 2014-12-03 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US20120113218A1 (en) * 2010-10-01 2012-05-10 Manabu Sasamoto Receiving apparatus and receiving method
EP2625853A1 (en) * 2010-10-05 2013-08-14 Telefonaktiebolaget L M Ericsson (PUBL) Multi-view encoding and decoding technique based on single-view video codecs
JP2012089931A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5622537B2 (ja) * 2010-11-30 2014-11-12 三菱電機株式会社 エラーコンシールメント装置
US20120154559A1 (en) * 2010-12-21 2012-06-21 Voss Shane D Generate Media
US9204123B2 (en) * 2011-01-14 2015-12-01 Comcast Cable Communications, Llc Video content generation
JP5431390B2 (ja) * 2011-02-28 2014-03-05 株式会社東芝 映像出力装置及び映像出力方法
EP2495979A1 (en) * 2011-03-01 2012-09-05 Thomson Licensing Method, reproduction apparatus and system for display of stereoscopic 3D video information
JP5335022B2 (ja) * 2011-04-05 2013-11-06 住友電気工業株式会社 映像再生装置
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
US8643699B2 (en) * 2011-04-26 2014-02-04 Mediatek Inc. Method for processing video input by detecting if picture of one view is correctly paired with another picture of another view for specific presentation time and related processing apparatus thereof
US20120300046A1 (en) * 2011-05-24 2012-11-29 Ilya Blayvas Method and System for Directed Light Stereo Display
KR20130030406A (ko) * 2011-09-19 2013-03-27 엘지전자 주식회사 이동 단말기
JP2013106288A (ja) * 2011-11-16 2013-05-30 Sharp Corp 電子機器、表示制御方法、およびプログラム
CN103139581A (zh) * 2011-11-30 2013-06-05 四川长虹电器股份有限公司 一种偏光3d液晶电视重影消除方法
USD711959S1 (en) 2012-08-10 2014-08-26 X6D Limited Glasses for amblyopia treatment
CN103024450B (zh) * 2012-12-10 2016-09-14 惠州Tcl移动通信有限公司 一种通过nfc技术实现互动电视的方法及系统
JP2015080035A (ja) * 2013-10-15 2015-04-23 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
JP6340882B2 (ja) * 2014-04-04 2018-06-13 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
CN104796641B (zh) * 2015-04-09 2018-11-30 康佳集团股份有限公司 眼镜式和自由式二合一立体电视机
EP3350649A4 (en) 2015-09-17 2019-05-22 Lumii, Inc. DISPLAYS WITH SEVERAL VIEWS AND ASSOCIATED SYSTEMS AND METHODS
CN109690674B (zh) * 2016-09-08 2021-05-11 索尼公司 信息处理装置、信息处理方法和程序
CN108702530B (zh) * 2016-12-27 2022-03-29 索尼公司 发送装置、发送方法、接收装置及接收方法
US10616551B2 (en) * 2017-01-27 2020-04-07 OrbViu Inc. Method and system for constructing view from multiple video streams
WO2018142946A1 (ja) * 2017-01-31 2018-08-09 ソニー株式会社 情報処理装置および方法
CA3070691A1 (en) * 2017-08-09 2019-02-14 Lumii, Inc. Manufacturing light field prints
CN112839238B (zh) * 2019-11-22 2023-03-24 腾讯科技(深圳)有限公司 投屏播放方法、装置和存储介质
EP4137866A1 (en) * 2021-08-18 2023-02-22 Carl Zeiss Microscopy GmbH Digital microscope and method for capturing and displaying microscopic images
CN115185526B (zh) * 2022-05-27 2023-10-10 韩济澎 一种能够逆向推理的编程语言的编译系统及方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4798210A (en) * 1984-03-28 1989-01-17 National Biomedical Research Foundation Three-dimensional imaging system
EP2101495B1 (en) 1996-02-28 2012-12-26 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
CN1183780C (zh) * 1996-12-04 2005-01-05 松下电器产业株式会社 光盘再现设备及光盘记录方法
EP1708487B1 (en) * 1997-08-29 2013-05-08 Panasonic Corporation Method and apparatus for reading a high-resolution optical video disc
US6999673B1 (en) * 1999-09-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Moving picture decoding method, moving picture decoding apparatus and program recording medium
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
JP2003260028A (ja) * 2002-03-11 2003-09-16 Fuji Photo Optical Co Ltd 立体電子内視鏡装置
WO2004114224A1 (ja) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
EP1946563A2 (en) * 2005-10-19 2008-07-23 Thomson Licensing Multi-view video coding using scalable video coding
CN105049894B (zh) * 2005-12-08 2018-03-16 维德约股份有限公司 用于视频通信系统中的差错弹性和随机接入的系统和方法
JP2007180982A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像復号装置、画像復号方法、及び画像復号プログラム
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
JP5357255B2 (ja) * 2008-07-22 2013-12-04 トムソン ライセンシング スケーラブルビデオ符号化(svc)復号化におけるエンハンスメントレイヤパケットの消失によるエラー隠蔽方法

Also Published As

Publication number Publication date
JPWO2010038409A1 (ja) 2012-03-01
CA2746156A1 (en) 2010-04-08
TW201029466A (en) 2010-08-01
SG172182A1 (en) 2011-07-28
EP2360935A4 (en) 2012-06-20
CN102232295A (zh) 2011-11-02
WO2010038409A1 (ja) 2010-04-08
RU2011135363A (ru) 2013-03-27
US20100086285A1 (en) 2010-04-08
AU2009299356A1 (en) 2011-08-25
EP2360935A1 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
JP4564107B2 (ja) 記録媒体、再生装置、システムlsi、再生方法、記録方法、記録媒体再生システム
JP4588118B1 (ja) 記録媒体、再生装置
JP4629805B2 (ja) 再生装置、記録方法、記録媒体再生システム
MX2011006360A (es) Dispositivo de reproduccion, medio de grabacion y circuito integrado.
WO2010095410A1 (ja) 記録媒体、再生装置、集積回路
WO2010095381A1 (ja) 記録媒体、再生装置、集積回路

Legal Events

Date Code Title Description
FG Grant or registration