ES2659717T3 - Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D - Google Patents

Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D Download PDF

Info

Publication number
ES2659717T3
ES2659717T3 ES09702249.5T ES09702249T ES2659717T3 ES 2659717 T3 ES2659717 T3 ES 2659717T3 ES 09702249 T ES09702249 T ES 09702249T ES 2659717 T3 ES2659717 T3 ES 2659717T3
Authority
ES
Spain
Prior art keywords
images
type
video
group
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09702249.5T
Other languages
English (en)
Inventor
Tomoki Ogawa
Hiroshi Yahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Application granted granted Critical
Publication of ES2659717T3 publication Critical patent/ES2659717T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Un medio de grabación (1000) que comprende: un área de transmisión digital en la que se graba una transmisión digital; y un área de información del mapa en la que se graba la información del mapa, indicando la información del mapa las direcciones de entrada en correspondencia una a una con los tiempos de entrada en un eje de tiempos de la transmisión digital, mostrando cada una de las direcciones de entrada un inicio de uno correspondiente de los grupos de regiones de parejas de imágenes en el área de transmisión digital, incluyendo cada una del grupo de las regiones de parejas de imágenes una pareja de un grupo de imágenes del primer tipo y un grupo de imágenes del segundo tipo, caracterizado por cada grupo de imágenes del primer tipo son datos que indican un conjunto de imágenes en movimiento a reproducir desde uno correspondiente de los tiempos de entrada en el eje de tiempos de la transmisión digital, cada grupo de imágenes del segundo tipo son datos a reproducir junto con uno correspondiente de los grupos de imágenes del primer tipo para facilitar al usuario una vista estereoscópica de la transmisión digital, los grupos de imágenes del primer tipo y los grupos de imágenes del segundo tipo se dividen en conjuntos de paquetes, respectivamente, y se multiplexan juntos, y un paquete de cabecera de entre cada conjunto de paquetes divididos a partir de uno correspondiente de los grupos de imágenes precedentes del primer tipo, en la transmisión digital, un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del segundo tipo.

Description

5
10
15
20
25
30
35
40
45
DESCRIPCION
Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D
Campo técnico
La presente invención se refiere a un formato que se utiliza cuando se graban gráficos en 3D en un medio de grabación.
Antecedentes de la técnica
En los últimos años, los estándares DVD de próxima generación llamados disco Blu-ray y DVD HD han sido establecidos y, por lo tanto, los discos ópticos de alta definición y sonido de alta calidad han sido comunes entre los usuarios.
En lo que respecta a la calidad de las imágenes en movimiento que se pueden grabar en dichos discos ópticos, mientras que los DVD convencionales son SD (definición estándar), los discos Blu-ray son HD (alta definición) con resoluciones de hasta 1920 x 1080 y pueden, por lo tanto, almacenar imágenes en los mismos que tiene mayor calidad de imagen.
En los últimos años, con la expansión de los medios de paquetes tales como los DVD el número de visitantes a las salas de cine ha disminuido. Por lo tanto, en los EE.UU. y en Japón, se ha fomentado el establecimiento de salas de cine en las que los visitantes puedan disfrutar de películas tridimensionales (películas en 3D) con el fin de aumentar el número de visitantes a las salas de cine. Uno de los factores que contribuye a dichos cambios en las salas de cine es que se ha desarrollado un entorno en el que los gráficos en 3D pueden ser generados comparativamente con facilidad, puesto que numerosas de las últimas películas se han realizado utilizando CG (gráficos por ordenador).
En vista de unos antecedentes de este tipo, muchos usuarios desearán que el contenido en 3D se grabe en los DVD de próxima generación anteriormente mencionados tales como los discos Blu-ray y DVD HD.
Documento Patente 1: solicitud de publicación internacional n.°. 2005-119675.
El documento US 2003/053797 A1 se refiere a un disco óptico para grabar vídeo estereoscópico que tiene varios primeros bloques intercalados de una primera transmisión de vídeo y varios segundos bloques intercalados de una segunda transmisión de vídeo, comprendiendo las transmisiones de vídeo primera y segunda una señal MPEG codificada con codificación de longitud variable, con cada uno de los bloques intercalados primero y segundo que tiene una transmisión de vídeo de más de 1 grupo de imágenes y de menos de 30 grupos de imágenes.
El documento WO 2006/025527 A1 se refiere a un medio de grabación que tiene una transmisión de vídeo VC-1 y un mapa de entrada grabado en el mismo.
El documento US 2005/123279 A1 se refiere a un medio de grabación de información en el que la información de contenido que crea una serie de contenidos se multiplexa y graba mediante una unidad de paquetes.
Descripción de la invención
Los problemas a resolver por la invención
Si bien ser capaz de simplemente reproducir el contenido en 3D de principio a fin es suficiente en las salas de cine, dicha reproducción no es suficiente para introducir la tecnología 3D en los hogares en la forma de un disco óptico. Es decir, es necesario garantizar en términos de manejabilidad para los usuarios al introducir la tecnología 3D en los hogares que el acceso aleatorio y similares se puedan realizar como antes. Como método para realizar la visualización 3D en el hogar, se puede tener en cuenta un método para utilizar vídeo de paralaje (compuesto por dos transmisiones de vídeo que se basan en paralaje binocular). En ese caso, es problemático cómo sincronizar las dos transmisiones de vídeo en el momento de acceso aleatorio para garantizar que se puede realizar el acceso aleatorio. Si las dos transmisiones de vídeo no se pueden sincronizar, se podría presentar un período de tiempo en el que una transmisión de vídeo se puede descodificar adecuadamente mientras que la otra transmisión de vídeo no se puede descodificar cuando el usuario reproduce a partir de un momento de tiempo arbitrario en el que se pueda realizar el acceso aleatorio. Esto se debe a que no se proporcionan a un descodificador los datos necesarios para la reproducción. Como resultado, la visualización estereoscópica utilizando vídeo de paralaje no se puede realizar en dicho período de tiempo.
La presente invención tiene un objetivo de proporcionar un medio de grabación con el que se pueda realizar el acceso aleatorio de forma confiable en la reproducción de gráficos en 3D.
5
10
15
20
25
30
35
40
45
50
Medios para resolver los problemas
Para lograr el objetivo anterior, un aspecto de la presente invención es un medio de grabación de acuerdo con la reivindicación 1.
Efecto de la invención
Con la estructura mencionada anteriormente, puesto que las parejas de GOP del primer tipo y los GOP del segundo tipo existen en las regiones de las parejas de GOP indicadas por las direcciones de entrada en el área de grabación de la transmisión digital que corresponden a los tiempos de entrada, es posible permitir de manera confiable que un usuario realice una visualización estereoscópica de imágenes en movimiento incluso cuando la reproducción comience en un tiempo de entrada arbitrario en el eje de tiempos de la transmisión digital. Por lo tanto, el usuario puede disfrutar fácilmente visualizando gráficos en 3D en casa.
Cada uno de los GOP del primer tipo y cada uno de los GOP del segundo tipo se pueden dividir en un conjunto de paquetes del primer tipo y un conjunto de paquetes del segundo tipo, respectivamente, los conjuntos de paquetes del primer tipo y los conjuntos de paquetes del segundo tipo se pueden multiplexar juntos, siendo asignados todos los paquetes con números de paquete consecutivos de acuerdo con un orden de multiplexación, un paquete de cabecera de entre cada uno de los conjuntos de paquetes del primer tipo puede preceder, en la transmisión digital, un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes del segundo tipo y, cada una de las direcciones de entrada en la información del mapa se puede representar como uno de los números de paquete asignados a un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes del primer tipo.
Las direcciones de entrada que muestran cada una un paquete de cabecera de un GOP del primer tipo correspondiente están en correspondencia una a una con los tiempos de entrada. Por lo tanto, leyendo los paquetes del medio de grabación de acuerdo con las direcciones de entrada, es posible enviar de forma fiable el GOP del primer tipo a un descodificador de vídeo sin enviar datos innecesarios. Por lo tanto, es posible proporcionar directamente una visualización estereoscópica comenzando desde un punto de entrada deseado por el usuario cuando se realiza acceso aleatorio en una transmisión de vídeo.
Cada uno de los conjuntos de paquetes del segundo tipo divididos a partir de uno correspondiente de los GOP del segundo tipo se puede situar antes de una próxima de las direcciones de entrada que esté inmediatamente próxima de una de las direcciones de entrada que se relacionan con uno correspondiente de los GOP del primer tipo.
Se garantiza que una pareja completa de los GOP del primer tipo y de los GOP del segundo tipo se puede enviar al descodificador de vídeo leyendo paquetes desde un paquete (m) indicado por una dirección de entrada (i) hasta un paquete (n-1) inmediatamente antes de un paquete (n) indicado por una dirección de entrada (i + 1). Puesto que se garantiza, en el caso de realizar un acceso aleatorio con referencia a la información del mapa, que la pareja completa de los GOP del primer tipo y de los GOP del segundo tipo que puede proporcionar una visualización estereoscópica es enviada al descodificador de vídeo, el descodificador puede realizar una operación de alta velocidad que responda rápidamente a una operación de salto por parte del usuario.
Breve descripción de los dibujos
Las Fig. 1A, 1B y 1C muestran los principios de la visualización estereoscópica utilizando vídeo de paralaje;
La Fig. 2 muestra una estructura de un BD-ROM;
La Fig. 3 muestra un ejemplo de una estructura de un fragmento AV almacenado en un archivo (XXX.M2TS);
La Fig. 4 muestra una relación entre el fragmento AV y PL;
La Fig. 5 muestra un ejemplo de información de gestión de un fragmento AV almacenado en un archivo de información del fragmento de vídeo.
La Fig. 6 muestra una relación entre los PTS asignados a varias imágenes que componen una transmisión de vídeo para un ojo izquierdo (transmisión de vídeo del ojo izquierdo) y los PTS asignados a varias imágenes que componen una transmisión de vídeo para un ojo derecho (transmisión de vídeo del ojo derecho);
La Fig. 7 muestra una relación de referencia entre imágenes;
La Fig. 8 muestra esquemáticamente un ejemplo de multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho;
La Fig. 9 muestra esquemáticamente otro ejemplo de multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho;
La Fig. 10 muestra esquemáticamente cómo se multiplexa cada una de las transmisiones de vídeo en el fragmento AV;
5
10
15
20
25
30
35
La Fig. 11 es un diagrama de bloques que muestra una estructura de un aparato de reproducción 2000;
La Fig. 12 es un diagrama de flujo que muestra el proceso de descodificación de vídeo mediante un descodificador de vídeo 2302;
La Fig. 13 muestra una estructura de un sistema de cine en casa;
La Fig. 14 es un diagrama de bloques que muestra una estructura interna de un medio de grabación 40;
Las Fig. 15A, 15B y 15C muestran cómo generar de forma efectiva una transmisión básica de vídeo en 3D;
La Fig. 16 muestra una estructura de una tabla índice que incluye indicadores 3D;
La Fig. 17 muestra un ejemplo de una estructura de un fragmento AV almacenado en un directorio de transmisiones;
La Fig. 18 muestra una estructura de una lista de reproducción cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se graban como transmisiones digitales separadas;
Las Fig. 19A y 19B muestran una diferencia entre un punto focal de los ojos cuando el usuario realmente mira un objeto y un punto focal de los ojos cuando el usuario realiza visualización estereoscópica;
La Fig. 20 muestra información de la lista de reproducción cuando existen varias trayectorias secundarias;
La Fig. 21 muestra cómo el usuario visualiza un objeto mostrado en una pantalla en el momento de la reproducción de gráficos en 2D;
La Fig. 22 muestra cómo el objeto parece emerger hacia el usuario desde la pantalla en el momento de la reproducción de gráficos en 3D;
La Fig. 23 muestra una tabla en la que cada fragmento secundario se corresponde con una pieza de datos de audio, un subtítulo y un menú; y
La Fig. 24 muestra un diagrama de flujo que muestra el procesamiento de consultas que consulta a la pantalla si se pueden mostrar gráficos en 3D.
Descripción de las referencias numéricas
1000 BD-ROM 2000 aparato de reproducción 2100 unidad BD-ROM 2200 búfer de pista
2300 descodificador objetivo de sistema
2301 demultiplexor
2302 descodificador de vídeo
2303 plano de vídeo de ojo izquierdo
2304 plano de vídeo de ojo derecho
2305 descodificador de vídeo secundario
2306 plano de vídeo secundario
2307 descodificador PG
2308 plano PG
2309 descodificador IG
2310 plano IG
2311 procesador de imagen
2312 plano de imagen
2313 descodificador de audio
2400 sumador de plano
2500 memoria de programa
2600 memoria de información de gestión
2700 unidad de ejecución de programa
5
2800 unidad de control de reproducción
2900 unidad de procesamiento de eventos de usuario
3000 pantalla
4000 gafas estereoscópicas
5000 mando a distancia
10
40 aparato de grabación
41 codificador de vídeo
42 unidad generadora de material
43 unidad generadora de escenario
44 unidad generadora de programa BD
15
45 unidad de procesamiento de multiplexación
46 unidad de procesamiento de formato
Mejor modo para llevar a cabo la invención
A continuación, se describen las formas de realización de la presente invención con referencia a los dibujos.
(Primera forma de realización)
1. Principios de visualización estereoscópica
20 En primer lugar, a continuación, se describen los principios para proporcionar visualización estereoscópica utilizando una pantalla para uso doméstico. Existen dos métodos principales para realizar la visualización estereoscópica: un método que utiliza la tecnología holográfica y un método que utiliza el vídeo de paralaje (compuesto por dos transmisiones de vídeo basadas en paralaje binocular).
El método que utiliza la tecnología holográfica nos puede permitir visualizar un objeto en una imagen de forma 25 estereoscópica exactamente de la misma manera que habitualmente reconocemos un objeto físico. Sin embargo, aunque se ha establecido la teoría técnica, es muy difícil, en el caso de imágenes en movimiento, realizar, con la tecnología actual, la visualización estereoscópica utilizando la tecnología holográfica puesto que son necesarios los siguientes dispositivos de ordenador y pantalla: el ordenador capaz de realizar una enorme cantidad de cálculos para generar imágenes en movimiento para la holografía en tiempo real y el dispositivo de visualización que tenga 30 una resolución lo suficientemente grande como para dibujar miles de líneas en un espacio tan pequeño como 1 mm. Por lo tanto, es una realidad que la tecnología holográfica rara vez se ha realizado con fines comerciales.
En el método que utiliza vídeo de paralaje, por otro lado, la visualización estereoscópica se puede realizar preparando imágenes para un ojo derecho (imágenes del ojo derecho) e imágenes para un ojo izquierdo (imágenes del ojo izquierdo), y permitiendo que las imágenes del ojo derecho se vean solamente por el ojo derecho y las 35 imágenes del ojo izquierdo se vean solamente por el ojo izquierdo. Las Figs. 1A, 1B y 1C muestran los principios de la visualización estereoscópica utilizando vídeo de paralaje. La Fig. 1A es una vista superior que muestra cómo el usuario mira un cubo pequeño comparativamente frente al usuario, La Fig. 1B muestra cómo se ve el cubo cuando el usuario mira el cubo con el ojo izquierdo, y la Fig. 1C muestra cómo se ve el cubo cuando el usuario mira el cubo con el ojo derecho. Según se muestra en las Figs. 1B y 1C, los ángulos desde los que se captura una imagen son 40 diferentes entre los ojos izquierdo y derecho. La visualización estereoscópica se realiza mediante la combinación, en el cerebro, de dichas imágenes capturadas por los ojos izquierdo y derecho desde diferentes ángulos.
Este método tiene un mérito en que la visualización estereoscópica se puede realizar preparando solo dos imágenes (una para el ojo derecho y otra para el ojo izquierdo) visualizadas desde diferentes puntos de observación. Algunas tecnologías que utilizan este método se han puesto en práctica mediante la tecnología que se centra en cómo 45 permitir que las imágenes correspondientes cada una al ojo derecho y el ojo izquierdo sean vistas solo por los ojos correspondientes.
5
10
15
20
25
30
35
40
45
50
55
Una de las tecnologías se llama método de separación sucesiva. En dicho método, las imágenes del ojo izquierdo y las imágenes del ojo derecho se muestran alternativamente en la pantalla. Cuando el usuario observa las imágenes mostradas a través de gafas estéreo de tipo sucesivo (con obturadores de cristal líquido), las escenas izquierda y derecha se superponen entre sí mediante la reacción espectral de los ojos. Por lo tanto, el usuario reconoce las imágenes como imágenes estereoscópicas. Más específicamente, en el momento en que se muestra una imagen del ojo izquierdo en la pantalla, las gafas estéreo de tipo sucesivo llevan un obturador de cristal líquido para el ojo izquierdo a un estado de transmisión de luz y un obturador de cristal líquido para el ojo derecho a un estado de bloqueo de luz. En el momento en que se muestra una imagen de ojo derecho en la pantalla, por otro lado, las gafas estéreo de tipo sucesivo llevan el obturador de cristal líquido para el ojo derecho al estado de transmisión de luz, y el obturador de cristal líquido para el ojo izquierdo al estado de bloqueo de luz. Con dicho método, las imágenes del ojo izquierdo y del ojo derecho se pueden ver con los ojos correspondientes.
Por lo tanto, para mostrar las imágenes del ojo izquierdo y las imágenes del ojo derecho alternativamente en la dirección del eje de tiempos, por ejemplo, es necesario mostrar 48 imágenes (una suma de las imágenes derecha e izquierda) en un segundo en el método de separación sucesiva mientras que solo se muestran 24 imágenes en un segundo en una película en dos dimensiones estándar. Por consiguiente, dicho método es adecuado para su uso en una pantalla capaz de realizar una reescritura de una pantalla comparativamente rápido.
Otra tecnología utiliza una lente lenticular. Las imágenes del ojo izquierdo y las imágenes del ojo derecho se muestran alternativamente en la dirección del eje de tiempos en el método de separación sucesiva anteriormente mencionado. Sin embargo, en la tecnología que utiliza una lente lenticular, las imágenes del ojo izquierdo y las imágenes del ojo derecho se disponen alternativamente en una dirección longitudinal en una pantalla simultáneamente, y la lente lenticular se une a la superficie de la pantalla. Cuando el usuario visualiza las imágenes mostradas en la pantalla a través de la lente lenticular, los píxeles que componen las imágenes del ojo izquierdo se visualizan solo con el ojo izquierdo, y los píxeles que componen las imágenes del ojo derecho se visualizan solo con el ojo derecho. Puesto que es posible permitir que el ojo derecho y el ojo izquierdo visualicen las imágenes con paralaje, el usuario puede reconocer las imágenes mostradas en la pantalla como imágenes estereoscópicas. Obsérvese que esto no está limitado a una lente lenticular, y puede utilizarse un dispositivo que tenga la misma función (por ejemplo, un elemento de cristal líquido). Una alternativa adicional es un método mediante el cual se proporcionan filtros polarizados verticales en píxeles para el ojo izquierdo y se proporcionan filtros polarizados horizontales en píxeles para el ojo derecho, y el usuario utiliza gafas polarizadas en las que (i) se proporciona un filtro polarizado vertical en una lente para el ojo izquierdo y (ii) se proporciona un filtro horizontal con una lente para el ojo derecho. Esto permite que el usuario reconozca las imágenes mostradas estereoscópicamente.
El método anteriormente mencionado para proporcionar visualización estereoscópica utilizando el vídeo de paralaje se ha utilizado comúnmente en equipos en parques de atracciones y ha sido comprobado técnicamente. Por lo tanto, dicho método es el más cercano para llevarse a cabo para uso doméstico. Aparte de un método de este tipo, se han sugerido diversas tecnologías, tales como un método de separación de dos colores y similares, como un método para proporcionar visualización estereoscópica utilizando vídeo de paralaje.
Aunque se da una descripción tomando como ejemplos el método de separación sucesiva y el método de las gafas polarizadas, los métodos para proporcionar visualización estereoscópica utilizando el vídeo de paralaje no se limitan a estos, y pueden ser cualquier método que utilice vídeo de paralaje.
2. Estructura de datos para almacenar vídeo de paralaje (a partir de ahora denominado también "imágenes en 3D") para permitir al usuario realizar la visualización estereoscópica.
A continuación, se describe una estructura de datos para almacenar imágenes en 3D en un BD-ROM que es un medio de grabación que está relacionado con la presente solicitud.
La Fig. 2 muestra una estructura del BD-ROM. El BD-ROM se muestra en un cuarto nivel desde la parte superior en la presente figura y una pista en el BD-ROM se muestra en un tercer nivel. Aunque la pista se forma habitualmente con una forma espiral desde una circunferencia interior hasta una circunferencia exterior, la pista se dibuja de manera lateralmente expandida en la presente figura. Esta pista consta de un área de lectura de entrada, un área de volumen y un área de lectura de salida. El área de volumen en la presente figura tiene un modelo de capas que tiene una capa física, una capa de sistema de archivos y una capa de aplicación. Un nivel superior de la Fig. 2 muestra un formato de capa de aplicación (formato de aplicación) del BD-ROM expresado utilizando una estructura de directorios. Según se muestra en la presente figura, en el BD-ROM, un directorio BDMV está inmediatamente debajo de un directorio ROOT; y un archivo índice (index. bdmv), un directorio PLAYLIST, un directorio CLIPINFO, un directorio STREAM y un directorio PROGRAM existen debajo del directorio BDMV.
Una tabla índice que muestra una estructura de títulos se almacena en un archivo índice (index. bdmv). Los títulos son unidades de reproducción. Por ejemplo, una película principal se graba en un primer título, un corte del director se graba en un segundo título y el contenido adicional se graba en un tercer título. El usuario puede especificar un título para reproducir (por ejemplo, especificando "reproducir el título Nth") utilizando un mando a distancia o similar que viene con el aparato de reproducción.
5
10
15
20
25
30
35
40
45
50
55
En un directorio STREAM se almacena un archivo (XXX. M2TS) que incluye en el mismo un fragmento AV en el que se multiplexan contenidos AV tales como vídeo y audio. La Fig. 3 muestra un ejemplo de una estructura de un fragmento AV almacenado en el archivo (XXX. M2TS). Según se muestra en la Fig. 3, en el archivo (XXX. M2TS) se almacena una transmisión digital en una forma de transmisión de transporte MPEG-2. En dicha transmisión digital, se multiplexan una transmisión de vídeo para el ojo izquierdo (transmisión de vídeo del ojo izquierdo), una transmisión de vídeo para el ojo derecho (transmisión de vídeo del ojo derecho) y similares. Aquí, la transmisión de vídeo del ojo izquierdo se reproduce como vídeo en 2D, y también se reproduce como vídeo para el ojo izquierdo en el caso de permitir que el usuario realice la visualización estereoscópica de imágenes en movimiento (en el caso de reproducir la transmisión digital como vídeo en 3D). La transmisión de vídeo del ojo derecho se reproduce junto con la transmisión de vídeo del ojo izquierdo en el caso de permitir que el usuario realice la visualización estereoscópica de imágenes en movimiento. Además, según se muestra en la Fig. 3, 0x1011 se asigna a la transmisión de vídeo del ojo izquierdo como un PID, y 0x1012, que es diferente del PID de la transmisión de vídeo del ojo izquierdo, se asigna a la transmisión de vídeo del ojo derecho. Esto permite que las transmisiones de vídeo se distingan entre sí. Cada una de las transmisiones de vídeo se graba después de haber sido comprimida y codificada según el método MPEG-2, el método MPEG-4 AVC, el método SMPTE VC-1 o similares. Se graba una transmisión de audio después de haber sido comprimida y codificada de acuerdo con el método Dolby AC-3, el método Dolby Digital Plus, el método MLP, el método DTS, el método DTS-HD, el método PCM lineal o similares.
En un directorio PLAYLIST se almacena un archivo de lista de reproducción (YYY. MPLS) que incluye en el mismo la información de la lista de reproducción en la que se define una trayectoria de reproducción lógica (PL) en el fragmento AV. La Fig. 4 muestra una relación entre el fragmento AV y la PL. Según se muestra en la Fig. 4, la información de la lista de reproducción se compone de una o más piezas de información (PI) del elemento de reproducción. Cada una de las piezas de información del elemento de reproducción se identifica mediante un ID de elemento de reproducción y se escribe en orden de reproducción en la lista de reproducción.
Además, las piezas de información de la lista de reproducción incluyen marcas de entrada que muestran cada una un punto de inicio de reproducción. Las marcas de entrada se pueden proporcionar en las secciones de reproducción definidas en las piezas de información del elemento de reproducción. Además, según se muestra en la Fig. 4, cada una de las marcas de entrada se sitúa en una posición para ser un punto de inicio de reproducción en la información del elemento de reproducción, y se utiliza para indicar el comienzo de la reproducción. Por ejemplo, la reproducción de capítulos se puede realizar proporcionando una marca de entrada en una posición para ser un inicio de cada capítulo en un título de película. Obsérvese que una trayectoria de reproducción de un conjunto de piezas de información del elemento de reproducción se define como una trayectoria principal.
En un directorio CLIPINFO se almacena un archivo de información del fragmento de vídeo (XXX. CLPI) que incluye en el mismo la información de gestión sobre el fragmento AV almacenado. La Fig. 5 muestra un ejemplo de información de gestión sobre el fragmento AV almacenado en el archivo de información del fragmento. Según se muestra en la Fig. 5, la información de gestión sobre el fragmento AV se corresponde uno a uno con el fragmento AV, y se compone de información del fragmento, información de los atributos de la transmisión y mapas de entrada.
En cada uno de los mapas de entrada se escribe información de cabecera del mapa de entrada, información de tabla y otra información de tabla relacionada con una transmisión de vídeo (vídeo secundario). Aquí, la información de tabla muestra parejas, cada una de los cuales se compone de (i) un PTS (Sello de tiempo de presentación) que muestra un tiempo de visualización de una cabecera de cada GOP que compone la transmisión de vídeo del ojo izquierdo y (ii) un SPN (Número de paquete fuente) que muestra una posición de inicio de cada uno de los GOP en el fragmento AV. Aquí, la información en cada una de las parejas de PTS y SPN mostradas en una fila se denomina un punto de entrada. Además, los valores comenzando a partir de 0 cada uno de los cuales se incrementa en uno en orden se denominan ID del punto de entrada (en lo sucesivo también denominado "EP_ID").
Además, en la información de cabecera del mapa de entrada, se almacena información sobre un PID de la transmisión de vídeo del ojo izquierdo, el número de puntos de entrada y similares.
Al referirse a dichos mapas de entrada, el aparato de reproducción puede, cuando el punto de inicio de reproducción se especifica por tiempo, convertir la información de tiempo en información de dirección, y especificar un punto paquete en un fragmento AV. El punto paquete corresponde a un punto arbitrario en un eje de tiempos de la transmisión de vídeo.
En un directorio PROGRAMA se almacena un archivo de programa BD (AAA. PROG) que incluye en el mismo un programa para definir un escenario dinámico.
En un BD-ROM, aunque se utiliza un programa propietario de tipo intérprete denominado "navegación comandada", un sistema de lenguaje no es una esencia de la presente invención. Por lo tanto, también es posible un programa escrito por un lenguaje de programación de propósito general como Java o Java script. Dicho programa especifica una lista de reproducción a reproducir.
5
10
15
20
25
30
35
40
45
50
55
PTS de una transmisión de vídeo del ojo izquierdo y una transmisión de vídeo de ojo derecho
A continuación, se describen los PTS de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho para permitir al usuario realizar la visualización estereoscópica de las imágenes en movimiento.
La Fig. 6 muestra una relación entre un tiempo de visualización (PTS) asignado a cada una de las varias imágenes que componen la transmisión de vídeo del ojo izquierdo, y un tiempo de visualización (PTS) asignado a cada una de las varias imágenes que componen la transmisión de vídeo del ojo derecho. Las imágenes que componen la transmisión de vídeo del ojo izquierdo (imágenes del ojo izquierdo) se corresponden una a una con las imágenes que componen la transmisión de vídeo del ojo derecho (imágenes del ojo derecho) (por ejemplo, una imagen L1 y una imagen R1 según se muestra en Fig. 6 se corresponden entre sí). Los PTS se establecen de tal manera que las imágenes del ojo izquierdo que se corresponden con las imágenes del ojo derecho se muestran antes de las imágenes del ojo derecho correspondientes. Además, los PTS para las imágenes del ojo izquierdo y los PTS para las imágenes del ojo derecho se establecen de manera que se alternen entre sí en un eje de tiempos. Esto se puede llevar a cabo estableciendo los PTS de manera que las imágenes del ojo izquierdo y las imágenes del ojo derecho que se encuentran en una relación de referencia de una codificación de predicción intra-imágenes se muestren de forma alternativa.
A continuación, se describen las imágenes del ojo izquierdo y las imágenes del ojo derecho que se encuentran en la relación de referencia de la codificación de predicción intra-imágenes. Las imágenes del ojo derecho se comprimen mediante una codificación de predicción intra-imágenes que se basa en la redundancia entre vistas además de una codificación de predicción intra-imagen que se basa en la redundancia en una dirección del eje de tiempos. Es decir, las imágenes de vídeo del ojo derecho se comprimen con referencia a las imágenes del ojo izquierdo correspondientes. A continuación, se describen las razones de esto. Las imágenes del ojo izquierdo y las imágenes del ojo derecho se correlacionan fuertemente entre sí, puesto que los objetos de las imágenes del ojo izquierdo y las imágenes del ojo derecho son los mismos, aunque las vistas de los mismos son diferentes. Por lo tanto, la cantidad de datos de la transmisión de vídeo del ojo derecho se puede reducir en gran medida en comparación con la cantidad de datos de la transmisión de vídeo del ojo izquierdo realizando la codificación de predicción intra- imágenes entre las vistas.
La Fig. 7 muestra una relación de referencia entre imágenes. Según se muestra en la Fig. 7, una imagen P0 de la transmisión de vídeo del ojo derecho se refiere a una imagen 10 de la transmisión de vídeo del ojo izquierdo. Una imagen B1 de la transmisión de vídeo del ojo derecho se refiere a una imagen Br1 de la transmisión de vídeo del ojo izquierdo. Una imagen B2 de la transmisión de vídeo del ojo derecho se refiere a una imagen Br2 de la transmisión de vídeo del ojo izquierdo. Una imagen P3 de la transmisión de vídeo del ojo derecho se refiere a la imagen P3 de la transmisión de vídeo del ojo izquierdo.
Puesto que la transmisión de vídeo del ojo izquierdo no se refiere a la transmisión de vídeo del ojo derecho, la transmisión de vídeo del ojo izquierdo se puede reproducir sola (es decir, la transmisión de vídeo del ojo izquierdo se puede reproducir como vídeo en 2D). Sin embargo, la transmisión de vídeo del ojo derecho por sí sola no se puede reproducir, puesto que la transmisión de vídeo del ojo derecho se refiere a la transmisión de vídeo del ojo izquierdo.
A continuación, se describe el intervalo de tiempo entre los PTS de las imágenes del ojo izquierdo y los PTS de las imágenes del ojo derecho correspondientes utilizando la Fig. 6. Cuando se reproducen gráficos en 3D utilizando el método de separación sucesiva, cada PTS para la imagen del ojo derecho debe establecerse en un intervalo que satisfaga la siguiente ecuación con respecto a una imagen del ojo izquierdo mostrada por un determinado tiempo (PTS):
PTS (para el ojo derecho) = PTS (para el ojo izquierdo) + 1/(el número de fotogramas por segundo x 2).
Cuando una velocidad de fotogramas es 24 p, por ejemplo, indica que se muestran 24 imágenes en un segundo. Por lo tanto, el intervalo (retraso de visualización) entre las imágenes del ojo izquierdo y las imágenes del ojo derecho correspondientes es de 1/48 segundos.
Por lo tanto, las imágenes del ojo derecho deben sincronizarse con las imágenes del ojo izquierdo correspondientes con un retraso de visualización (1/48 segundos).
Por lo tanto, en el caso de multiplexar la transmisión de vídeo del ojo izquierdo y una transmisión de vídeo del ojo derecho en una transmisión de transporte, la multiplexación se puede realizar de tal manera que las imágenes del ojo izquierdo se dispongan cerca de las imágenes del ojo derecho correspondientes en base a los PTS y los DTS. Aquí, los PTS muestran los tiempos de visualización de las imágenes en cada GOP de cada una de las transmisiones de vídeo, y los DTS muestran los tiempos de descodificación de las imágenes en cada GOP de cada una de las transmisiones de vídeo.
Cuando las transmisiones se multiplexan de esta forma, se pueden obtener las imágenes requeridas del ojo izquierdo y del ojo derecho en un momento necesario si se lee una transmisión de transporte en orden desde la cabecera.
5
10
15
20
25
30
35
40
45
50
55
Sin embargo, en algunos casos, la reproducción se realiza desde un momento de tiempo distinto de un momento de tiempo de la cabecera de la transmisión debido a una operación de salto o una operación de salto de especificación de tiempo. En dichos casos, puesto que los puntos de entrada se escriben en cada uno de los mapas de entrada en unidades de los GOP, los límites de los GOP entre las imágenes del ojo izquierdo y las imágenes del ojo derecho deben considerarse al realizar la multiplexación.
3. Multiplexación de una transmisión de vídeo del ojo izquierdo y una transmisión de vídeo del ojo derecho
A continuación, se describe cómo realizar la multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho, teniendo en cuenta el acceso aleatorio a un fragmento AV.
En primer lugar, la configuración debe realizarse de tal manera que los GOP de la transmisión de vídeo del ojo izquierdo y los GOP de la transmisión de vídeo del ojo derecho tengan el mismo intervalo temporal. Además, los GOP de la transmisión de vídeo del ojo izquierdo se deben corresponder uno a uno con los GOP de la transmisión de vídeo del ojo derecho. De esta forma, la transmisión de vídeo del ojo izquierdo se puede sincronizar con la transmisión de vídeo del ojo derecho en unidades de GOP.
Además, puesto que se establece un mapa de entrada (PID = 0x1011) para la transmisión de vídeo del ojo izquierdo según se muestra en la FIG.5, cada vez la pieza de información (PTS) en el mapa de entrada muestra un tiempo de inicio de reproducción de una cabecera de cada GOP de la transmisión de vídeo del ojo izquierdo, y cada pieza de información de dirección (SPN) muestra una dirección de una cabecera de paquetes de cada GOP de la transmisión de vídeo del ojo izquierdo en el fragmento AV. Puesto que el aparato de reproducción lee los datos desde una posición mostrada por dicha dirección en el fragmento AV, se debe hacer la disposición de tal manera que cada uno de los GOP de la transmisión de vídeo del ojo derecho suceda a la cabecera de los paquetes que componen cada uno de los GOP correspondientes de la transmisión de vídeo del ojo izquierdo.
La Fig. 8 muestra esquemáticamente un ejemplo de multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho. Según se muestra en la Fig. 8, la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se multiplexan en unidades de los GOP en una forma que los GOP de la transmisión de vídeo del ojo izquierdo preceden a los GOP de la transmisión de vídeo del ojo derecho correspondiente.
De esta forma, cuando comienza la reproducción, por ejemplo, desde LGOP2 de la transmisión de vídeo del ojo izquierdo en la Fig. 8, RGOP2 de la transmisión del ojo derecho correspondiente a LGOP2 de la transmisión de vídeo del ojo izquierdo se puede leer sin problemas si la reproducción comienza desde una cabecera de los paquetes que componen LGOP2. Por lo tanto, la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se pueden reproducir como gráficos en 3D en dicho momento de inicio de la reproducción.
Según se mostró anteriormente, al agregar, cuando se realiza la multiplexación, restricciones para que (i) los GOP de la transmisión de vídeo del ojo izquierdo y los GOP de la transmisión de vídeo del ojo derecho tengan el mismo intervalo temporal, y (ii) una cabecera de cada GOP de la transmisión de vídeo del ojo izquierdo siempre preceda a una cabecera de cada GOP correspondiente de la transmisión de vídeo del ojo derecho, se garantiza que la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se puedan reproducir como gráficos en 3D sin importar desde qué momento de tiempo mostrado por el mapa de entrada comienza la reproducción.
A continuación, se describe otro ejemplo de multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho. La Fig. 9 muestra esquemáticamente otro ejemplo de multiplexación de la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho. La Fig. 8 y la Fig. 9 son comunes porque una cabecera de cada GOP de la transmisión de vídeo del ojo izquierdo siempre precede a la cabecera de cada GOP correspondiente de la transmisión de vídeo del ojo derecho cuando se realiza la multiplexación. Sin embargo, aunque no hay restricción en una disposición de una posición final de cada GOP para el ojo izquierdo (GOP del ojo izquierdo) y una disposición de una posición final de cada GOP correspondiente para el ojo derecho (GOP del ojo derecho) en la Fig.8, la Fig. 9 es diferente de la Fig. 8 en que el GOP del ojo derecho se sitúa entre el paquete de cabecera y el paquete final de los GOP del ojo izquierdo correspondiente que sigue en la Fig.9. De esta forma, incluso cuando se corta un fragmento AV de acuerdo con los límites de los GOP de la transmisión de vídeo del ojo izquierdo, el fragmento AV se puede cortar sin cortar los GOP de la transmisión de vídeo del ojo derecho.
La Fig. 10 muestra esquemáticamente cómo se multiplexa cada transmisión de vídeo en el fragmento AV cuando se sitúa un GOP del ojo derecho entre un paquete de cabecera y un paquete final de los GOP del ojo izquierdo correspondiente.
En primer lugar, la transmisión de vídeo del ojo izquierdo compuesta de varios fotogramas de vídeo se convierte en una cadena de paquetes PES, y la cadena de paquetes PES se convierte en una cadena de paquetes TS. De forma similar, la transmisión de vídeo del ojo derecho compuesta de varios fotogramas de vídeo se convierte en una cadena de paquetes PES, y la cadena de paquetes PES se convierte en una cadena de paquetes TS.
Según se muestra en la Fig. 10, un paquete de cabecera (L11) de GOP (LGOP 1) de la transmisión de vídeo del ojo izquierdo se dispone primero cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo
5
10
15
20
25
30
35
40
45
50
55
derecho se multiplexan. Los paquetes (R11, R12 y R13) de un GOP (RGOP1) de la transmisión de vídeo del ojo derecho correspondiente al LGOP1 siguen una posición de disposición del paquete (L11) del LGOP1, y preceden una posición de disposición de un paquete final (L16) del LGOP1. Un paquete de cabecera (L21) del siguiente GOP (LGOP2) de la transmisión de vídeo del ojo izquierdo sigue el paquete final (L16) del LGOP1. Como con los anteriores, los paquetes (R21, R22 y R23) de un GOP (RGOP2) de la transmisión de vídeo del ojo derecho correspondiente al LGOP2 preceden un paquete final (L26) del LGOP2. Multiplexando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho de dicha manera, se genera una transmisión digital que garantiza que los GOP de la transmisión de vídeo del ojo derecho no se corten cuando el fragmento AV se corta de acuerdo con los límites de los GOP de la transmisión de vídeo del ojo izquierdo.
4. Aparato de reproducción
A continuación, se describe un aparato de reproducción que reproduce un BD-ROM 1000 que almacena gráficos en 3D. La Fig. 11 es un diagrama de bloques que muestra una estructura de un aparato de reproducción 2000. Según se muestra en la Fig. 11, el aparato de reproducción 2000 se compone de una unidad BD 2100, una memoria tampón de pistas 2200, un descodificador objetivo de sistema 2300, un sumador de plano 2400, una memoria de programa 2500, una memoria de información de gestión 2600, una unidad de ejecución de programa 2700, una unidad de control de reproducción 2800 y una unidad de procesamiento de eventos de usuario 2900.
La unidad BD-ROM 2100 lee los datos del BD-ROM 1000 en base a una solicitud de lectura introducida desde la unidad de control de reproducción 2800. El fragmento AV leído del BD-ROM 1000, la información de gestión (un archivo índice, un archivo lista de reproducción y un archivo de información del fragmento), un archivo de programa BD se transfieren a la memoria tampón de pistas 2200, la memoria de información de gestión 2600 y la memoria de programa 2500, respectivamente.
La memoria tampón de pistas 2200 es un almacenamiento intermedio compuesto de una memoria y similar que almacena en la misma fragmentos de vídeo de datos AV introducidos desde la unidad BD-ROM 2100.
El descodificador objetivo de sistema 2300 realiza el procesamiento de separación múltiple en el fragmento AV almacenado en la memoria tampón de pistas 2200, y realiza el procesamiento de descodificación en las transmisiones. La unidad de control de reproducción 2800 transfiere, al descodificador objetivo de sistema 2300, información (un tipo de códec, un atributo de transmisión y similares) incluida en el fragmento AV que es necesaria para la descodificación de las transmisiones.
El descodificador objetivo de sistema 2300 se compone específicamente de un demultiplexor 2301 , un descodificador de vídeo 2302, un plano de vídeo del ojo izquierdo 2303, un plano de vídeo del ojo derecho 2304, un descodificador de vídeo secundario 2305, un plano de vídeo secundario 2306, un descodificador de gráficos de presentación (descodificador PG) 2307, un plano de gráficos de presentación (plano PG) 2308, un descodificador de plano de gráficos interactivos (descodificador IG) 2309, un plano de gráficos interactivos (plano IG) 2310, un procesador de imágenes 2311, un plano de imágenes 2312 y un descodificador de audio 2313.
El demultiplexor 2301 extrae los paquetes TS almacenados en la memoria tampón de pistas 2200, y obtiene un paquete PES a partir de los paquetes TS extraídos. El demultiplexor 2301 emite el paquete PES a uno de, el descodificador de vídeo 2302, el descodificador de vídeo secundario 2305, el descodificador PG 2307, el descodificador IG 2309 y el descodificador de audio 2313, en base a los PID (identificadores de paquetes) incluidos en los paquetes TS. Específicamente, el paquete PES obtenido a partir de los paquetes TS extraídos se transfiere a: el descodificador de vídeo 2302 si los PID incluidos en los paquetes TS son 0x1011 o 0x1012, el descodificador de vídeo secundario 2305 si los PID son 0x1B00, el descodificador de audio 2313 si los PID son 0x1100 o 0x1101, el descodificador PG 2307 si los PID son 0x1200 o 0x1201 y al descodificador IG 2309 si los PID son 0x1400.
El descodificador de vídeo 2302 descodifica el paquete PES introducido desde el demultiplexor 2301 para obtener imágenes no comprimidas, y escribe las imágenes en uno de, el plano de vídeo del ojo izquierdo 2303 y el plano de vídeo del ojo derecho 2304. A continuación, se describe una operación del descodificador de vídeo 2302. La Fig. 12 muestra un diagrama de flujo que muestra el proceso de descodificación de vídeo por el descodificador de vídeo 2302. Al recibir el paquete PES del demultiplexor 2301 (etapa S101), el descodificador de vídeo 2302 descodifica el paquete PES recibido para obtener imágenes sin comprimir (etapa S102).
El descodificador de vídeo 2302 evalúa si las imágenes no comprimidas componen un fotograma de vídeo del ojo izquierdo o un fotograma de vídeo del ojo derecho (etapa S103). Dicha evaluación se hace de la siguiente manera. Cuando, por ejemplo, el demultiplexor 2301 transmite el paquete PES al descodificador de vídeo 2302, se agrega un indicador que muestra si el paquete PES es para la transmisión de vídeo del ojo izquierdo o la transmisión de vídeo del ojo derecho, en base al PID incluido en los paquetes TS; y el descodificador de vídeo 2302 evalúa si el indicador muestra si el paquete PES es para la transmisión de vídeo del ojo izquierdo.
Cuando se evalúa que las imágenes no comprimidas componen el fotograma de vídeo del ojo izquierdo (etapa S103: Sí), el descodificador de vídeo 2302 escribe las imágenes en el plano de vídeo del ojo izquierdo 2303 (etapa S104).
5
10
15
20
25
30
35
40
45
50
Cuando se evalúa que las imágenes no comprimidas componen el fotograma de vídeo del ojo derecho (etapa S103: No), el descodificador de vídeo 2302 escribe las imágenes en el plano de vídeo del ojo derecho 2304 (etapa S105).
En la Fig. 11, el plano de vídeo del ojo izquierdo 2303 es un plano para almacenar imágenes sin comprimir para el ojo izquierdo. El plano es un área de memoria para almacenar, en el aparato de reproducción, los datos de los píxeles correspondientes a una pantalla. La resolución en el plano de vídeo es de 1920 x 1080, y los datos de imagen almacenados en dicho plano de vídeo se componen de datos de píxeles expresados por un valor YUV de 16 bits.
El plano de vídeo del ojo derecho 2304 es un plano para almacenar imágenes sin comprimir para el ojo derecho.
El descodificador de vídeo 2302 escribe las imágenes en el plano de vídeo del ojo izquierdo 2303 y el plano de vídeo del ojo derecho 2304 en un momento mostrado por un PTS del fotograma de vídeo.
El descodificador de vídeo secundario 2305 tiene la misma estructura que el descodificador de vídeo 2302, descodifica el fotograma de vídeo introducido desde el demultiplexor 2301, y escribe las imágenes sin comprimir en el plano de vídeo secundario 2306 en un momento mostrado por el tiempo de visualización (PTS).
El plano de vídeo secundario 2306 es un plano para almacenar imágenes sin comprimir de vídeo secundario.
El descodificador PG 2307 descodifica una transmisión de gráficos de presentación introducida desde el demultiplexor 2301, y escribe los datos gráficos no comprimidos en el plano PG 2308 en el tiempo de visualización (PTS).
El plano PG 2308 es un plano para almacenar datos gráficos.
El descodificador IG 2309 descodifica una transmisión de gráficos interactivos introducida desde el demultiplexor 2301, escribe los datos gráficos no comprimidos en el plano IG 2310 en un momento mostrado por el tiempo de visualización (PTS).
El plano IG 2310 es un plano para almacenar datos gráficos.
El procesador de imágenes 2311 descodifica los datos gráficos (PNG.JPEG) introducidos desde la unidad de ejecución de programa 2700, y emite los datos gráficos descodificados al plano de imagen 2312. El tiempo de descodificación del plano de imagen 2312 se indica por la unidad de ejecución de programa 2700 cuando los datos gráficos son datos para el menú. El tiempo de descodificación del plano de imagen 2312 se indica por la unidad de control de reproducción 2800 cuando los datos gráficos son datos para los subtítulos.
El plano de imagen 2312 es un plano para almacenar datos gráficos (PNG.JPEG).
El descodificador de audio 2313 descodifica los paquetes PES introducidos desde el demultiplexor 2301, y emite los datos de audio sin comprimir.
El sumador de plano 2400 (i) determina en cual del plano de vídeo del ojo izquierdo 2303 y el plano de vídeo del ojo derecho 2304 se escriben las imágenes en un tiempo mostrado por un PTS, y (ii) genera una señal de vídeo mediante la superposición del plano seleccionado, el plano de vídeo secundario 2306, el plano PG 2308, el plano IG 2310 y el plano de imagen 2312 de forma instantánea, y emite la señal de vídeo a una pantalla de televisión y similares. La señal de vídeo incluye un indicador que muestra cual de la imagen del ojo izquierdo o una imagen del ojo derecho se superpone.
La memoria de programa 2500 es una memoria para almacenar un archivo de programa BD introducido desde la unidad BD-ROM 2100.
La memoria de información de gestión 2600 es una memoria para almacenar una tabla índice, información de gestión y la información de listas de reproducción introducida desde la unidad BD-ROM 2100.
La unidad de ejecución de programa 2700 ejecuta un programa almacenado en el archivo de programa BD almacenado en la memoria de programa 2500. Específicamente, la unidad de ejecución de programa 2700 (i) ordena a la unidad de control de reproducción 2800 reproducir una lista de reproducción en base al evento de usuario introducido desde la unidad de procesamiento de eventos de usuario 2900, y (ii) transfiere, al sistema descodificador 2300, PNG.JPEG para un menú y gráficos de juego.
La unidad de control de reproducción 2800 tiene funciones de control de reproducción del fragmento AV mediante el control de la unidad BD-ROM 2100 y el descodificador objetivo de sistema 2300. Por ejemplo, la unidad de control de reproducción 2800 controla el proceso de reproducción del fragmento AV con referencia a la información de la lista de reproducción almacenada en la memoria de información de gestión 2600, en base a la instrucción de reproducción introducida desde la unidad de ejecución de programa 2700. Además, en el caso de acceso aleatorio, la unidad de control de reproducción 2800 especifica una posición de inicio de un GOP correspondiente a la información de tiempo registrada los mapas de entrada almacenados en la memoria de información de gestión 2600,
5
10
15
20
25
30
35
40
45
50
55
y ordena a la unidad BD-ROM 2100 iniciar la lectura desde la posición de inicio. De esta forma, el proceso puede llevarse a cabo de manera eficiente sin analizar el fragmento AV. Por otra parte, la unidad de control de reproducción 2800 realiza la adquisición de información sobre un estado y la configuración del estado.
De acuerdo con una operación clave realizada en un mando a distancia o un panel frontal de un aparato de reproducción, la unidad de procesamiento de eventos de usuario 2900 emite, a la unidad de ejecución de programa 2700, un evento de usuario que muestra dicha operación.
Esto concluye la estructura del aparato de reproducción 2000.
5. Estructura de visualización de gráficos en 3D en el hogar
A continuación, se describe una estructura de visualización de gráficos en 3D en el hogar. Para que el usuario pueda ver los gráficos en 3D el hogar, son necesarias una pantalla capaz de mostrar los gráficos en 3D emitidos desde el aparato de reproducción y gafas para la visualización estereoscópica (gafas estereoscópicas) además del BD-ROM indicado anteriormente y el aparato de reproducción 2000 que reproduce el BD-ROM. La Fig. 13 muestra un sistema doméstico compuesto por el BD-ROM 1000, el aparato de reproducción 2000, la pantalla 3000, las gafas estereoscópicas 4000 y un mando a distancia 5000.
El aparato de reproducción 2000 y la pantalla se conectan entre sí a través de, por ejemplo, un cable HDMI (Interfaz multimedia de alta definición).
La pantalla 3000 muestra una señal de vídeo introducida desde el aparato de reproducción 2000 de acuerdo con la división de tiempos. Puesto que el aparato de reproducción 2000 introduce imágenes del ojo izquierdo e imágenes del ojo derecho alternativamente, la pantalla 3000 muestra las imágenes del ojo izquierdo y las imágenes del ojo derecho alternativamente en una dirección del eje de tiempos.
La pantalla 3000 es diferente de una pantalla para mostrar gráficos en 2D en que la pantalla 3000 debe ser capaz de cambiar rápidamente una pantalla con el fin de mostrar alternativamente imágenes del ojo izquierdo e imágenes del ojo derecho en comparación con dicha pantalla para gráficos en 2D. Por ejemplo, mientras que la mayoría de las películas se filman utilizando 24p (24 fotogramas en un segundo), se deben reescribir 48 fotogramas en un segundo en el caso de los gráficos en 3D puesto que se deben mostrar 24 fotogramas para el vídeo del ojo izquierdo y 24 fotogramas para el vídeo del ojo derecho alternativamente en un segundo. Además, la pantalla capaz de reproducir gráficos en 3d tiene otra característica en la que la configuración se realiza de tal manera que el procesamiento de mejora de bordes realizado en una televisión doméstica existente no se realiza mientras se muestran los gráficos en 3D. Esto se debe a que, en la visualización de gráficos en 3D, las posiciones de los bordes de las imágenes del ojo izquierdo y las imágenes del ojo derecho son importantes, y la visualización estereoscópica no se puede proporcionar adecuadamente si el desequilibrio de las imágenes del ojo izquierdo y las imágenes del ojo derecho surge porque las líneas de borde se vuelven más gruesas o más delgadas debido a la mejora de bordes y similares.
Además, la pantalla 3000 transmite, a las gafas estereoscópicas 4000, una señal de control que muestra cual de la imagen del ojo izquierdo y la imagen del ojo derecho se muestra en la pantalla, en base a un indicador incluido en una señal de vídeo introducida a través del cable HDMI.
Según se describe en los principios de visualización estereoscópica en la primera forma de realización, las gafas estereoscópicas 4000 se utilizan en la visualización de gráficos en 3D en el método de separación sucesiva, y son gafas especiales que incluyen obturadores de cristal líquido. Las gafas estereoscópicas 4000 cambian, en base a la señal de control, cada uno del obturador de cristal líquido para el ojo izquierdo y el obturador de cristal líquido para el ojo derecho entre un estado de transmisión de luz y un estado de bloqueo de luz. Específicamente, cuando se recibe, de la pantalla, una señal de control que muestra que se está mostrando una imagen del ojo izquierdo, las gafas estereoscópicas ponen el obturador de cristal líquido para el ojo izquierdo en el estado de transmisión de luz, y el obturador de cristal líquido para el ojo derecho en el estado de bloqueo de luz. Cuando se recibe una señal de control que muestra que se está mostrando una imagen del ojo derecho, las gafas estereoscópicas ponen el obturador de cristal líquido para el ojo derecho en el estado de transmisión de luz, y el obturador de cristal líquido para el ojo izquierdo en el estado de bloqueo de luz.
De acuerdo con la forma de realización mencionada anteriormente, es posible, incluso cuando la reproducción se inicia desde un PTS arbitrario en el eje de tiempos de la transmisión digital, permitir que el usuario realice de forma fiable una visualización estereoscópica de imágenes en movimiento. Esto se debe a los GOP de la transmisión de vídeo del ojo izquierdo y los GOP correspondientes de la transmisión de vídeo del ojo derecho en las regiones de las parejas de GOP cuyo principio se indica por los SPN correspondientes a los PTS en el área de grabación de la transmisión digital en el eje de tiempos.
(Segunda forma de realización)
La presente forma de realización describe el aparato de grabación y el método de grabación que está relacionado con la presente invención.
El medio de grabación (i) se sitúa en un estudio de producción para la distribución de contenidos de película, (ii) genera (a) una transmisión digital que ha sido comprimida y codificada de acuerdo con los estándares MPEG, y (b) un escenario en el que se escribe como se reproduce un título de película, y (iii) genera una imagen de volumen para un BD-ROM que incluye dichas piezas de datos. El medio de grabación genera un medio de grabación descrito 5 en la primera forma de realización.
La Fig. 14 es un diagrama de bloques que muestra una estructura interna del medio de grabación 40. Según se muestra en la presente figura, el aparato de grabación 40 se compone de un codificador de vídeo 41, una unidad de generación de material 42, una unidad de generación de escenarios 43, una unidad de generación de programas BD 44, una unidad de procesamiento de multiplexación 45 y una unidad de procesamiento de formato 46.
10 El codificador de vídeo 41 codifica las imágenes tales como los mapas de bits sin comprimir de las imágenes del ojo izquierdo y las imágenes tales como los mapas de bits sin comprimir de las imágenes del ojo derecho de acuerdo con el método de compresión tal como MPEG4-AVC, MPEG2 y similares, y genera una transmisión de vídeo del ojo izquierdo y una transmisión de vídeo del ojo derecho. En ese caso, el ajuste se realiza de manera que los GOP de la transmisión de vídeo del ojo izquierdo y los GOP de la transmisión de vídeo del ojo derecho tienen el mismo 15 intervalo temporal.
A continuación, se describe un método para generar de manera eficiente una transmisión básica de vídeo en 3D.
Al comprimir el vídeo para los medios de paquetes, tales como un DVD y un BD-ROM, en la tecnología general de compresión de vídeo, la tasa de compresión se aumenta realizando la compresión haciendo uso de las similitudes entre las imágenes anteriores y/o posteriores. En este momento, se necesita una enorme cantidad de tiempo para la 20 codificación con el fin de buscar las partes similares en las imágenes anteriores y/o posteriores. Las Fig. 15A, 15B y 15C muestran cómo generar de manera eficiente una transmisión básica de vídeo en 3D. La Fig. 15A muestra una imagen del ojo izquierdo en un determinado momento de tiempo, y la Fig. 15B muestra la imagen del ojo izquierdo en un momento de tiempo inmediatamente después del momento de tiempo de la imagen mostrada en la Fig. 15A. El codificador de vídeo 41 busca, en la imagen del ojo izquierdo mostrada en la Fig. 15B, un cubo o un círculo que 25 exista en la imagen del ojo izquierdo mostrada en la Fig. 15A. En este momento, es necesario realizar la búsqueda en la pantalla completa mostrada en la Fig. 15B con el fin de realizar la búsqueda en el intervalo más grande en el momento de codificar las imágenes del ojo izquierdo. En el caso de un proceso de codificación general, las imágenes del ojo derecho se codifican mediante la realización de los mismos procedimientos que en el caso de la codificación de las imágenes del ojo izquierdo. Es decir, es necesario realizar la búsqueda en toda la pantalla según 30 se muestra en la Fig. 15B.
Como es evidente a partir de lo anterior, se emplea el doble de tiempo de compresión para la codificación de vídeo en 2D que para la codificación de vídeo en 3D (una cadena de fotogramas de vídeo del ojo izquierdo y una cadena de fotogramas de vídeo del ojo derecho) puesto que es necesario comprimir cada cadena de fotogramas de vídeo por separado.
35 El codificador de vídeo 41 escribe, en la tabla, a qué dirección y en qué medida se mueve cada objetivo de búsqueda en el momento de codificar el vídeo del ojo izquierdo. Esto acorta el tiempo de codificación, puesto que, al referirse a la tabla, no es necesario realizar la búsqueda en toda la pantalla en el caso de codificar las imágenes del ojo derecho que son muy similares a las imágenes del ojo izquierdo. La Fig. 15C muestra una tabla que muestra a qué dirección y en qué medida se mueve cada objetivo de búsqueda. En el caso de codificar las imágenes del ojo 40 derecho, se puede reducir un intervalo de búsqueda haciendo referencia a la tabla mostrada en la Fig.15C.
Obsérvese que, aunque se da una descripción utilizando figuras tales como el cubo y el círculo con el fin de hacer la descripción simple, se pueden grabar una dirección de movimiento y una distancia, en el momento de codificación real, para cada una de las áreas rectangulares y cuadradas (8x8, 16x16 y similares) como en el caso de las figuras geométricas.
45 De vuelta a la Fig. 14, la unidad de generación de material 42 genera transmisiones tales como una transmisión de audio, una transmisión de gráficos de presentación, una transmisión de gráficos interactivos y similares. Más específicamente, la unidad de generación de material 42 genera una transmisión de audio mediante la codificación sin comprimir de audio PCM lineal o similar de acuerdo con un método de compresión tal como el método AC3 y similares
50 Además, la unidad de generación de material 42 genera una transmisión de gráficos de presentación que está en un formato de una transmisión de subtítulos conforme a la norma BD-ROM, en base a un archivo de información de subtítulos que incluye los efectos de la subtitulación como una imagen de subtítulos, la temporización de visualización, el fundido de entrada/fundido de salida y similares.
Por otra parte, la unidad de generación de material 42 genera una transmisión de gráficos interactivos, que está en 55 un formato de una pantalla de menú conforme a la norma BD-ROM, en base a imágenes de mapa de bits utilizadas para los menús, y un archivo de menú en el que se escriben los efectos de transición y visualización de los botones dispuestos en el menú.
5
10
15
20
25
30
35
40
45
50
55
La unidad generadora de escenarios 43 genera un escenario, utilizando un formato conforme a la norma BD-ROM, de acuerdo a la información de cada transmisión generada en la unidad de generación de material 42 y la operación del usuario. El escenario es un archivo tal como un archivo índice, un archivo de objetos de película, un archivo lista de reproducción o similares.
Además, la unidad de generación de escenarios 43 genera un archivo de parámetros para la realización del procesamiento del multiplexado. En el archivo de parámetros, se escribe de qué transmisión se compone cada fragmento AV. Cada archivo a generar tales como un archivo índice, un archivo de objetos de película, un archivo lista de reproducción y similares tiene la misma estructura de datos que la estructura descrita en la primera forma de realización.
La unidad de generación de programas BD 44 genera un programa de un programa BD. La unidad de generación de programas BD 44 genera (i) códigos fuente del programa BD, de acuerdo con la solicitud de un usuario, a través de una interfaz de usuario tal como GUI o similares, y (ii) un archivo de programa BD.
La unidad de procesamiento de multiplexación 45 multiplexa varias transmisiones tales como una transmisión de vídeo del ojo izquierdo, una transmisión de vídeo del ojo derecho, una transmisión de audio, una transmisión de gráficos de presentación, una transmisión de gráficos interactivos y similares que se escriben en los datos de escenario BD-ROM para generar un fragmento AV de acuerdo con el método MPEG2-TS. En ese caso, una transmisión de vídeo del ojo izquierdo y una transmisión de vídeo del ojo derecho se multiplexan en unidades de GOP de una manera para que una cabecera de los GOP de la transmisión de vídeo del ojo izquierdo preceda a un GOP correspondiente de la transmisión de vídeo del ojo derecho.
Además, en el caso de crear un fragmento AV, un archivo de información del fragmento que forma una pareja con el fragmento AV se genera de forma simultánea. La generación del fichero de información del fragmento por la unidad de procesamiento de multiplexación 45 se realiza mediante el siguiente método. La unidad de procesamiento de multiplexación 45 genera mapas de entrada en cada uno de los cuales una posición de almacenamiento de un paquete de cabecera de cada GOP de la transmisión de vídeo del ojo izquierdo se corresponde con un tiempo de visualización del paquete de cabecera de cada uno de los GOP, y genera un archivo de información del fragmento emparejando, en correspondencia uno a uno, los mapas de entrada generados con la información de los atributos que muestran los atributos de audio, los atributos de vídeo y los atributos similares de cada transmisión incluida en el fragmento AV. La estructura del archivo de información del fragmento tiene la misma estructura de datos que la estructura descrita en la primera forma de realización.
La unidad de procesamiento de formatos 46 (i) organiza: de acuerdo con el formato conforme a la norma BD-ROM, los datos del escenario BD-ROM generados en el la unidad de generación de escenarios 43; el archivo de programa BD generado en la unidad de generación de programas BD 44; y el fragmento AV y el archivo de información del fragmento generado en la unidad de procesamiento de multiplexación 45, y (ii) genera una imagen de disco de acuerdo con el formato UDF que es un sistema de archivos conforme a la norma BD-ROM. La unidad de procesamiento de formatos 46 convierte la imagen de disco generada en datos para la edición BD-ROM, y realiza una etapa de edición de estos datos, fabricando de este modo un BD-ROM.
(Tercera forma de realización)
La presente forma de realización describe un caso en el que existen imágenes en 2D e imágenes en 3D juntas en el disco BD. Si todas las imágenes de contenido de película grabadas en el disco BD-ROM son tanto 3D como 2D, el usuario puede elegir entre utilizar o no utilizar las gafas antes mencionadas para la visualización estereoscópica de acuerdo a los discos. Sin embargo, cuando existen imágenes en 2D e imágenes en 3D juntas en un solo disco, el usuario tiene que ponerse o quitarse las gafas con determinado tiempo.
Desde la perspectiva del usuario, es muy difícil ver cuándo ponerse o quitarse las gafas si, sin previo aviso, imágenes en 2D de repente cambian a imágenes en 3D o las imágenes en 3D de repente cambian a imágenes en 2D, por otro lado.
Para resolver esto, un indicador 3D que muestra si un título es vídeo en 2D o vídeo en 3D se provee con cada título. Cuando un título cambia, se evalúa si el título cambiado es vídeo en 2D o vídeo en 3D en base a los Indicadores 3D. A continuación, el usuario es notificado del resultado de la evaluación. La Fig. 16 muestra una estructura de una tabla índice que incluye indicadores 3D. Según se muestra en la Fig. 16, se proporciona con cada título un indicador 3D que muestra si el vídeo en cada título es 2D o 3D. El cambio entre títulos se realiza mediante una operación de usuario utilizando un mando a distancia, un comando o similares. El aparato de reproducción puede notificar al usuario sobre los tiempos para ponerse o quitarse las gafas estereoscópicas mediante OSD (Visualización en pantalla), una ayuda de audio o similares, haciendo referencia a los indicadores 3D anteriormente mencionados correspondientes a los títulos respectivos en el momento de la transición de los títulos. Esto significa que el vídeo en 2D y el vídeo en 3D no existen juntos en un título. Desde la perspectiva de los que crean los discos comerciales, existe la ventaja de que es posible tener el reproductor BD-ROM que solicite al usuario que se ponga o se quite las gafas dividiendo claramente las imágenes en imágenes en 2D e imágenes en 3D para cada título.
5
10
15
20
25
30
35
40
45
50
55
Obsérvese que, aunque anteriormente, se da una descripción del caso en el que se proporciona un indicador que muestra si las imágenes son 2D o 3D con cada título correspondiente, un indicador 3D se puede proporcionar con cada lista de reproducción, cada elemento de reproducción o cada transmisión AV.
Explicaciones suplementarias
Aunque se da una descripción de un medio de grabación que está relacionado con la presente invención anterior en base a las formas de realización, no es necesario decir que la presente invención no se limita a las formas de realización indicadas anteriormente.
(Modificación 1)
En la primera forma de realización, la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se multiplexan en una transmisión digital. Sin embargo, la modificación 1 describe un caso en el que la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho no se multiplexan y se graban como transmisiones digitales separadas en el medio de grabación.
En primer lugar, a continuación, se describe un fragmento AV cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se graban como transmisiones digitales separadas en el medio de grabación. La Fig. 17 muestra un ejemplo de las estructuras de un fragmento AV almacenado en un directorio TRANSMISIÓN.
Un fragmento AV para el ojo izquierdo (fragmento AV del ojo izquierdo) es el mismo que el fragmento AV mostrado en la Fig. 3, excepto que el fragmento AV del ojo izquierdo no incluye la transmisión de vídeo del ojo derecho en la presente modificación. La transmisión de vídeo del ojo izquierdo se almacena en el fragmento AV del ojo izquierdo. La transmisión de vídeo del ojo izquierdo (vídeo principal) se reproduce: como vídeo en 2D cuando se reproduce en un aparato de reproducción que reproduce vídeo en 2D; y como el vídeo en 3D cuando se reproducen en un aparato de reproducción capaz de reproducir vídeo en 3D.
La transmisión de vídeo del ojo derecho se almacena en un fragmento AV para el ojo derecho (fragmento secundario). La transmisión de vídeo del ojo derecho se reproduce, como el vídeo del ojo derecho, junto con la transmisión de vídeo del ojo izquierdo cuando el vídeo en 3D se reproduce en el aparato de reproducción capaz de reproducir el vídeo en 3D.
A continuación, se describe una estructura de una lista de reproducción cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se graban como transmisiones digitales separadas en el medio de grabación. La información de la lista de reproducción tiene una o más piezas de información de elementos de producción secundaria (Sub Pl), además de una trayectoria principal, que es una trayectoria de reproducción de una serie de piezas de información del elemento de reproducción. Una trayectoria de reproducción de la serie de elementos de producción secundaria que se reproduce en sincronización con la trayectoria principal se define como una trayectoria secundaria. Cada una de las piezas de información del elemento de reproducción secundaria muestra una sección de reproducción de un fragmento secundario. Una sección de reproducción de cada una de las piezas de información del elemento de reproducción secundaria se muestra en el mismo eje de tiempos que la trayectoria principal.
La Fig. 18 muestra una estructura de la lista de reproducción cuando una transmisión de vídeo del ojo izquierdo y una transmisión de vídeo del ojo derecho se graban como transmisiones digitales separadas. La información de la lista de reproducción en 2D es información de la lista de reproducción cuando la transmisión de vídeo del ojo izquierdo se reproduce como vídeo en 2D, y la información de la lista de reproducción en 3D es información de la lista de reproducción cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se reproducen como vídeo en 3D. Según se muestra en la Fig. 18, una trayectoria principal de cada una de la información de la lista de reproducción en 2D y la información de la lista de reproducción en 3D se refiere al almacenamiento del fragmento AV en la misma transmisión de vídeo del ojo izquierdo. La información de la lista de reproducción en 3D tiene una trayectoria secundaria, además de la trayectoria principal. La trayectoria secundaria se refiere a un almacenamiento del fragmento AV secundario en la misma transmisión de vídeo del ojo derecho, y se establece con el fin de estar sincronizada con la trayectoria principal en el eje de tiempos. Con dicha estructura, la información de la lista de reproducción en 2D y la información de la lista de reproducción en 3D pueden compartir el almacenamiento del fragmento AV en la misma transmisión de vídeo del ojo izquierdo. Además, en la información de la lista de reproducción en 3D, el vídeo del ojo izquierdo y el vídeo del ojo derecho se pueden sincronizar entre sí en el eje de tiempos.
A continuación, se describe un archivo de información del fragmento de vídeo cuando la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se graban como transmisiones digitales separadas.
Puesto que la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho son transmisiones digitales separadas, existe un archivo de información del fragmento de vídeo para cada una de las transmisiones de vídeo digitales. Básicamente, ambos de los archivos de información del fragmento de vídeo tienen la misma estructura que el archivo de información del fragmento de vídeo descrito en la primera forma de realización. Por lo tanto, un mapa de entrada se establece para la transmisión de vídeo del ojo derecho, también. En el mapa de
5
10
15
20
25
30
35
40
45
50
55
entrada para el ojo derecho (mapa de entrada del ojo derecho) se escriben la información del mapa de entrada de cabecera y la información de tabla que muestra las parejas cada una de las cuales se compone de (i) Un PTS que muestra un tiempo de visualización de una cabecera de cada uno de los GOP que componen la transmisión de vídeo del ojo derecho y (ii) un SPN que muestra una posición de inicio de cada uno de los GOP en el fragmento secundario. En cada punto de entrada en la información de tabla se registra una imagen de la transmisión de vídeo del ojo derecho en el fragmento secundario. La imagen de la transmisión de vídeo del ojo derecho en el fragmento secundario tiene un PTS, que es un valor obtenido añadiendo, a un retardo de visualización de (1/48) segundos, un PTS especificado por cada punto de entrada de la transmisión de vídeo del ojo izquierdo en el fragmento AV. Esto permite que el aparato de reproducción, cuando se especifica un momento determinado, obtenga las direcciones iniciales de los GOP en la transmisión de vídeo del ojo derecho y la transmisión de vídeo del ojo izquierdo, correspondientes al momento especificado.
A continuación, se describe la disposición de archivo física en el BD-ROM. El almacenamiento de los fragmentos de vídeo AV en la misma transmisión de vídeo del ojo izquierdo y el almacenamiento de los fragmentos de vídeo secundarios en la misma transmisión de vídeo del ojo derecho se dividen en extensiones (por ejemplo, unidades GOP), y se disponen de una manera intercalada. Los GOP de la transmisión de vídeo del ojo izquierdo y los GOP de la transmisión de vídeo del ojo derecho tienen el mismo intervalo temporal. Además, un indicador precedente se establece para la información de cabecera del mapa de entrada para el mapa de entrada, por ejemplo. Aquí, el indicador precedente muestra cual de un GOP de la transmisión de vídeo del ojo izquierdo y el GOP correspondiente de la transmisión de vídeo del ojo derecho precede. Esto permite que el aparato de reproducción se refiera al indicador precedente para indicar, al BD-ROM, cual GOP de la transmisión de vídeo del ojo izquierdo y el GOP correspondiente de la transmisión de vídeo del ojo derecho debe leerse primero. Es decir, es posible comenzar a leer desde el GOP de la transmisión de vídeo indicada por el indicador precedente.
Por lo tanto, incluso si la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho no se multiplexan, y se graban como transmisiones digitales separadas, el GOP de la transmisión de vídeo del ojo izquierdo y el GOP correspondiente de la transmisión de vídeo del ojo derecho se sitúan en la posición de inicio de reproducción en adelante indicada por el aparato de reproducción. Por lo tanto, es posible permitir de forma fiable al usuario realizar la visualización estereoscópica de las imágenes en movimiento.
(Modificación 2)
Aunque la información de la lista de reproducción en 3D tiene una trayectoria secundaria además de la trayectoria principal de la modificación 1, una modificación 2 describe un caso en el que la información de la lista de reproducción en 3D incluye varias trayectorias secundarias.
En primer lugar, a continuación, se describe lo que hace que el usuario se sienta incómodo cuando realiza una visualización estereoscópica utilizando vídeo de paralaje. Las Fig. 19A y 19B muestran una diferencia entre los puntos focales de los ojos cuando en realidad miran un objeto y los puntos focales de los ojos cuando realizan una visualización estereoscópica. La Fig. 19B muestra cómo el usuario mira realmente el objeto. Según se muestra en la Fig. 19B, un ojo izquierdo 15 y un ojo derecho 16 enfocan una posición de un objeto 17. Es decir, para el usuario que observa el objeto 17, una posición hacia la que el usuario enfoca sus ojos y una posición en un espacio vacío en la que el usuario reconoce el objeto son las mismas.
Por otro lado, la Fig. 19A muestra cómo el usuario realiza una visualización estereoscópica mediante vídeo por paralaje. Mientras que un ojo izquierdo 11 y un ojo derecho 12 se enfocan en una pantalla 14, la imagen 13 vista de forma estereoscópica se reconoce en el cerebro de una manera que se forma una imagen en un punto en la interceptación de las líneas de visión desde ambos ojos a la pantalla cuando el usuario mira a la pantalla con ambos ojos. Es decir, mientras ambos ojos enfocan la pantalla 14, una posición en la que el usuario reconoce el objeto en 3D 13 es una posición que se sale fuera de la pantalla, y dicha diferencia entre una posición de enfoque y una posición de reconocimiento de un objeto provoca una sensación de incomodidad y cansancio cuando el usuario reconoce gráficos en 3D utilizando el vídeo de paralaje.
Además, en general, se sabe que la sensación de incomodidad y el cansancio aumentan a medida que una diferencia entre (i) una posición en la que los ojos enfocan en realidad (posición de visualización) y (ii) una posición en la que el usuario reconoce un objeto como un objeto 3D en el cerebro se hace más grande.
Una forma de realizar una galería en 3D utilizando el vídeo de paralaje con poca carga impuesta sobre el usuario es almacenar, en el medio de grabación, varias transmisiones de vídeo del ojo derecho cada una con una distancia emergente diferente (un ángulo de un objeto) como fragmentos de vídeo AV separados, y dejar que el usuario seleccione una distancia deseable. Es decir, se preparan dos fragmentos de vídeo AV, y el usuario puede elegir un fragmento AV adecuado. Aquí, uno de los fragmentos de vídeo AV es para los usuarios que están acostumbrados a visualizar vídeo en 3D, o los usuarios que quieren disfrutar de sensación realista mediante la observación de más objetos en 3D salientes, y otro de los fragmentos de vídeo AV es para los usuarios que no están acostumbrados a visualizar vídeo en 3D, y es un fragmento AV en el que la incomodidad provocada cuando los usuarios visualizan las imágenes en 3D se reduce mediante la supresión de la distancia emergente desde la pantalla.
5
10
15
20
25
30
35
40
45
50
55
La Fig. 20 muestra información de la lista de reproducción cuando existen varias trayectorias secundarias. La información de la lista de reproducción mostrada en la Fig. 20 se refiere a un conjunto de fragmentos de vídeo 1 y a un conjunto de fragmentos de vídeo 2. Cada uno de los conjuntos de fragmentos de vídeo almacena en el mismo una transmisión de vídeo del ojo derecho, aunque teniendo las transmisiones de vídeo del ojo derecho diferentes ángulos de un objeto (distancias emergentes). Cada una de las trayectorias secundarias se sincroniza con una trayectoria principal, y se provee con un ID de acuerdo con el orden al ser registrada en la información de la lista de reproducción. Dichos identificadores se utilizan, como ID de trayectorias secundarias, para distinguir entre las trayectorias secundarias.
Una trayectoria secundaria que tiene un ID de trayectoria secundaria de "0" se refiere al conjunto fragmentos de vídeo 1, y una trayectoria secundaria que tiene un ID de trayectoria secundaria de "1" se refiere al conjunto fragmentos de vídeo 2. La información de la lista de reproducción 3D incluye varios fragmentos de vídeo secundarios que tienen diferentes niveles de emergencia, y el cambio se realiza entre las trayectorias secundarias que se reproducen en sincronización con una trayectoria principal que almacena en la misma la transmisión de vídeo del ojo izquierdo, en base a un tamaño de una pantalla de visualización y una operación de usuario. De esta forma, la visualización estereoscópica se puede realizar utilizando vídeo de paralaje con que el usuario se siente conforme.
(Modificación 3)
La modificación 2 describe el caso en el que la información de la lista de reproducción en 3D incluye varias trayectorias secundarias. La presente modificación describe un caso en el que datos de audio, un subtítulo y un menú se combinan con cada uno de los fragmentos de vídeo secundarios.
La Fig. 21 muestra cómo un usuario 21 visualiza un objeto 22 mostrado en una pantalla 23 cuando se reproducen gráficos en 2D. En este momento, cuando el sonido se emite desde el objeto 22, en la mayoría de las películas, la sensación realista se crea mediante una combinación de vídeo y audio con el fin de permitir que el usuario se sienta como si el sonido fuera emitido desde la posición del objeto 22 mediante (i) el ajuste de la fase de sonido y la presión sonora emitida desde varios altavoces, y (ii) la localización del sonido de una manera que el sonido parezca que es emitido desde la posición del objeto 22.
Por otro lado, la Fig. 22 muestra cómo el mismo objeto parece emerger hacia el lado de un usuario 31 desde una pantalla 33 cuando se reproduce vídeo en 3D. El objeto se representa (i) en una posición 34 en la transmisión de vídeo del ojo izquierdo, y (ii) en una posición 35 en la transmisión de vídeo del ojo derecho. De esta forma, el usuario 31 reconoce el objeto como si el objeto estuviese en una posición 36 en el espacio vacío, y parece emerger. En este momento, si el sonido emitido desde el objeto se localiza en la posición 32 utilizando el mismo sonido utilizado que en el caso de gráficos en 2D, el sonido del objeto suena para el usuario como si el sonido del objeto fuera emitido desde la posición 32 aunque el usuario reconozca que el objeto está en la posición 36.
Con el fin de resolver el problema anteriormente mencionado, con el fin de que el usuario escuche el sonido desde la posición en la que el usuario reconoce el objeto, las piezas de datos de audio se almacenan en correspondencia una a una con varias transmisiones de vídeo del ojo derecho en las que los ángulos desde los que se miran los objetos son diferentes.
Por otra parte, además las piezas de datos de audio, subtítulos y menús se almacenan en correspondencia una a una con las transmisiones de vídeo del ojo derecho de la misma manera. Los subtítulos y menús correspondientes a las transmisiones de vídeo del ojo derecho que tienen diferentes niveles de emergencia (niveles que muestran cómo de lejos emergen los objetos hacia afuera) se pueden mostrar mediante el almacenamiento de las combinaciones de las transmisiones de vídeo del ojo derecho y los subtítulos y menús correspondientes que tienen diferentes niveles de emergencia (los cuales no dañan la relación delantera y posterior entre el vídeo y los subtítulos o menús) de acuerdo con los niveles de emergencia de las piezas de vídeo de paralaje. Esto hace que sea posible aumentar la sensación realista.
La Fig. 23 muestra una tabla en la que los fragmentos de vídeo secundarios están en correspondencia uno a uno con las piezas de datos de audio, subtítulos y menús. Según se muestra en la Fig. 23, al considerar, en una lista de reproducción, una tabla en la que se escriben las piezas de datos de audio correspondientes a los fragmentos de vídeo secundarios, las piezas de datos de audio correspondientes se pueden cambiar de acuerdo con el cambio de los fragmentos de vídeo secundarios.
Obsérvese que en vez del método anteriormente mencionado de aumentar la sensación realista y el sentido de localización del sonido emitido desde el objeto mostrado de una manera en 3D mediante la preparación de piezas de datos de audio correspondientes a los respectivos fragmentos de vídeo secundarios, es posible el siguiente método alternativo de localización de piezas de audio en los fragmentos de vídeo secundarios correspondientes: (i) el sonido que no contribuye a la sensación realista de los gráficos en 3D (por ejemplo el sonido de fondo) se almacena en un fragmento AV, como una primera transmisión de audio, (ii) solamente se almacena otro sonido que se emite desde un objeto específico o un carácter específico en una pantalla, en el fragmento AV, como una segunda transmisión de audio, y (iii) la primera transmisión de audio y la segunda transmisión de audio se reproducen simultáneamente, mientras son mezcladas. Esto contribuye a la reducción de la cantidad de datos cuando se almacenan varias
5
10
15
20
25
30
35
40
45
50
55
transmisiones de audio, puesto que se puede utilizar el método de compresión de audio que tiene una mayor tasa de compresión mediante el almacenamiento, como la segunda transmisión de audio, del sonido comparativamente simple tal como la conversación, el zumbido de moscas y similares.
(1) En la forma de realización 1 descrita anteriormente, el fragmento AV tiene un mapa de entrada relativo a la transmisión de vídeo del ojo izquierdo, y las posiciones de los GOP respectivos de la transmisión de vídeo del ojo izquierdo preceden a las posiciones de los GOP correspondientes de la transmisión de vídeo del ojo derecho. Sin embargo, el fragmento AV puede tener un mapa de entrada relativo a la transmisión de vídeo del ojo derecho, y las posiciones de los GOP respectivos de la transmisión de vídeo del ojo derecho pueden preceder a las posiciones de los GOP correspondientes de la transmisión de vídeo del ojo izquierdo.
(2) En la forma de realización 1 descrita anteriormente, el aparato de reproducción incluye el plano de vídeo del ojo izquierdo y el plano de vídeo del ojo derecho. Sin embargo, el aparato de reproducción puede tener un solo plano de vídeo. En este caso, el aparato de reproducción escribe las imágenes del ojo izquierdo y las imágenes del ojo derecho alternativamente en el plano de vídeo.
Además, aunque el aparato de reproducción tiene un descodificador de vídeo, el aparato de reproducción puede tener dos descodificadores de vídeo; uno para el ojo izquierdo y el otro para el ojo derecho. En este caso, el demultiplexor emite paquetes PES tanto al descodificador de vídeo para el ojo izquierdo como al descodificador de vídeo para el ojo derecho, en base a los PID incluidos en los paquetes TS.
(3) En la forma de realización 1 descrita anteriormente, cada PTS para la imagen del ojo derecho es igual al PTS (para el ojo izquierdo) + 1/(el número de fotogramas por segundo x 2) con respecto a una imagen del ojo izquierdo correspondiente mostrada por un tiempo determinado (PTS). Sin embargo, los PTS de las imágenes del ojo derecho se pueden establecer en cualquier intervalo, siempre que cada uno de los PTS de las imágenes del ojo derecho esté entre una imagen del ojo izquierdo correspondiente y la imagen del ojo izquierdo siguiente.
(4) En la forma de realización 1 descrita anteriormente, el fragmento AV tiene mapas de entrada relacionados con la transmisión de vídeo del ojo izquierdo. Sin embargo, el fragmento AV puede tener un mapa de entrada de la transmisión de vídeo del ojo izquierdo y un mapa de entrada de la transmisión de vídeo del ojo derecho. En la información de tabla de los mapas de entrada del ojo derecho, un PTS se establece para cada punto de entrada. Aquí, cada uno de los PTS es un valor obtenido añadiendo, a un retardo de visualización (1/48), un PTS especificado por un punto de entrada de la transmisión de vídeo del ojo izquierdo de un mapa de entrada en el fragmento AV.
Cuando se especifica el punto de inicio de reproducción mediante el tiempo, la unidad de control de reproducción 2800 inicia la reproducción desde una dirección que precede a otras direcciones que se muestran mediante la información de direcciones correspondiente al tiempo. Esto hace que sea posible leer los GOP a partir de una cabecera de los GOP del ojo izquierdo y una cabecera de los GOP del ojo derecho de un momento especificado.
Cuando el aparato de reproducción tiene más memoria, y cada mapa de entrada se puede leer en la memoria, la transmisión de vídeo del ojo izquierdo y la transmisión de vídeo del ojo derecho se pueden multiplexar independientemente de la relación de posición de almacenamiento.
(5) En la forma de realización 1 descrita anteriormente, entre un paquete de cabecera del GOP del ojo izquierdo y un paquete final del GOP del ojo izquierdo se dispone el GOP del ojo derecho correspondiente al GOP del ojo izquierdo. Sin embargo, el GOP del ojo derecho se puede disponer entre el paquete de cabecera del GOP del ojo izquierdo y un paquete de cabecera del GOP siguiente del ojo izquierdo, o se puede disponer antes de un paquete final del GOP siguiente del ojo izquierdo. Al poner una restricción en una posición en la que el GOP del ojo izquierdo y el GOP del ojo derecho correspondiente al GOP del ojo izquierdo se multiplexan en la forma mencionada anteriormente, se puede garantizar que se evita que el tiempo de lectura del GOP del ojo izquierdo y tiempo de lectura del GOP del ojo derecho lleguen a quedar fuera de sincronización entre sí cuando se realiza acceso aleatorio a los datos AV.
(6) La forma de realización 1 descrita anteriormente describe la pantalla capaz de mostrar gráficos en 3D. Sin embargo, existe una pantalla capaz de mostrar sólo gráficos en 2D, de hecho. En ese caso, es difícil para el usuario evaluar si la pantalla es capaz o no de reproducir gráficos en 3D. Por lo tanto, es preferible que el aparato de reproducción evalúe si la pantalla es capaz o no de reproducir gráficos en 3D incluso sin que el usuario se dé cuenta de ello.
Específicamente, esto se puede realizar mediante el siguiente método, por ejemplo. La Fig. 24 es un diagrama de flujo que muestra el proceso de investigación que consulta a una pantalla si es posible mostrar gráficos en 3D. El aparato de reproducción y la pantalla se conectan entre sí a través de un cable hDmI. En primer lugar, el aparato de reproducción consulta a la pantalla si es posible mostrar gráficos en 3D (etapa S201). Al recibir una respuesta a dicha consulta desde la pantalla (Etapa s202: Sí), el aparato de reproducción evalúa si la respuesta muestra o no que es posible mostrar gráficos en 3D (etapa S203).
5
10
15
20
25
30
35
40
45
Cuando la respuesta muestra que es posible mostrar gráficos en 3D (etapa S203: Sí), el aparato de reproducción establece un indicador de visualización 3D como válido con una memoria predeterminada del aparato de reproducción (Etapa S204). Aquí, el indicador de visualización 3D muestra que la pantalla es capaz de mostrar gráficos en 3D. Cuando la respuesta muestra que no es posible mostrar gráficos en 3D (Etapa S203: No) o no se da ninguna respuesta adecuada (Etapa S202: No), el aparato de reproducción establece el indicador de visualización 3D como no válido (etapa S205).
Cuando se puede acceder al indicador 3D desde el programa BD, si la pantalla conectada al aparato de reproducción es capaz o no de mostrar gráficos en 3D se puede evaluar mediante el programa BD. Esto permite que se realicen los controles, tales como reproducir un título en 3D cuando el indicador de visualización en 3D es válido, y reproducir un título en 2D cuando el indicador de visualización en 3D no es válido.
Además, cuando el indicador 3D es válido, una cabecera y similares puede incluir información que muestra que el contenido es contenido en 3D cuando el aparato de reproducción transmite el contenido en 3D a la pantalla. Esto hace que sea posible, cuando la pantalla recibe el contenido en 3D, reducir o aliviar determinado procesamiento, tal como no realizar la mejora de bordes en la pantalla según se describió anteriormente, o añadir procesamiento apropiado para la visualización de gráficos en 3D.
(7) En la forma de realización 1 descrita anteriormente, se da una descripción tomando el método de separación sucesiva y el método de gafas polarizadas como ejemplos. Sin embargo, cuando la visualización estereoscópica se realiza utilizando la lente lenticular, (i) la configuración se hace de tal manera que las imágenes de la transmisión de vídeo del ojo izquierdo y las correspondientes imágenes de la transmisión de vídeo del ojo derecho tienen las mismas PTS, (ii) las imágenes del ojo izquierdo y las correspondientes imágenes del ojo derecho se disponen alternativamente en una dirección longitudinal en una pantalla de forma simultánea, y (iii) la lente lenticular se une a la superficie de la pantalla. Esto permite que el usuario reconozca los gráficos mostrados en la pantalla de forma estereoscópica.
(8) Las listas de reproducción para la reproducción en 3D se pueden reproducir mediante una aplicación BD-J. La aplicación BD-J es una aplicación Java que ejecuta un título bD-J como un ciclo de vida de una unidad de ejecución de programas que se equipa totalmente con Java 2 Micro Edition (J2ME), Personal Basis Profile (PBP 1.0) y la especificación MHP ejecutable globalmente (GEM 1.0.2) para los objetivos de medios de paquetes.
La unidad de ejecución de programas se compone de una máquina virtual Java™ (marca registrada), una configuración y un perfil. La aplicación BD-J puede iniciar la reproducción de AV ordenando a la máquina virtual de Java™ que genere una instancia al reproductor JMF que reproduzca la información de la lista de reproducción. El caso del reproductor JMF (Java Media Frame Work) son datos reales generados en una memoria dinámica de la máquina virtual en base a la clase reproductor JMF.
Además, la unidad de ejecución de programa incluye una biblioteca estándar de Java para la visualización de JFIF (JPEG), PNG y otros datos de imagen. Por lo tanto, la aplicación BD-J puede realizar un sistema de GUI. El sistema GUI de la aplicación Java incluye un sistema HAVi estipulado en GEM 1.0.2, y un sistema de navegación de control de memoria en GEM 1.0.2.
Por lo tanto, la aplicación BD-J puede realizar de visualización en pantalla en la que la visualización de botones, la visualización de texto y la visualización en línea (contenido de BBS) que se basa en el sistema HAVi se combinan con la visualización de imágenes en movimiento. Además, la aplicación BD-J puede realizar la operación para dicha visualización en pantalla utilizando un mando a distancia.
También es posible proporcionar una combinación de cualquiera de las formas de realización y observaciones complementarias descritas anteriormente.
Aplicabilidad industrial
La presente invención se puede aplicar ampliamente a cualquier medio de grabación que almacene gráficos en 3D en el mismo.

Claims (8)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    REIVINDICACIONES
    1. Un medio de grabación (1000) que comprende:
    un área de transmisión digital en la que se graba una transmisión digital; y
    un área de información del mapa en la que se graba la información del mapa, indicando la información del mapa las direcciones de entrada en correspondencia una a una con los tiempos de entrada en un eje de tiempos de la transmisión digital, mostrando cada una de las direcciones de entrada un inicio de uno correspondiente de los grupos de regiones de parejas de imágenes en el área de transmisión digital, incluyendo cada una del grupo de las regiones de parejas de imágenes una pareja de un grupo de imágenes del primer tipo y un grupo de imágenes del segundo tipo,
    caracterizado por
    cada grupo de imágenes del primer tipo son datos que indican un conjunto de imágenes en movimiento a reproducir desde uno correspondiente de los tiempos de entrada en el eje de tiempos de la transmisión digital,
    cada grupo de imágenes del segundo tipo son datos a reproducir junto con uno correspondiente de los grupos de imágenes del primer tipo para facilitar al usuario una vista estereoscópica de la transmisión digital,
    los grupos de imágenes del primer tipo y los grupos de imágenes del segundo tipo se dividen en conjuntos de paquetes, respectivamente, y se multiplexan juntos, y
    un paquete de cabecera de entre cada conjunto de paquetes divididos a partir de uno correspondiente de los grupos de imágenes precedentes del primer tipo, en la transmisión digital, un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del segundo tipo.
  2. 2. El medio de grabación (1000) de la reivindicación 1, en donde cada una de las direcciones de entrada en la información del mapa se representa como uno correspondiente de los números de paquete asignados a un paquete de cabecera de entre uno de los conjuntos de paquetes del primer tipo.
  3. 3. El medio de grabación (1000) de la reivindicación 2, en donde cada uno de los conjuntos de paquetes del segundo tipo divididos a partir de uno correspondiente de los grupos de imágenes del segundo tipo se sitúa antes de una próxima de las direcciones de entrada que está inmediatamente próxima de una de las direcciones de entrada que se refiere a uno correspondiente de los grupos de imágenes del primer tipo.
  4. 4. El medio de grabación (1000) de la reivindicación 2, en donde cada uno de los conjuntos de paquetes del segundo tipo divididos de uno correspondiente de los grupos de imágenes del segundo tipo precede un paquete final de uno correspondiente de los grupos de imágenes del primer tipo.
  5. 5. El medio de grabación (1000) de la reivindicación 1, en donde
    las imágenes de cada uno de los grupos de imágenes del primer tipo están en correspondencia una a una con las imágenes de cada uno de los grupos de imágenes del segundo tipo, y
    un tiempo de visualización de una determinada imagen de cada uno de los grupos de imágenes del segundo tipo es un valor obtenido añadiendo un tiempo de visualización de una correspondiente de las imágenes de uno correspondiente de los grupos de imágenes del primer tipo a un valor obtenido dividiendo 1 por una velocidad de fotogramas de uno correspondiente de los grupos de imágenes del primer tipo multiplicado por 2.
  6. 6. Un aparato de grabación que comprende:
    una unidad de generación (41) operable para generar una transmisión digital, y
    una unidad de grabación operable para grabar la transmisión digital generada en un medio de grabación (1000), en donde
    la transmisión digital incluye (i) al menos un grupo de imágenes del primer tipo que son datos que indican un conjunto de imágenes de vista de plano para comenzar a ser reproducidas en un al menos un tiempo de entrada en un eje de tiempos de la transmisión digital, (ii) al menos un grupo de imágenes del segundo tipo que son datos a reproducir juntos con él al menos un grupo de imágenes del primer tipo correspondiente para facilitar al usuario una vista estereoscópica de la transmisión digital, indicando los datos un conjunto de imágenes diferenciales entre un conjunto de imágenes estereoscópicas y el conjunto de imágenes de vista de plano, y (iii) la información del mapa que indica una al menos una dirección de entrada en correspondencia una a una con él al menos un tiempo de entrada en un área de grabación de la transmisión digital,
    caracterizado por
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    la unidad de generación (41) divide el al menos grupo de imágenes del primer tipo y el al menos grupo de imágenes del segundo tipo en varios paquetes, y multiplexa juntos los varios paquetes de tal manera que un paquete de cabecera de entre los paquetes divididos a partir del al menos grupo de imágenes del primer tipo precede, en la transmisión digital, un paquete de cabecera de entre los paquetes divididos desde el al menos grupo de imágenes del segundo tipo correspondiente.
  7. 7. Un aparato de reproducción (2000) para la reproducción de un medio de grabación (1000), comprendiendo el medio de grabación (1000): un área de transmisión digital en la que se graba una transmisión digital; y un área de información del mapa en la que se graba la información del mapa, indicando la información del mapa las direcciones de entrada en correspondencia una a una con los tiempos de entrada en un eje de tiempos de la transmisión digital, mostrando cada una de las direcciones de entrada un inicio de una correspondiente del grupo de las de regiones de parejas de imágenes en el área de transmisión digital, incluyendo cada una del grupo de regiones de parejas de imágenes un pareja de un grupo de imágenes del primer tipo y un grupo de imágenes del segundo tipo, en donde
    cada grupo de imágenes del primer tipo son datos que indican un conjunto de imágenes en movimiento a reproducir a partir de uno correspondiente de los tiempos de entrada en el eje de tiempos de la transmisión digital,
    cada grupo de imágenes del segundo tipo son datos a reproducir junto con uno correspondiente de los grupos de imágenes del primer tipo para facilitar al usuario una vista estereoscópica de la transmisión digital,
    los grupos de imágenes del primer tipo y de los grupos de imágenes del segundo tipo se dividen en conjuntos de paquetes, respectivamente y se multiplexan juntos,
    un paquete de cabecera de entre cada conjunto de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del primer tipo precede, en la transmisión digital, un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del segundo tipo,
    el aparato de reproducción (2000) comprende:
    una unidad de lectura (2100) operable para leer, desde el área de transmisión digital del medio de grabación (1000), uno de los grupos de imágenes del primer tipo o una pareja del grupo de imágenes del primer tipo y una del grupo de imágenes del segundo tipo de acuerdo con una de las direcciones de entrada indicadas por la información del mapa;
    un demultiplexor (2301) operable para demultiplexar los paquetes de un grupo de imágenes del primer tipo o paquetes de la pareja de un grupo de imágenes del primer tipo y un grupo de imágenes del segundo tipo, de acuerdo con las configuraciones de modo del aparato de reproducción (2000);
    un descodificador de vídeo (2302) operable para descodificar el al menos grupo de imágenes del primer tipo y el al menos grupo de imágenes del segundo tipo para obtener imágenes en movimiento;
    un primer plano de vídeo (2303) que almacena imágenes en movimiento obtenidas mediante la descodificación del al menos un grupo de imágenes del primer tipo;
    un segundo plano de vídeo (2304) que almacena imágenes en movimiento obtenidas mediante la descodificación del al menos un grupo de imágenes del segundo tipo; y
    una unidad de emisión (2400) operable para emitir, a una unidad de visualización, las imágenes en movimiento almacenadas en el primer plano vídeo (2303) y las imágenes en movimiento almacenadas en el segundo plano de vídeo (2304),
    el descodificador de vídeo (2302) descodifica el paquete de cabecera de entre cada conjunto de paquetes divididos a partir del uno correspondiente de los grupos de imágenes del primer tipo antes de descodificar el paquete de cabecera de entre el uno correspondiente de los conjuntos de paquetes divididos a partir del uno correspondiente de los grupos de imágenes del segundo tipo, y
    el descodificador de vídeo (2302) emite (i) las imágenes en movimiento descodificadas a partir de los grupos de imágenes del primer tipo para el primer plano vídeo (2303); y (ii) las imágenes en movimiento descodificadas a partir de los grupos de imágenes del segundo tipo para el segundo plano de vídeo (2304).
  8. 8. Un método de reproducción que reproduce un medio de grabación (1000), comprendiendo el medio de grabación (1000): un área de transmisión digital en la que se graba una transmisión digital; y un área de información del mapa en la que se graba la información del mapa, indicando la información del mapa las direcciones de entrada en correspondencia una a una con los tiempos de entrada en un eje de tiempos de la transmisión digital, mostrando cada una de las direcciones de entrada un inicio de uno correspondiente del grupo de regiones de parejas de imágenes en el área de transmisión digital, incluyendo cada uno del grupo de regiones de parejas de imágenes una pareja de un grupo de imágenes del primer tipo y un grupo de imágenes del segundo tipo,
    caracterizado por
    5
    10
    15
    20
    25
    30
    cada grupo de imágenes del primer tipo son datos que indican un conjunto de imágenes en movimiento a reproducir desde uno correspondiente de los tiempos de entrada en el eje de tiempos de la transmisión digital,
    cada grupo de imágenes del segundo tipo son datos a reproducir junto con uno correspondiente de los grupos de imágenes del primer tipo para facilitar al usuario una vista estereoscópica de la transmisión digital,
    los grupos de imágenes del primer tipo y de los grupos de imágenes del segundo tipo se dividen en conjuntos de paquetes, respectivamente y se multiplexan juntos,
    un paquete de cabecera de entre cada conjunto de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del primer tipo precede, en la transmisión digital, un paquete de cabecera de entre uno correspondiente de los conjuntos de paquetes dividido a partir de uno correspondiente de los grupos de imágenes del segundo tipo,
    cada una de las direcciones de entrada en la información del mapa se representa como uno de los números de paquete asignados al paquete de cabecera de entre el correspondiente de los conjuntos de paquetes del primer tipo,
    el método de reproducción comprende:
    una etapa de lectura de leer, a partir del área de transmisión digital del medio de grabación (1000), uno de los grupos del primer tipo o una pareja del grupo de imágenes del primer tipo y uno de los grupos de imágenes del segundo tipo de acuerdo con una de las direcciones de entrada indicadas por la información del mapa;
    una etapa de demultiplexación de demultiplexar paquetes del grupo de imágenes del primer tipo o paquetes de la pareja del grupo de imágenes del primer tipo y del grupo de imágenes del segundo tipo, de acuerdo con las configuraciones de modo del aparato de reproducción (2000);
    una etapa de descodificación de vídeo de descodificar el al menos un grupo de imágenes del primer tipo y el al menos un grupo de imágenes del segundo tipo para obtener imágenes en movimiento; y
    una etapa de emisión de emitir, a una unidad de visualización, las imágenes en movimiento obtenidas mediante la descodificación de el al menos un grupo de imágenes del primer tipo en un primer plano de vídeo (2303), y las imágenes en movimiento obtenidas mediante la descodificación del al menos un grupo de imágenes del segundo tipo en un segundo plano de vídeo (2304),
    la etapa de descodificación de vídeo descodifica el paquete de cabecera de entre cada conjunto de paquetes divididos a partir del correspondiente de los grupos de imágenes del primer tipo antes de descodificar el paquete de cabecera de entre el correspondiente de los conjuntos de paquetes divididos a partir del correspondiente de los grupos de imágenes del segundo tipo, y
    la etapa de descodificación de vídeo emite (i) las imágenes en movimiento descodificadas a partir de los grupos de imágenes del primer tipo al primer plano de vídeo (2303); y (ii) las imágenes en movimiento descodificadas a partir de los grupos de imágenes del segundo tipo al segundo plano de vídeo (2304).
ES09702249.5T 2008-01-17 2009-01-14 Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D Active ES2659717T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US21817P 1996-07-17
US2181708P 2008-01-17 2008-01-17
PCT/JP2009/000109 WO2009090868A1 (ja) 2008-01-17 2009-01-14 3d映像が記録された記録媒体、3d映像を記録する記録装置、並びに3d映像を再生する再生装置及び再生方法

Publications (1)

Publication Number Publication Date
ES2659717T3 true ES2659717T3 (es) 2018-03-19

Family

ID=40885260

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09702249.5T Active ES2659717T3 (es) 2008-01-17 2009-01-14 Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D

Country Status (15)

Country Link
US (2) US8139930B2 (es)
EP (1) EP2230844B1 (es)
JP (1) JP4527808B2 (es)
KR (1) KR20100096000A (es)
CN (1) CN101682719B (es)
AU (1) AU2009205250B2 (es)
BR (1) BRPI0902887A2 (es)
CA (1) CA2680696C (es)
DK (1) DK2230844T3 (es)
ES (1) ES2659717T3 (es)
MX (1) MX2009009963A (es)
MY (1) MY148196A (es)
RU (1) RU2505870C2 (es)
WO (1) WO2009090868A1 (es)
ZA (1) ZA200905799B (es)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2011000785A (es) * 2008-07-25 2011-02-24 Koninkl Philips Electronics Nv Gestion de subtitulos en pantallas de imagen tridimensional.
US10742953B2 (en) 2009-01-20 2020-08-11 Koninklijke Philips N.V. Transferring of three-dimensional image data
US8451320B1 (en) * 2009-01-23 2013-05-28 Next3D, Inc. Methods and apparatus for stereoscopic video compression, encoding, transmission, decoding and/or decompression
US8947504B2 (en) 2009-01-28 2015-02-03 Lg Electronics Inc. Broadcast receiver and video data processing method thereof
JP5465523B2 (ja) * 2009-01-29 2014-04-09 三洋電機株式会社 立体画像表示システム
US8369693B2 (en) * 2009-03-27 2013-02-05 Dell Products L.P. Visual information storage methods and systems
JP4919122B2 (ja) 2009-04-03 2012-04-18 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4915458B2 (ja) 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4962814B2 (ja) * 2009-04-03 2012-06-27 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4984183B2 (ja) * 2009-04-07 2012-07-25 ソニー株式会社 再生装置、再生方法、および記録方法
JP4993224B2 (ja) * 2009-04-08 2012-08-08 ソニー株式会社 再生装置および再生方法
JP5469911B2 (ja) * 2009-04-22 2014-04-16 ソニー株式会社 送信装置および立体画像データの送信方法
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
JP5400467B2 (ja) * 2009-05-01 2014-01-29 キヤノン株式会社 映像出力装置、その制御方法、及びプログラム
JP4724257B2 (ja) 2009-06-11 2011-07-13 パナソニック株式会社 再生装置
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
US8676041B2 (en) 2009-07-04 2014-03-18 Dolby Laboratories Licensing Corporation Support of full resolution graphics, menus, and subtitles in frame compatible 3D delivery
JP5089658B2 (ja) * 2009-07-16 2012-12-05 株式会社Gnzo 送信装置及び送信方法
US8289374B2 (en) * 2009-08-25 2012-10-16 Disney Enterprises, Inc. Method and system for encoding and transmitting high definition 3-D multimedia content
JP2011055148A (ja) * 2009-08-31 2011-03-17 Toshiba Corp 映像合成装置、映像表示装置および映像合成方法
KR20110029319A (ko) * 2009-09-15 2011-03-23 삼성전자주식회사 영상 처리 시스템 및 영상 처리 방법
JP5502436B2 (ja) 2009-11-27 2014-05-28 パナソニック株式会社 映像信号処理装置
JP2013042196A (ja) * 2009-12-21 2013-02-28 Panasonic Corp 再生装置
TWI404405B (zh) * 2009-12-25 2013-08-01 Mstar Semiconductor Inc 具有螢幕顯示功能之影像處理裝置及影像處理方法
JP2011139261A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US20110157302A1 (en) * 2009-12-30 2011-06-30 Ati Technologies Ulc Three-dimensional video display system with multi-stream sending/receiving operation
KR101626742B1 (ko) * 2009-12-31 2016-06-03 엘지디스플레이 주식회사 멀티 영상 표시 시스템
JP2011146831A (ja) * 2010-01-13 2011-07-28 Sony Corp 映像処理装置、映像制御方法及びコンピュータプログラム
KR20110088334A (ko) * 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치
US8712173B2 (en) * 2010-03-12 2014-04-29 Mediatek Singapore Pte. Ltd. Methods for processing 2Nx2N block with N being positive integer greater than four under intra-prediction mode and related processing circuits thereof
RU2011148354A (ru) * 2010-03-29 2014-05-10 Панасоник Корпорэйшн Устройство обработки видео
JP5577805B2 (ja) * 2010-04-08 2014-08-27 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5374641B2 (ja) * 2010-04-20 2013-12-25 パナソニック株式会社 3d映像記録装置及び3d映像信号処理装置
US9118896B2 (en) 2010-04-21 2015-08-25 Hitachi Maxell, Ltd. Digital contents receiver, digital contents receiving method and digital contents transmitting and receiving method
JP5768332B2 (ja) * 2010-06-24 2015-08-26 ソニー株式会社 送信機、受信機及び通信システム
JP5637750B2 (ja) * 2010-06-30 2014-12-10 日立コンシューマエレクトロニクス株式会社 記録装置/方法/媒体、再生装置/方法
JP5537289B2 (ja) * 2010-06-30 2014-07-02 日立コンシューマエレクトロニクス株式会社 記録装置/方法/媒体、再生装置/方法
JP5537290B2 (ja) * 2010-06-30 2014-07-02 日立コンシューマエレクトロニクス株式会社 記録装置/方法/媒体、再生装置/方法
JP5527727B2 (ja) * 2010-08-06 2014-06-25 日立コンシューマエレクトロニクス株式会社 映像表示システム及び表示装置
JP5496043B2 (ja) * 2010-09-30 2014-05-21 Necパーソナルコンピュータ株式会社 表示制御装置および表示制御方法
US20120113218A1 (en) * 2010-10-01 2012-05-10 Manabu Sasamoto Receiving apparatus and receiving method
US8941724B2 (en) 2010-10-01 2015-01-27 Hitachi Maxell Ltd. Receiver
US10424274B2 (en) 2010-11-24 2019-09-24 Ati Technologies Ulc Method and apparatus for providing temporal image processing using multi-stream field information
JP5452537B2 (ja) * 2011-04-04 2014-03-26 日立コンシューマエレクトロニクス株式会社 映像表示システム及び表示装置
US9485494B1 (en) * 2011-04-10 2016-11-01 Nextvr Inc. 3D video encoding and decoding methods and apparatus
US9407902B1 (en) 2011-04-10 2016-08-02 Nextvr Inc. 3D video encoding and decoding methods and apparatus
US8681170B2 (en) 2011-05-05 2014-03-25 Ati Technologies Ulc Apparatus and method for multi-streaming for more than three pixel component values
TWI501624B (zh) * 2011-05-13 2015-09-21 Innolux Corp 保密顯示系統、保密顯示器、保密顯示方法及保密眼鏡
TWI487381B (zh) * 2011-05-19 2015-06-01 Nat Univ Chung Cheng Predictive Coding Method for Multimedia Image Texture
WO2013099289A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 再生装置、送信装置、再生方法及び送信方法
WO2013149655A1 (en) * 2012-04-04 2013-10-10 Naxos Finance Sa System for generating and receiving a stereoscopic-2d backward compatible video stream, and method thereof
CN103428463B (zh) * 2012-05-19 2016-10-12 腾讯科技(深圳)有限公司 3d视频源存储方法和装置及3d视频播放方法和装置
JP6045222B2 (ja) * 2012-06-28 2016-12-14 株式会社Nttドコモ 動画像予測復号装置、方法及びプログラム
US9860515B2 (en) * 2012-12-11 2018-01-02 Electronics And Telecommunications Research Institute Apparatus and method for 3D content broadcasting with boundary information
CN104885474A (zh) * 2012-12-26 2015-09-02 汤姆逊许可公司 用于内容呈现的方法和装置
US20140212115A1 (en) * 2013-01-31 2014-07-31 Hewlett Packard Development Company, L.P. Optical disc with three-dimensional viewing depth
WO2015006112A1 (en) 2013-07-08 2015-01-15 Dolby Laboratories Licensing Corporation Processing of time-varying metadata for lossless resampling
JP5903461B2 (ja) * 2014-06-06 2016-04-13 日立マクセル株式会社 送受信システムおよび送受信方法
JP5947866B2 (ja) * 2014-11-26 2016-07-06 日立マクセル株式会社 受信装置および受信方法
WO2016116974A1 (ja) * 2015-01-20 2016-07-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生制御方法、再生装置及び再生システム
JP6584916B2 (ja) * 2015-01-20 2019-10-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生制御方法、再生装置及び再生システム
JP5947942B2 (ja) * 2015-03-27 2016-07-06 日立マクセル株式会社 送受信システムおよび送受信方法
JP5952453B2 (ja) * 2015-03-27 2016-07-13 日立マクセル株式会社 受信装置および受信方法
JP5952454B2 (ja) * 2015-03-27 2016-07-13 日立マクセル株式会社 受信装置および受信方法
JP6117976B2 (ja) * 2016-06-09 2017-04-19 日立マクセル株式会社 受信装置および受信方法
JP6117410B2 (ja) * 2016-06-09 2017-04-19 日立マクセル株式会社 送受信システムおよび送受信方法
JP2017143551A (ja) * 2017-03-22 2017-08-17 日立マクセル株式会社 受信装置および受信方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX9801212A (es) * 1995-09-29 1998-04-30 Matsushita Electric Ind Co Ltd Metodo y dispositivo para grabar y reproducir una corriente de bits intercalada sobre y desde un medio.
EP2259588B1 (en) * 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
US5886736A (en) * 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
JP2000270347A (ja) * 1999-03-17 2000-09-29 Sharp Corp 記録装置、及び該記録装置を用いた監視システム
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
JP3948979B2 (ja) * 2002-02-18 2007-07-25 パイオニア株式会社 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
JP4251864B2 (ja) * 2002-12-13 2009-04-08 シャープ株式会社 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP4594766B2 (ja) * 2004-03-10 2010-12-08 パナソニック株式会社 オーサリングシステム、プログラム、オーサリング方法。
WO2005101827A1 (ja) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、プログラム
JP4762145B2 (ja) * 2004-09-03 2011-08-31 パナソニック株式会社 記録媒体、記録装置、プログラム、記録方法、再生装置、再生方法
JP4886689B2 (ja) * 2005-07-15 2012-02-29 パナソニック株式会社 パケット送信装置
KR20070022580A (ko) * 2005-08-22 2007-02-27 엘지전자 주식회사 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
JP4758997B2 (ja) * 2005-10-27 2011-08-31 パナソニック株式会社 トランスポートストリーム生成装置およびこれを備えた記録装置、並びにトランスポートストリーム生成方法
RU2473980C2 (ru) * 2007-11-01 2013-01-27 Панасоник Корпорэйшн Носитель записи, устройство воспроизведения, устройство записи, способ воспроизведения и способ записи
CN101903952B (zh) * 2007-12-17 2012-08-22 松下电器产业株式会社 记录装置、再现装置、记录方法以及再现方法

Also Published As

Publication number Publication date
BRPI0902887A2 (pt) 2015-09-22
ZA200905799B (en) 2011-10-26
RU2009134736A (ru) 2011-03-27
CA2680696C (en) 2016-04-05
RU2505870C2 (ru) 2014-01-27
JPWO2009090868A1 (ja) 2011-05-26
KR20100096000A (ko) 2010-09-01
MY148196A (en) 2013-03-15
US20120141097A1 (en) 2012-06-07
AU2009205250A2 (en) 2009-12-10
AU2009205250B2 (en) 2013-02-21
EP2230844A1 (en) 2010-09-22
CN101682719B (zh) 2013-01-30
EP2230844B1 (en) 2017-11-22
US20090220213A1 (en) 2009-09-03
AU2009205250A1 (en) 2009-07-23
EP2230844A4 (en) 2014-07-30
WO2009090868A1 (ja) 2009-07-23
CN101682719A (zh) 2010-03-24
MX2009009963A (es) 2009-10-08
CA2680696A1 (en) 2009-07-23
JP4527808B2 (ja) 2010-08-18
US8139930B2 (en) 2012-03-20
DK2230844T3 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
ES2659717T3 (es) Medio de grabación en el que se graba vídeo en 3D, aparato de grabación para grabar vídeo en 3D y dispositivo de reproducción y método para reproducir vídeo en 3D
JP5416073B2 (ja) 半導体集積回路
JP5480915B2 (ja) 表示装置と方法、記録媒体、送信装置と方法、及び再生装置と方法
ES2537073T3 (es) Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica
JP5457465B2 (ja) 表示装置と方法、送信装置と方法、及び受信装置と方法
JP5829604B2 (ja) 3dトリックプレイのためのエントリー・ポイント
TW201021028A (en) Recording medium, playback device, and integrated circuit
TW201123847A (en) Recording medium, playback device, and integrated circuit
TW201127021A (en) Recording medium, reproducing device, encoding device, integrated circuit, and reproduction output device
TW201134193A (en) Recording medium, reproduction device and integrated circuit
TW201037696A (en) Recording medium, reproduction device, and integrated circuit