ES2364755T3 - Aparato de generación de trenes de información , procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos. - Google Patents

Aparato de generación de trenes de información , procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos. Download PDF

Info

Publication number
ES2364755T3
ES2364755T3 ES05736768T ES05736768T ES2364755T3 ES 2364755 T3 ES2364755 T3 ES 2364755T3 ES 05736768 T ES05736768 T ES 05736768T ES 05736768 T ES05736768 T ES 05736768T ES 2364755 T3 ES2364755 T3 ES 2364755T3
Authority
ES
Spain
Prior art keywords
information
image
unit
reproduction
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05736768T
Other languages
English (en)
Inventor
Tadamasa Toma
Tomoyuki Okada
Hiroshi Yahata
Shinya Kadono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Application granted granted Critical
Publication of ES2364755T3 publication Critical patent/ES2364755T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2579HD-DVDs [high definition DVDs]; AODs [advanced optical discs]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/61Solid state media wherein solid state memory is used for storing A/V content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un aparato de generación de trenes de información que genera un tren de información que incluye (i) orden de información de gestión de memoria OCGM para gestión de una memoria tampón (2004) que guarda una imagen decodificada como una imagen de referencia, y (ii) imágenes codificadas, comprendiendo dicho aparato: una unidad de generación (1004) operativa para generar las imágenes codificadas por codificación de imágenes, una unidad de adición de órdenes operativa para añadir la OCGM a una imagen codificada predeterminada, caracterizado por: una unidad de valoración (1002) operativa para valorar si una primera imagen codificada debe o no saltarse en el momento de la reproducción inteligente y se añade con OCGM; y una unidad de repetición (1003) operativa para generar una información de refuerzo suplementaria de repetición de marcado de imagen de referencia decodificada ISR RMIRD, y para repetir OCGM introduciendo datos de OCGM en la ISR RMIRD, cuando dicha unidad de valoración valora que la primera imagen codificada debe saltarse en el momento de la reproducción inteligente y se añade con OCGM; en el que dicha unidad de generación está operativa para generar el tren de información, añadiendo la ISR RMIRD a una segunda imagen codificada que sigue, en orden de decodificación, a la primera imagen codificada y que no debe saltarse en el momento de la reproducción inteligente.

Description

Campo técnico
La presente invención se refiere a un aparato de generación de trenes de información que genera un tren de información que incluye imágenes codificadas, un procedimiento de generación de trenes de información, un aparato de codificación de imágenes, un procedimiento de codificación de imágenes, un medio de grabación y un programa para los mismos.
Técnica anterior
En la era multimedia que maneja de forma integrada audio, vídeo y otros valores de píxeles, los medios de información existentes, específicamente, diarios, revistas, televisión, radio, teléfono y similares a través de los cuales la información es transportada hasta la gente, han dado recientemente en ser incluidos en el ámbito multimedia. Generalmente, multimedia se refiere a algo que es representado por la asociación no sólo de caracteres, sino también de gráficos, sonido, y especialmente imágenes y similares, conjuntamente, pero para incluir los medios de información mencionados anteriormente en el ámbito multimedia, se hace necesario como requisito previo representar dicha información en una forma digital.
Sin embargo, si la cantidad de información transportada por cada uno de los medios de información mencionados se estima como la cantidad de información digital, mientras que la cantidad de información para 1 carácter en el caso de texto es 1 a 2 bytes, la cantidad de información requerida para el sonido es de 64 Kbits por segundo (calidad telefónica), y se hacen necesarios 100 Mbits por segundo o más para imágenes en movimiento(calidad actual de recepción de televisión), no es realista que los medios de información manejen una cantidad de información tan enorme, ya que está en forma digital. Por ejemplo, aunque los videoteléfonos se encuentran ya en uso real por medio de Red Digital de Servicios Integrados (RDSI) que ofrece una velocidad de transmisión de 64 Kbit/s a 1,5 Mbit/s, es imposible transmitir imágenes en televisión e imágenes tomadas por cámaras directamente a través de RDSI.
En consecuencia, se han hecho necesarias técnicas de compresión de información, y por ejemplo, en el caso del videoteléfono, se están empleando las normas H.261 y H.263 para tecnología de compresión de imágenes en movimiento, normalizada internacionalmente por la Unión Internacional de Telecomunicaciones—Sector de Normalización de las Telecomunicaciones (ITU-T). Por otra parte, con las técnicas de compresión de información según la norma MPEG-1, se ha hecho posible también almacenar información de vídeo en discos compactos (CD) de música general junto con información de audio.
En este caso, Moving Picture Experts Group (MPEG) es una norma internacional para compresión de señales de imágenes en movimiento normalizada por la Organización Internacional para Normalización y la Comisión Electrotécnica Internacional (ISO/IEC). MPEG-1 es una norma para compresión de señales de imágenes en movimiento de hasta 1,5 Mbps, en otras palabras, para la compresión de señales de televisión hasta aproximadamente una centésima parte. Por otra parte, como la calidad de imagen objeto dentro del ámbito de la norma MPEG-1 está limitada a un grado de calidad del medio que puede obtenerse mediante una velocidad de transmisión principalmente de 1,5 Mbps aproximadamente, el uso de MPEG-2, que fue normalizada para satisfacer las demandas de una calidad de imagen mejorada, hace que la calidad de difusión de televisión con señales de imágenes en movimiento se comprima hasta 2 a 15 Mbps. Además, actualmente, MPEG-4, que ha superado la tasa de compresión de MPEG-1 y MPEG-2, y que permite también codificar, decodificar y operar sobre una base de objetos, y que realiza las nuevas funciones requeridas para la era multimedia, ha sido normalizada por el grupo de trabajo (ISO/IEC JTC1/SC29/WG11) que ha promovido la normalización de MPEG-1 y MPEG-2. MPEG-4 pretendía inicialmente normalizar un procedimiento de codificación de baja velocidad binaria. Sin embargo, actualmente, se ha ampliado a la normalización de un procedimiento de codificación más versátil que incluye además codificación con alta velocidad binaria para imágenes entrelazadas. Después de eso, se ha normalizado MPEG-4 Advanced Video Coding (AVC) como un procedimiento de nueva generación para codificación de imágenes con tasa de compresión más alta mediante una colaboración de ISO/IEC e ITU-T. Se pretende usarla para dispositivos relacionados con discos ópticos de nueva generación o para una difusión dirigida a terminales de teléfono móvil.
Generalmente, en la codificación de una imagen en movimiento, la cantidad de información se comprime reduciendo la redundancia en las direcciones temporal y espacial. En consecuencia, en una codificación de predicción entre imágenes que pretende la reducción de la redundancia temporal, se realiza una estimación del movimiento y la generación de una imagen predictiva sobre una base de bloques con referencia a una imagen precedente o siguiente, y se codifica un valor de diferencia entre la imagen predictiva obtenida y una imagen que se codificará. En este caso, una imagen indica un cribado: indica una trama en una imagen progresiva; e indica una trama o un campo en una imagen entrelazada. En este caso, la imagen entrelazada es una imagen cuya trama está constituida por dos campos que difieren temporalmente entre sí. En una codificación y decodificación de la imagen entrelazada, se permite procesar una trama como una trama, procesarla como dos campos o procesarla como una estructura de trama o como una estructura de campo sobre una base de bloques en la trama.
Una imagen I es una imagen que está intracodificada sin referencia a una imagen de referencia. A su vez, una imagen P es una imagen que está codificada con predicción entre imágenes con referencia a una única imagen. Además, una imagen B es una imagen que puede estar codificada con predicción entre imágenes con referencia a dos imágenes al mismo tiempo. La imagen B puede referirse a dos imágenes como un par de imágenes cualesquiera que se visualizan antes o después de la imagen B. Para cada bloque, que es una unidad básica de codificación y decodificación, puede especificarse una imagen de referencia. La imagen de referencia que se describe anteriormente en un tren de bits codificado se distingue como una primera imagen de referencia con la imagen de referencia que se describe posteriormente como una segunda imagen de referencia. Obsérvese que, como condición para codificación y decodificación de estas imágenes, es necesario que la imagen a la que se hace referencia haya sido ya codificada y decodificada.
La Fig. 1 es un dibujo que muestra una estructura de un tren de información MPEG-2 convencional. Según se muestra en la Fig. 1, el tren de información de MPEG-2 tiene una estructura jerárquica según se describe a continuación. El tren de información está formado por más de un Grupo de Imágenes (GDI), y la edición y el acceso aleatorio de una imagen en movimiento se hacen posibles mediante el uso del tren de información como una unidad básica para codificación. Cada GDI está hecho por más de una imagen. Cada imagen es una entre una imagen I, una imagen P o una imagen B. Cada tren de información, GDI e imagen están hechos además por código síncrono (sinc) que indica un punto de corte de cada unidad y un encabezamiento que son los datos comunes en la unidad.
La Fig. 2A y la Fig. 2B son dibujos que muestran un ejemplo de una estructura predictiva entre imágenes usada en MPEG-2. En los dibujos, las imágenes mostradas sombreadas en diagonal son imágenes a las que otras imágenes tomarán como referencia. Según se muestra en la Fig. 2A, en MPEG-2, la imagen P (P0, P6, P9, P12, P15) puede ser codificada por predicción como referencia a una imagen I o imagen P que se visualiza inmediatamente antes de dicha imagen P. Además, la imagen B (B1, B2, B4, B5, B7, B8, B10, B11, B13, B14, B16, B17, B19, B20) puede ser codificada por predicción como referencia a una imagen I o imagen P que se visualiza antes y después de dicha imagen B. Además, el orden de configuración en un tren de información se ha determinado del modo siguiente: las imágenes I y las imágenes P están configuradas en orden de visualización; y cada una de las imágenes B está configurada inmediatamente después de una imagen I o imagen P que se visualiza inmediatamente después de dicha imagen B. Como estructura GDI, por ejemplo, según se muestra en la Fig. 2B, las imágenes de I3 a B14 pueden incluirse en un GDI.
La Fig. 3 es un dibujo que muestra una estructura de un tren de información MPEG-4 AVC. En MPEG-4 AVC, no existe concepto equivalente al GDI. Por tanto, en el caso en que el procedimiento de configuración de conjuntos de parámetros que se describen más adelante y la estructura predictiva de imágenes no estén limitados, es necesario buscar una imagen cuyos datos de imagen se analicen secuencialmente y puedan decodificarse cuando se acceda a ellos aleatoriamente. Sin embargo, al separar los datos en unidades de imagen especiales según lo cual cada imagen se decodifica sin depender de otras imágenes, es posible construir una unidad a la que pueda accederse aleatoriamente y que sea equivalente al GDI. Dichas unidades separadas se denominan unidades de acceso aleatorio (UAA) y un tren de información que está constituido por UAA recibe el nombre de tren de información que tiene una estructura de acceso aleatorio.
En este caso, se explica la unidad de acceso (en lo sucesivo referida como UA) que es una unidad básica relacionada con un tren de información. Una UA es una unidad usada para almacenar datos codificados en una imagen, que incluye conjuntos de parámetro y datos de sectores. Los conjuntos de parámetro se dividen en un conjunto de parámetros de imágenes (CPI) que son datos correspondientes a un encabezamiento de cada imagen y un conjunto de parámetros de secuencias (CPS) que corresponde a un encabezamiento de una unidad de GDI en MPEG-2 y más. El CPS incluye un número máximo de imágenes disponibles como referencia, tamaño de imagen y similares. El CPI incluye un procedimiento de codificación de longitud variable, un valor inicial de la etapa de cuantificación y una serie de imágenes de referencia. A cada imagen se vincula un identificador que indica que se hace referencia a uno entre el CPI y el CPS.
Para las imágenes I de MPEG-4 AVC, existen dos tipos de imágenes I: una imagen de Regeneración Instantánea de Decodificador (RID); y una imagen I que no es la imagen RID. La imagen RID es una imagen I que puede decodificarse sin referencia a una imagen precedente a la imagen RID en orden de decodificación, es decir, cuya condición necesaria para decodificación se reinicia, y es equivalente a una imagen I delantera de un GDI cerrado de MPEG-2. Para la imagen I que no es la imagen RID, una imagen que sigue a dicha imagen I en orden de decodificación puede referirse a una imagen que es anterior a dicha imagen I en orden de decodificación. En este caso, la imagen RID y la imagen I indican imágenes constituidas sólo por sectores I. La imagen P indica una imagen constituida por sectores P o sectores I. La imagen B indica una imagen constituida por sectores B, sectores P o sectores I. Obsérvese que los sectores de la imagen RID y los sectores de la imagen no RID se almacenan en tipos diferentes de unidades CAR.
La UA de MPEG-4 AVC puede incluir, además de datos necesarios para decodificación de una imagen, información suplementaria denominada Información Suplementaria de Refuerzo (ISR) que es innecesaria para decodificación de una imagen, información límite de UA y similares. Datos como el conjunto de parámetros, los datos de sectores y la ISR se almacenan en una unidad de Capa de Abstracción de Red (CAR) (UCAR). La unidad CAR está constituida por un encabezamiento y una carga útil, y el encabezamiento incluye un campo que indica un tipo de datos almacenado en la carga útil (en lo sucesivo referido como tipo de unidad CAR). El valor del tipo de unidad CAR se define para cada tipo de datos como, por ejemplo, un sector y una ISR. Al referirse al tipo de unidad CAR, puede especificarse el tipo de datos almacenado en la unidad CAR. La unidad CAR de ISR puede almacenar uno o más mensajes ISR. El mensaje ISR está constituido también por un encabezamiento y una carga útil y un tipo de información almacenado en la carga útil se identifica mediante un tipo de mensaje ISR indicado en el encabezamiento.
La Fig. 4 es un dibujo que muestra un ejemplo de una estructura predictiva de MPEG-4 AVC. En MPEG-4 AVC, una UA de imagen P puede referirse a una UA de imagen B. Según se muestra en la Fig. 4, la UA de imagen P (P7) puede referirse a la UA de imagen B (B2). En la presente memoria descriptiva, con el fin de realizar reproducción de alta velocidad visualizando sólo las UA de imágenes I e imágenes P, I0, B2, P4 y P7 deben decodificarse. Así, cuando se realiza reproducción inteligente como, por ejemplo, en reproducción en salto, reproducción de velocidad variable o reproducción inversa, las UA que deben decodificarse no pueden determinarse por adelantado de manera que al final es preciso decodificar todas las UA. Sin embargo, si se almacena, en un tren de información, información suplementaria que indique las UA que es necesario decodificar para la reproducción inteligente, pueden determinarse las UA que se decodificarán con referencia a la información suplementaria. Dicha información suplementaria se denomina información de reproducción inteligente. Además, si se ajusta previamente una restricción en una estructura predictiva como, por ejemplo, que las UA de imágenes P no se refieran a una UA de imagen B, sólo las UA de las imágenes I y las imágenes P pueden decodificarse y visualizarse. Además, para las UA de imágenes I e imágenes P, las UA de imágenes I e imágenes P pueden decodificarse secuencialmente y visualizarse si el orden de decodificación es el mismo que el orden de visualización.
La Fig. 5 es un diagrama de bloques que muestra una estructura de un multiplexor convencional.
Un multiplexor 17 es un multiplexor que recibe datos de vídeo, codifica los datos de vídeo recibidos en trenes de información de MPEG-4 AVC, genera información de base de datos sobre los datos codificados, multiplexa y graba los datos codificados y la información de base de datos. Incluye una unidad de determinación de atributos del tren de información 11, una unidad de codificación 12, una unidad de generación de información de base de datos 13 que tiene una unidad general de generación de información de base de datos 14, una unidad de multiplexado 15 y una unidad de grabación 16.
La unidad de determinación de atributos del tren de información 11 determina un parámetro de codificación para codificación de MPEG-4 AVC y un contenido limitado en relación con una reproducción inteligente, y lo envía a la unidad de codificación 12 como información de atributo TIPO. En este caso, el contenido limitado en relación con la reproducción inteligente incluye información sobre si aplicar o no una limitación para construir una unidad de acceso aleatorio en un tren de información MPEG-4 AVC, si incluir o no información que indique a una UA que se decodificará cuándo se realiza reproducción a velocidad variable o reproducción inversa, o si imponer o no una restricción en una estructura predictiva entre UA. La unidad de codificación 12, basada en la información de atributo TIPO, codifica los datos de vídeo de entrada en un tren de información MPEG-4 AVC, y envía la información de acceso del tren de información a una unidad general de generación de información de base de datos 14 mientras envía los datos codificados a la unidad de multiplexado 15. En este caso, la información de acceso indica información sobre una base de acceso que es una unidad básica para acceder a un tren de información, que incluye una dirección de inicio, tamaño, tiempo visualizado y similares de una UA delantera en la base de acceso. La unidad de determinación de atributos del tren de información 11 envía además información necesaria para generar información de base de datos como, por ejemplo, un procedimiento de compresión y una resolución como información de base de datos general a la unidad general de generación de información de base de datos 14. La unidad de generación de información de base de datos 13 genera información de base de datos, y está constituida exclusivamente por la unidad general de generación de información de base de datos 14. La unidad general de generación de información de base de datos 14 genera, con la información de acceso y la información de base de datos general, datos de tabla a los que se hará referencia cuando se acceda a un tren de información y datos de tabla en los que se almacena información de atributo, como, por ejemplo, un procedimiento de compresión, y envía los datos de tabla generados a la unidad de multiplexado 15 como información de base de datos INFO. La unidad de multiplexado 15 genera datos multiplexados multiplexando los datos codificados y la información de base de datos INFO, y envía los datos multiplexados a la unidad de grabación 16. La unidad de grabación 16 graba los datos multiplexados introducidos desde la unidad de multiplexado 15 en un disco óptico, un disco duro o un medio de grabación como una memoria.
La Fig. 6 es un diagrama de bloques que muestra una estructura de un demultiplexor convencional.
Un demultiplexor 27 es un demultiplexor que, de acuerdo con una orden introducida externamente que indica que se realice reproducción inteligente, separa, decodifica y visualiza los datos de UA de MPEG-4 AVC a partir del disco óptico en el que se graba un tren de información MPEG-4 AVC junto con la información de base de datos. Incluye una unidad de análisis de información de base de datos 21, una unidad de determinación de UA de decodificación/visualización 23, una unidad de separación de UA 24, una unidad de decodificación 25 y una unidad de visualización 26.
La unidad de análisis de información de base de datos 21 está constituida exclusivamente por la unidad general de análisis de información de base de datos 22. Se introduce una señal de instrucción de reproducción inteligente para indicar que se realice función de reproducción inteligente como reproducción con velocidad variable, reproducción inversa o reproducción en salto en la unidad general de análisis de información de base de datos 22. Cuando se introduce la señal de instrucción de reproducción inteligente, la unidad general de análisis de información de base de datos 22 analiza la señal introducida obteniendo información de acceso ACS desde la información de base de datos de los datos multiplexados, obtiene información de destino de acceso que incluye información de dirección de una base de acceso en la que se incluye una UA que debe decodificarse o visualizarse y similares, y notifica a la unidad de separación de UA 24. La unidad de separación de UA 24 analiza las UA que constituyen una base de acceso, obtiene la información de información de reproducción inteligente acerca de una UA que se decodificará y visualizará, y envía la información obtenida a la unidad de determinación de UA de decodificación/visualización. La unidad de determinación de UA de decodificación/visualización determina una UA que se decodificará y visualizará basándose en una regla predeterminada, y notifica la información de identificación de la UA para decodificar y la información de identificación de la UA que se visualizará respectivamente a la unidad de separación de UA 24 y la unidad de visualización 26. La unidad de separación de UA 24 separa los datos en la UA para decodificar basándose en la información de destino de acceso, y envía los datos separados a la unidad de decodificación 25. La unidad de decodificación 25 decodifica los datos de UA introducidos, y envía los datos decodificados a la unidad de visualización 25. Finalmente, la unidad de visualización 26 selecciona una UA para la que se indica que se visualizará en la información de UA de visualización, y visualiza la UA seleccionada. (Consúltese la publicación de patente japonesa en trámite nº 2003-18.549).
El documento US-2002/016.970-A1 desvela un sistema de distribución de datos, que incluye un aparato servidor y un terminal de decodificación. Un sistema de distribución de datos incluye un aparato servidor y un terminal de decodificación. En el aparato servidor, la información de unidad de acceso de los datos que se transmitirá es leída a partir de una unidad de almacenamiento de datos de acuerdo con una solicitud de reproducción inteligente. La información de la unidad de acceso se convierte en una unidad de multiplexado en datos de reproducción inteligente de acuerdo con la información de la unidad de acceso que se ha estado convirtiendo. A continuación, los datos de reproducción inteligente se transmiten desde el aparato servidor al terminal de decodificación.
Un aparato de disco para grabar información de vídeo en un disco según el documento EP-1.326.443-A2 tiene una característica de detección para detectar el cambio en los atributos de la información de vídeo suministrada al mismo, una característica de generación para generar información de punto de entrada que indica la posición en la que tiene lugar el cambio en los atributos con independencia de cómo se detecte dicho cambio en los atributos y una característica de grabación de la información del punto de entrada y la información de vídeo en una región de grabación del disco según el formato DVD-R (Video Recording). Con esta configuración, puede obtenerse la información de vídeo de acuerdo con el formato DVD-V (Vídeo) de forma fiable mediante conversión, ya que la posición en la que cambian los atributos puede detectarse basándose en la información del punto de entrada.
Descripción de la invención
En el aparato de decodificación, las imágenes de referencia o imágenes que están en espera de visualización se almacenan en una memoria tampón denominada Tampón de Imágenes Decodificadas (TID) después de decodificar dichas imágenes.
Sin embargo, la estructura predictiva de una imagen es flexible en MPEG-4 AVC de manera que la gestión de memoria en el TID se hace complicada. Así, existe el problema de que es difícil realizar reproducción inteligente como avance rápido. Por ejemplo, en el caso en el que se realiza reproducción de alta velocidad que sólo decodifica y visualiza imágenes I e imágenes P, la información de gestión de memoria puede almacenarse en una imagen B que se saltará. Si la información de gestión de memoria indica guardar una imagen específica en un TID sin borrarla del TID, la información no puede obtenerse. Por tanto, la imagen específica puede borrarse del TID y la siguiente imagen I o imagen P que se refiera a la imagen específica puede no ser capaz de decodificarse.
La Fig. 7A y la Fig. 7B son diagramas que muestran gestión de memoria del TID. Según se muestra en la Fig. 7A, en el TID pueden almacenarse datos de imagen para una pluralidad de tramas. En este ejemplo, pueden almacenarse datos de imagen para cuatro tramas. También, en el TID, pueden establecerse dos tipos de áreas: una memoria a largo plazo; y una memoria a corto plazo. Los datos de imagen almacenados en memorias a corto plazo se vierten secuencialmente a partir de una imagen del orden de decodificación más antiguo. Por otra parte, los datos de imagen almacenados en una memoria a largo plazo se guardan en un TID y otras imágenes pueden referirse a ellos hasta que se establece que no puedan ser objeto de referencia por otras imágenes, mediante una orden de gestión de memoria denominada Operación de Control de Gestión de Memoria (OCGM). Por ejemplo, se usa una memoria a largo plazo cuando es necesario almacenar la imagen I durante un tiempo más largo, como cuando se hace referencia a una imagen I delantera en la base de acceso aleatorio por parte de las imágenes siguientes en orden de decodificación. Obsérvese que las imágenes almacenadas en las memorias a corto plazo también pueden no ser objeto de referencia por parte de la OCGM. Por omisión, cada imagen se almacena en una memoria a corto plazo. En este caso, la orden de gestión de memoria puede especificar cuántas memorias durante cuántas tramas se asignan respectivamente para la memoria a largo plazo y la memoria a corto plazo. Obsérvese que la orden de gestión de memoria puede dirigirse exclusivamente a las imágenes de referencia. La Fig. 7B muestra un ejemplo en el que se asigna una memoria para una trama para una memoria a largo plazo y se asignan memorias para tres tramas para una memoria a corto plazo entre una memoria de tramas para cuatro tramas. La asignación de la memoria a largo plazo y la memoria a corto plazo puede cambiarse dinámicamente dependiendo de la orden de gestión de memoria OCGM.
La Fig. 8 muestra un ejemplo de un uso de la orden de gestión de memoria. La Fig. 8(a) muestra una configuración de imágenes en una base de acceso aleatorio. En el dibujo, I, P, B y Br indican respectivamente una imagen I, una imagen P, una imagen B sin referencias y una imagen B de referencia. El número anexo a cada imagen indica una orden de visualización. En este caso, la imagen B sin referencias indica una imagen B a la que ninguna otra imagen ha hecho referencia, y la imagen B de referencia indica una imagen B a la que han hecho referencia otras imágenes. Además, las flechas indican estructuras predictivas. Por ejemplo, P9 indica que hace referencia a P5 e I1, B2 hace referencia a I1 y Br3, y Br3 hace referencia a I1 y P5. Las imágenes P sólo hacen referencia a las imágenes I o las imágenes P de manera que a la imagen B de referencia no se hace referencia. La Fig. 8(b) muestra imágenes mostradas en la Fig. 8(a), dispuestas en orden de decodificación. En este caso, en Br11, se supone que una orden de gestión de memoria para transferir I1 a una memoria a largo plazo se almacena en información de encabezamiento de sectores que constituyen una imagen. La Fig. 8(c) a (h) muestra imágenes almacenadas en un TID cuando el TID puede almacenar datos de imagen para cuatro tramas. En este caso, Br hace referencia a sólo una imagen I o una imagen P inmediatamente antes o después de Br en orden de visualización, y Br se borra del TID según la orden de gestión de memoria de una imagen I o imagen P que son dos imágenes después de Br en el orden de visualización. La Fig. 8(c) muestra imágenes almacenadas en el TID después de borrar Br3 en P9. En el TID, I1, P5 y P9 se almacenan en la memoria a corto plazo. Después de que se decodifica P13, según se muestra en la Fig. 8(d), I1, P5, P9 y P13 se almacenan en el TID. En la presente memoria descriptiva, TID está lleno dado que se almacenan cuatro imágenes. A continuación, después de decodificar Br11, Br11 debe almacenarse en el TID. Sin embargo, como el TID está lleno, es necesario borrar una de las imágenes almacenadas en el TID. En este caso, en principio del TID debería eliminarse I1, que se decodificó primero. Sin embargo, se muestra que se asigna una memoria a largo plazo para I1 de manera que se transfiera I1 a la memoria a largo plazo (Fig. 8(e)). En consecuencia, cuando se almacena Br11, según se muestra en la Fig. 8(f), se borra P5, que se decodifica primero, de las imágenes almacenadas en las memorias a corto plazo. Obsérvese que el borrado de P5 se ejecuta también mediante la orden de gestión de memoria de manera que la orden de gestión de memoria almacenada en Br11 incluye una orden que indica específicamente hacer que P5 no sea objeto de referencias, en otras palabras, indica que P5 puede borrarse. La Fig. 8(g) muestra un estado en el que se borra Br11 y se almacena P17 en el TID después de decodificar P17. Finalmente, mientras P21 hace referencia a I1, I1 se transfiere a una memoria a largo plazo cuando se decodifica P21 y queda disponible para referencia de manera que I1 puede ser objeto de referencia sin ningún problema (Fig. 8(h)).
A continuación, se explica un problema de gestión de memoria cuando se realiza reproducción inteligente como, por ejemplo, avance rápido y reproducción en salto. Especialmente, se ha introducido para un uso general una reproducción en avance rápido por decodificación y reproducción de sólo imágenes I e imágenes P (reproducción IP). La Fig. 9 muestra la gestión de memoria cuando la unidad de acceso aleatorio que es la misma que la que se muestra en la Fig. 8, se reproduce en IP. En primer lugar, después de la decodificación de I1, P5 y P9, se almacenan I1, P5 y P9 en memorias a corto plazo de TID según se muestra en la Fig. 9(c). A continuación, después de almacenar P13, se almacenan cuatro de las I1, P5, P9 y P13 en el TID de manera que el TID se llena (Fig. 9(d)). Después, en principio, se establece que Br11 para una memoria a largo plazo para almacenar I1 dependiendo de una orden de gestión de memoria e I1 se transfiere a una memoria a largo plazo. Sin embargo, Br11 se salta sin ser decodificada de manera que I1 sigue almacenada en la memoria a corto plazo. En consecuencia, cuando la P17 decodificada se almacena en TID, I1 se borra porque tiene el orden de decodificación más antiguo entre las imágenes almacenadas en las memorias a corto plazo (Fig. 9(e)). Por tanto, se almacenan cuatro imágenes de P5, P9, P13 y P17 en el TID cuando se decodifica P21 de manera que P21 no puede decodificarse porque no hay I1 (Fig. 9(f)). Así, en el caso en el que una imagen se decodifica mientras se saltan imágenes cuando se realiza reproducción inteligente, si se salta una imagen en la que se almacena una orden de gestión de memoria, se produce un problema de desorganización de la gestión de memoria de manera que las imágenes siguientes no pueden decodificarse correctamente. Por tanto, la reproducción IP no puede realizarse sin decodificación de todas las imágenes de referencia y la cantidad de procesamiento según la reproducción IP se ha incrementado.
Un objeto de la presente invención es proporcionar un aparato de generación de trenes de información, un procedimiento de generación de trenes de información, un aparato de codificación de imágenes, un procedimiento de codificación de imágenes, un medio de grabación y un programa que, cuando se realiza reproducción inteligente, impide la desorganización de la reproducción inteligente debido a que no exista la imagen de referencia necesaria para decodificación en una memoria tampón, y efectúa fácilmente la reproducción inteligente de una imagen por reproducción en salto.
Con el fin de conseguir el objeto anterior, un aparato de generación de trenes de información según la presente invención es el aparato de generación de trenes de información que genera un tren de información que incluye imágenes codificadas y una orden para gestionar una memoria tampón que guarda una imagen decodificada como una imagen de referencia, añadiéndose la orden a una de las imágenes codificadas, comprendiendo dicho aparato: una unidad de valoración operativa para valorar si o la imagen codificada a la que se añade la orden debe saltarse o no en el momento de la reproducción inteligente; una unidad de adición operativa para añadir, en el caso en que se valore que una imagen codificada debe saltarse, información de repetición que indique el mismo contenido que la orden a otra imagen codificada que sigue, en orden de decodificación, a la imagen codificada que se valora que debe saltarse y que no se salta en el momento de la reproducción inteligente; y una unidad de generación operativa para generar el tren de información que incluye las imágenes codificadas, la orden y la información de repetición.
Según esta estructura, puede impedirse la desorganización de la reproducción inteligente, que es provocada porque no existe la imagen de referencia necesaria para la decodificación en una memoria tampón. En otras palabras, la reproducción inteligente puede efectuarse fácilmente mediante reproducción de imágenes en salto.
En este caso, la orden puede indicar que se cambie un atributo de la imagen de referencia almacenado en la memoria tampón desde una memoria a corto plazo a una memoria a largo plazo.
Según esta estructura, la reproducción inteligente puede efectuarse fácilmente incluso en el caso en el que existen dos tipos de imágenes de referencia a corto plazo y a largo plazo o en el caso en el que la relación entre imágenes es complicada.
En este caso, dicha unidad de valoración puede estar operativa para valorar que una imagen B de referencia se salte en el momento de la reproducción inteligente, en el caso en que la imagen codificada a la que se añade la orden es la imagen B de referencia a la que debe hacerse referencia cuando se decodifica otra imagen codificada.
Además, dicha unidad de adición puede ser operativa adicionalmente para añadir la información de repetición a una entre una imagen I y una imagen P que sigue, en orden de decodificación, a la imagen B de referencia para la que se valora que debe saltarse.
Según esta estructura, en el caso en que las imágenes B se usen también como imágenes de referencia además de las imágenes I y las imágenes P, las imágenes de referencia necesarias pueden almacenarse en una memoria tampón para asegurarlas incluso cuando sólo se reproducen en salto las imágenes I y las imágenes P.
En este caso, dicha unidad de valoración es operativa para valorar que una imagen P se salte en el momento de una reproducción inteligente, en el caso en que la imagen codificada a la que se añade la orden es la imagen P que debe saltarse cuando se decodifica una imagen P específica, y la imagen P específica puede decodificarse decodificando selectivamente una imagen I o imagen P precedente en orden de decodificación.
Además, dicha unidad de adición puede ser operativa para añadir la información de repetición a la otra imagen que sigue, en orden de decodificación, a la imagen P que se valora que debe saltarse y que es necesaria para decodificación de la imagen P específica.
Según esta estructura, en el caso en que se realice una reproducción en salto usando la imagen P del punto de acceso, las imágenes de referencia necesarias pueden almacenarse en una memoria tampón para su seguridad.
Además, se incluyen las mismas unidades en la presente invención de un procedimiento de generación de trenes de información, un aparato de codificación de imágenes, un procedimiento de codificación de imágenes, un medio de grabación y un programa.
Información adicional sobre antecedentes técnicos de esta solicitud
En la presente memoria descriptiva se incorporan como referencia, en su totalidad, las descripciones de las siguientes solicitudes de patente japonesas que incluyen memoria descriptiva, dibujos y reivindicaciones: Solicitud de patente japonesa nº 2004-134.211 presentada el 28 de abril de 2004 y Solicitud de patente japonesa nº 2004
272.517 presentada el 17 de septiembre de 2004.
Breve descripción de los dibujos
Estos y otros objetos, ventajas y características de la invención se harán evidentes a partir de la siguiente
descripción de la misma tomada en conjunción con los dibujos adjuntos que ilustran una forma de realización específica de la invención. En los dibujos: La Fig. 1 es un dibujo que muestra una estructura de tren de información en el vídeo MPEG-2. La Fig. 2A y la Fig. 2B son dibujos que muestran un ejemplo de una estructura GDI en el vídeo MPEG-2. La Fig. 3 es un dibujo que muestra una estructura de tren de información de MPEG-4 AVC.
La Fig. 4 es un dibujo que muestra un ejemplo de una estructura predictiva de MPEG-4 AVC. La Fig. 5 es un diagrama de bloques que muestra una estructura de un multiplexor convencional que codifica un tren de información MPEG-4 AVC y multiplexa el tren de información codificado.
La Fig. 6 es un diagrama de bloques que muestra una estructura de un aparato de demultiplexado convencional que
reproduce datos multiplexados generados por el multiplexor convencional. La Fig. 7A y la Fig. 7B son dibujos que indican gestión de memoria en una imagen decodificada/tampón en MPEG-4 AVC.
La Fig. 8 es un dibujo que muestra un ejemplo cuando es necesario un uso de una orden de gestión de memoria.
La Fig. 9 es un dibujo que muestra gestión de memoria cuando se reproducen imágenes I y P en una unidad de acceso aleatorio que se muestra en la Fig. 9. La Fig. 10 es un diagrama de bloques que muestra una estructura de un aparato de codificación según una primera
forma de realización. La Fig. 11 es un dibujo que muestra un procedimiento de repetición de una orden de gestión de memoria. La Fig. 12A es un dibujo que muestra imágenes y una orden de gestión de memoria cuando se usa imagen I-PA en
la tecnología convencional.
La Fig. 12B es un dibujo que muestra imágenes y una orden de gestión de memoria cuando se usa imagen I-PA según la primera forma de realización. La Fig. 13 es un organigrama que muestra un procedimiento de codificación para efectuar la gestión de memoria sin
provocar una desorganización cuando se reproducen imágenes I y P.
La Fig. 14 es un organigrama que muestra un procedimiento de codificación para efectuar la gestión de memoria sin provocar una desorganización cuando se decodifica una imagen I-PA. La Fig. 15 es un diagrama de bloques que muestra un aparato de decodificación que efectúa un procedimiento de
decodificación según una sexta forma de realización. La Fig. 16 es un organigrama que muestra un procedimiento de decodificación de un tren de información codificado
que garantiza que puede efectuarse la gestión de memoria sin provocar una desorganización cuando se reproducen imágenes I y P. La Fig. 17 es un organigrama que muestra un procedimiento de decodificación de un tren de información codificado
que garantiza que puede efectuarse la gestión de memoria sin provocar una desorganización cuando se reproduce
una imagen I-PA. La Fig. 18 es un diagrama de bloques que muestra una estructura de un primer multiplexor según una segunda forma de realización.
La Fig. 19A y la Fig. 19B son diagramas que muestran contenido de información de apoyo de la reproducción.
La Fig. 20 es un dibujo que muestra un procedimiento para especificar una unidad CAR en la que se almacena la información de apoyo de la reproducción. La Fig. 21 es un organigrama que muestra una operación del primer multiplexor. La Fig. 22 es un diagrama de bloques que muestra una estructura de un segundo multiplexor según una tercera
forma de realización.
La Fig. 23 es un diagrama de bloques que muestra un demultiplexor según una cuarta forma de realización.
La Fig. 24 es un organigrama que muestra una primera operación del demultiplexor.
La Fig. 25 es un organigrama que muestra una segunda operación del demultiplexor.
La Fig. 26 es un diagrama que muestra jerarquía de datos de HD-DVD según una quinta forma de realización.
La Fig. 27 es un diagrama que muestra una estructura de espacio lógico en el HD-DVD.
La Fig. 28 es un diagrama que muestra la estructura de un archivo de información VOB.
La Fig. 29 es un dibujo explicativo de un mapa de tiempos.
La Fig. 30 es un diagrama que muestra un archivo de lista de reproducción.
La Fig. 31 es un diagrama que muestra una estructura de un archivo de programa que corresponde a la lista de reproducción.
La Fig. 32 es un diagrama que muestra una estructura de un archivo de información de base de datos total de disco BC.
La Fig. 33 es un diagrama que muestra una estructura de un archivo para grabar un gestor de eventos global.
La Fig. 34 es un diagrama de bloques esquemático que muestra el reproductor de HD-DVD según la sexta forma de realización.
La Fig. 35A, la Fig. 35B y la Fig. 35C muestran medios de grabación en los que se muestra un programa para efectuar un procedimiento de codificación de imágenes y un procedimiento de decodificación de imágenes de la presente invención.
Mejor forma de realización de la invención
En lo sucesivo, se explican formas de realización de la presente invención con referencias a los dibujos.
(Primera forma de realización)
En esta forma de realización, se explica un aparato de codificación y un aparato de decodificación que pueden obtener una orden necesaria para gestionar memorias en un TID sólo a partir de imágenes necesario para reproducción en salto cuando se realiza reproducción inteligente.
El aparato de codificación genera un tren de información que incluye una orden de gestión de memoria e imágenes codificadas. Cuando se genera el tren de información, el aparato de codificación valora si una imagen codificada a la que se añade una orden de gestión de memoria debe saltarse o no cuando se realiza reproducción inteligente, en el caso en que se valore como una imagen codificada que debe saltarse, se añade la información de repetición que indica el mismo contenido que la orden a una imagen codificada que no debe saltarse y se decodifica después de la imagen codificada que debe saltarse, cuando se realiza reproducción inteligente.
La Fig. 10 es un diagrama de bloques que muestra una estructura de un aparato de codificación 1000 en la presente forma de realización. El aparato de codificación 1000 incluye una unidad de determinación del tipo de imagen 1001, una unidad de valoración de repetición 1002, una unidad de generación de información de repetición 1003, una unidad de codificación de imágenes 1004 y una unidad de salida de datos codificados 1005. La unidad de determinación del tipo de imagen 1001 determina el tipo de imagen de una imagen que se codificará y envía el tipo de imagen determinado Pt a la unidad de valoración de repetición 1002 y la unidad de codificación de imágenes 1004. La unidad de codificación de imágenes 1004 codifica una imagen introducida Vin dependiendo del tipo de imagen Pt, envía los datos codificados pic a la unidad de salida de datos codificados 1005, y envía la información de gestión de memoria OCGM a la unidad de valoración de repetición 1002. Si no se envía la información de gestión de memoria OCGM para la imagen codificada, se indica en la información de gestión de memoria OCGM. La unidad de valoración de repetición 1002 valora si se debe repetir o no una orden de gestión de memoria basándose en la información de gestión de memoria OCGM y el tipo de imagen Pt, y envía un resultado de la valoración a la unidad de generación de información de repetición 1003 como una orden de repetición Re. La unidad de generación de información de repetición 1003 genera un ISR RMIRD cuando la orden de repetición Re ordena repetir la orden de gestión de memoria, y envía los datos ISR a la unidad de salida de datos codificados 1005. En este caso, cuando la orden de repetición Re ordena repetir la orden de gestión de memoria, se envía también la información necesaria para generar el ISR RMIRD a la unidad de generación de información de repetición 1003. La unidad de salida de datos codificados 1005 envía los datos codificados pic y los datos ISR.
Así, los datos ISR generados según la orden de repetición Re incluyen el mismo contenido que la información de gestión de memoria OCGM, e incluyen sustancialmente una copia de la información de gestión de memoria OCGM.
La Fig. 11 muestra una unidad de acceso aleatorio de un tren de información MPEG-4 AVC almacenado en el medio de grabación de información como un ejemplo de un tren de información codificado por el aparato de codificación 1000 en la presente forma de realización. Aunque el ejemplo es el mismo que el ejemplo convencional mostrado en la Fig. 9, difiere en el ejemplo convencional en que una orden de gestión de memoria almacenada en Br11 se repite en P17 usando Información Mejorada de Refuerzo de Repetición de Marcado de Imagen de Referencia Decodificada (en lo sucesivo referida como ISR RMIRD). Específicamente, en P17 se repite una orden de gestión de memoria establecida en Br11 para transferir I1 a una memoria a largo plazo haciendo que P5 no sea objeto de referencia. En consecuencia, incluso si Br11 se salta cuando se reproduce IP, se sabe que I1 es transferida a una memoria a largo plazo en Br11 cuando P17 se decodifica. En consecuencia, I1 se transfiere a la memoria a largo plazo, P5 se borra del TID después de que P17 se decodifique, y en su lugar se almacena P17 (Fig. 11(e)). Por tanto, según se muestra en la Fig. 11(f), existe I1 en TID cuando P21 se decodifica de manera que P21 puede decodificarse haciendo referencia a I1. Así, cuando se emite una orden de gestión de memoria a una imagen B de referencia, las imágenes I y las imágenes P pueden decodificarse sin desorganizar la gestión de memoria incluso cuando se realiza reproducción IP, repitiendo la orden de gestión de memoria usando ISR RMIRD en una imagen P inmediatamente posterior a dicha imagen B de referencia en orden de decodificación. En particular, el uso de la imagen B de referencia es una característica significativa de MPEG-4 AVC, en la base de acceso aleatorio que tiene una estructura como I B Br B P B Br B P B Br B P…, puede efectuarse fácilmente una reproducción en cuádruple velocidad por decodificación de imágenes I y P y una reproducción en doble velocidad por decodificación de imágenes I, P y Br de manera que se incremente la capacidad funcional de reproducción inteligente. En dicho caso, es muy eficaz que pueda garantizarse la gestión de memoria sin una desorganización. En este caso, cuando una imagen I está en una posición distinta del inicio de la base de acceso aleatorio, la orden de gestión de memoria puede repetirse en una imagen I inmediatamente después de dicha imagen I en orden de decodificación usando ISR RMIRD.
En este caso, la orden de gestión de memoria dirigida a Br puede repetirse en una imagen que es diferente de una imagen P o imagen I inmediatamente posterior a dicha imagen en orden de decodificación si se garantiza que existe una imagen a la que dicha imagen hace referencia en el TID cuando una imagen se decodificará en la reproducción IP. Por ejemplo, en el caso en que la gestión de memoria no se desorganice incluso sin repetirse en la imagen P inmediatamente después de dicha imagen en orden de decodificación, puede transmitirse a una imagen P posterior a dicha imagen P. También, puede garantizarse que la gestión de memoria no se desorganiza cuando sólo se decodifican las imágenes de referencia I o imágenes P.
Además, la orden de gestión de memoria puede almacenarse en un tren de información codificado por la información distinta a RMIRD o puede indicarse por separado como en la información de base de datos.
Además, puede garantizarse que la gestión de memoria no se desorganiza tampoco cuando se realiza reproducción inteligente distinta de reproducción IP. En lo sucesivo, se explica un ejemplo en el que se realiza reproducción en salto. Una reproducción en salto es una operación de visualización de imágenes a partir de una imagen en un tiempo especificado. Cuando se inicia la visualización de imágenes a partir de una imagen distinta a la imagen delantera en la unidad de acceso aleatorio, se decodifica visualmente una imagen necesaria para decodificación de una imagen que se visualizará a partir de la imagen delantera de la unidad de acceso aleatorio. En este caso, en MPEG-4 AVC, una relación de referencia es flexible. Por tanto, el procesamiento de decodificación para la reproducción en salto o reproducción inversa puede reducirse usando una imagen P en la que se ofrece una restricción específica para decodificación o refiriéndose a una imagen (en lo sucesivo referida como Imagen-Punto de Acceso (PA)). La imagen I-PA tiene las dos características siguientes:
1.
La imagen I-PA puede decodificarse decodificando selectivamente imágenes I o imágenes P antes de la imagen IPA en el orden de decodificación;
2.
Una imagen situada después de la imagen I-PA en el orden de decodificación no hace referencia a una imagen situada antes de la imagen I-PA en el orden de decodificación.
La Fig. 12A es un dibujo que muestra imágenes y una orden de gestión de memoria cuando la imagen I-PA se usa en la tecnología convencional. En el dibujo, una imagen mostrada como I-PA indica una imagen I-PA. Con el fin de decodificar I-PA25, sólo es preciso decodificar I1, P7 y P16 de manera que P4, P10, P13 y P22 pueden saltarse. Así, mediante decodificación selectiva de imágenes, puede reducirse el número de imágenes necesario para decodificar la imagen I-PA colocada en algún punto medio en la unidad de acceso aleatorio. En consecuencia, puede reducirse el procesamiento de decodificación cuando la reproducción se realiza en el punto medio en la unidad de acceso aleatorio. Además, una imagen situada después de I-PA25 en el orden de decodificación no hace referencia a una imagen situada antes de I-PA25 en el orden de decodificación. Además, una imagen P necesaria para decodificación de la imagen I-PA puede indicarse en un tren de información codificado usando un mensaje ISR y similares o en información de base de datos. En este caso, si una orden de gestión de memoria OCGM1 que indique que se transfiera I1 a una memoria a largo plazo se almacena en P4, la orden de gestión de memoria no puede obtenerse cuando sólo se decodifica una imagen necesaria para decodificar I-PA25.
La Fig. 12B es un dibujo que muestra imágenes y una orden de gestión de memoria cuando se usa la imagen I-PA en la primera forma de realización. Según se muestra en la Fig. 12B, repitiendo una orden de gestión de memoria OCGM1 en P7 que se decodifica claramente cuando se decodifica I-PA 25, se encuentra que es necesario almacenar I1 en una memoria a largo plazo cuando se decodifica P7. Así, en el caso en que una orden de gestión de memoria se emite a una imagen que se saltará cuando se decodifica la imagen I-PA, puede efectuarse una gestión de memoria sin desorganización repitiendo la orden de gestión de memoria en una imagen P necesaria para decodificar la imagen I-PA. Obsérvese que, si puede garantizarse que la gestión de memoria no se desorganiza, la orden puede repetirse en la imagen P que no es inmediatamente posterior a la imagen P con la orden de gestión de memoria original aunque necesaria para decodificar la imagen I-PA.
Además, más en general, cuando se visualiza una imagen que es necesario decodificar para decodificación de una imagen P específica, puede garantizarse que la gestión de memoria puede efectuarse decodificando sólo imágenes que es necesario decodificar.
La Fig. 13 es un organigrama de un procedimiento de codificación para generar un tren de información codificado en el que se garantiza una gestión de memoria que no se desorganiza cuando se realiza la reproducción IP. El procesamiento desde la etapa S1001 a la etapa S1008 muestra un procesamiento para codificar una imagen que constituye una unidad de acceso aleatorio. En primer lugar, en la etapa S1001, se valora si una imagen que debe codificarse es una imagen I o una imagen P. Si es la imagen I o la imagen P, el procesamiento avanza a la etapa S1002, y si en caso contrario, el procesamiento avanza a la etapa S1004. En la etapa S1002, se valora si una orden de gestión de memoria se emite a una imagen B de referencia que sigue a una imagen P o una imagen I inmediatamente antes de la imagen que debe codificarse en orden de decodificación. En el caso en que se emite la orden de gestión de memoria, el procesamiento avanza a la etapa S1003, y avanza a la etapa S1004 si no se emite la orden. En este caso, en el que no exista imagen B de referencia inmediatamente antes de la imagen que debe codificarse en orden de decodificación en la unidad de acceso aleatorio como una imagen delantera en la unidad de acceso aleatorio, se valora que la orden no se emite. Después de esto, en la etapa S1003, se genera una ISR RMIRD en la que se almacena la orden de gestión de memoria. En el caso en que se emiten las órdenes de gestión de memoria a una pluralidad de imágenes B de referencia, el contenido de todas las órdenes de gestión de memoria se incluye en la ISR RMIRD. A continuación, en la etapa S1004, se codifican los datos de imagen y el procesamiento avanza a la etapa S1005. En la etapa S1005, se valora si se emite o no una orden de gestión de memoria a la imagen actual. Si la orden se emite, el procesamiento avanza a la etapa S1006, y avanza a la etapa S1008 si la orden no se emite. En la etapa S1006, se valora si o la imagen actual es o no la imagen B de referencia. Si la imagen es la imagen B de referencia, el procesamiento avanza a la etapa S1007, y avanza a la etapa S1008 si no lo es. En la etapa S1007, se almacena el contenido de la orden de gestión de memoria e información para especificar una imagen hacia la que se emite la orden de gestión de memoria. Por último, en la etapa S1008, se envían los datos codificados. En este caso, en el que la ISR RMIRD se genera en la etapa S1003, los datos codificados de salida incluyen ISR RMIRD. Obsérvese que, en el caso en que no se determina un tipo de imagen en la etapa S1001, el procesamiento desde la etapa S1001 a la etapa S1003 puede realizarse después de la etapa S1004. Además, los datos codificados de una imagen pueden enviarse según una base de imagen por imagen, o pueden enviarse secuencialmente cuando se completa la codificación.
La Fig. 14 es un organigrama de un procedimiento de codificación para generar un tren de información codificado en el que se garantiza la gestión de memoria, que no se desorganiza cuando se decodifica I-PA. Aunque el procesamiento fundamental es el mismo que en el procesamiento para la reproducción IP mostrada en la Fig. 13, difiere en el procesamiento de valoración en las etapas S1101, S1102 y S1003. En la etapa S1101, se valora si la imagen actual es o no una imagen I o una imagen P necesaria para decodificar la imagen I-PA. A continuación, en la etapa S1102, se valora si se emite una orden de gestión de memoria a una imagen P o una imagen I que sigue a la imagen P o imagen I necesaria para decodificar una imagen I-PA inmediatamente antes de la imagen actual en orden de decodificación y es innecesaria para decodificar la imagen I-PA, en la unidad de acceso aleatorio. También, en la etapa S1103, se valora si la imagen actual es o no la imagen I o imagen P innecesaria para decodificar la imagen I-PA.
En este caso, en el que la imagen I-PA puede decodificarse decodificando selectivamente sólo la imagen P antes de la imagen I-PA, sólo puede valorarse si la imagen P es necesaria para decodificar la imagen I-PA. Sin embargo, en el caso en que es necesario decodificar una imagen I que es un encabezamiento de una unidad de acceso aleatorio, puede estar indicado que es necesario realizar la decodificación en la imagen I.
Además, el presente procedimiento puede aplicarse no sólo limitado a las imágenes I-PA sino también a imágenes en general en las que se da una restricción específica en la estructura predictiva y similares.
Obsérvese que, al combinar el procesamiento mostrado en la Fig. 13 y la Fig. 14, puede efectuarse la gestión de memoria que no se desorganiza cuando se realiza la reproducción IP y cuando se realiza la decodificación de I-PA. Por ejemplo, puede efectuarse una operación como decodificación efectiva de una imagen que se saltará usando la I-PA y empezando la reproducción IP desde ella.
Además, en el caso en que una imagen que se necesita decodificar cuando se realiza reproducción inteligente esté indicada en información suplementaria y similar, puede repetirse una orden de gestión de memoria de manera que se obtenga una orden de gestión de memoria necesaria para decodificación decodificando sólo imágenes necesarias para la decodificación.
La Fig. 15 es un diagrama de bloques que muestra una estructura de un aparato de decodificación 2000 en la presente forma de realización. El aparato de decodificación 2000 incluye una unidad de obtención de tipo de imagen 2001, una unidad de valoración de decodificación 2002, una unidad de análisis de orden de gestión 2003, un TID 2004 y una unidad de decodificación 2005. En primer lugar, se introducen los datos codificados Vin en la unidad de obtención de tipo de imagen 2001. La unidad de obtención de tipo de imagen 2001 obtiene un tipo de imagen de una imagen detectando un límite de imagen entre los datos codificados Vin, e introduciendo el tipo de imagen Ptd en la unidad de valoración de decodificación 2002. La unidad de valoración de decodificación 2002 valora, basándose en el tipo de imagen Ptd, si se debe o no decodificar la imagen, e introduce el resultado de la valoración Rep en la unidad de análisis de orden de gestión 2003 y la unidad de decodificación 2005. La unidad de análisis de orden de gestión 2003 ejecuta el procesamiento de gestión de memoria si una orden de gestión de memoria se repite en los datos de imagen cuando se le instruye que decodifique la imagen basándose en el resultado de la valoración Rep, analizando la orden de memoria repetida (información de repetición) y transmitiendo una orden de gestión Cmd al TID. La unidad de decodificación 2005, cuando se instruye que se decodifique la imagen basándose en el resultado de la valoración Rep, obtiene los datos de referencia Ref emitiendo una petición Req para obtener datos de la imagen de referencia al TID, decodifica los datos de imagen PicDat obtenidos por la unidad de obtención de imagen, y envía la imagen decodificada Vout. Obsérvese que una orden de memoria original incluida en los datos de sectores de una imagen deberá ejecutarse mediante una unidad que no se muestra en el diagrama.
Obsérvese que la información suplementaria para especificar una imagen que es necesario decodificar cuando se realiza reproducción inteligente puede almacenarse en un tren de información codificado como una UA delantera de la unidad de acceso aleatorio o en información de base de datos. En este caso, la unidad de valoración de decodificación 2002 puede determinar una UA para decodificar analizando la información suplementaria.
La Fig. 16 es un organigrama que muestra una operación de decodificación de un tren de información codificado en la que se garantiza una gestión de memoria que no se desorganiza cuando se realiza reproducción IP en el aparato de decodificación 2000. En primer lugar, en la etapa S2001, se valora si una imagen que se decodificará es una imagen I o una imagen P. Cuando se valora que la imagen es imagen I o imagen P, la operación avanza a la etapa S2002. Si la imagen es distinta de lo anterior, el procesamiento de la imagen finaliza sin decodificar la imagen y realiza el procesamiento de la imagen siguiente. En la etapa S2002, se valora si la imagen actual incluye o no la ISR RMIRD, si incluye la ISR RMIRD, la operación avanza a S2003, y en caso contrario, la operación avanza a la etapa S2004. En la etapa S2003, el procesamiento de gestión de memoria se ejecuta analizando el contenido de la ISR RMIRD y la operación avanza a la etapa S2004. En la etapa S2004, se decodifica la imagen. Obsérvese que, en la etapa S2003, el procesamiento de gestión de memoria no se realiza si ya ha sido realizada por la orden precedente que está en el encabezamiento del sector o en la ISR RMIRD.
La Fig. 17 es un organigrama que muestra una operación cuando una I-PA imagen se decodifica en un tren de información codificado en el que se garantiza una gestión de memoria que no se desorganiza cuando la imagen I-PA se decodifica. Aunque el procesamiento fundamental es el mismo que el procesamiento cuando se realiza reproducción IP según se muestra en la Fig. 16, difiere en el procesamiento de valoración en la etapa S2101. En la etapa S2101, se valora si una imagen que se decodificará es o no una imagen necesaria para decodificar la imagen I-PA. Si la imagen es necesaria para decodificar la imagen I-PA, la operación avanza a la etapa S2002, y si no es necesaria, el procesamiento de la imagen finaliza y se realiza el procesamiento de la siguiente imagen.
Cuando la orden de gestión de memoria se repite usando un procedimiento distinto a la ISR RMIRD, se obtiene una orden de gestión de memoria mediante un procedimiento predeterminado.
Obsérvese que, combinando el procesamiento mostrado en la Fig. 16 y la Fig. 17, puede efectuarse una gestión de memoria que no se desorganiza cuando se realiza reproducción IP y cuando se realiza la reproducción de I-PA.
En este caso, en operaciones como decodificación sólo de las imágenes I y las imágenes P cuando se realiza reproducción IP, o se saltan imágenes P o imágenes I innecesarias para decodificar la imagen I-PA cuando se decodifica la imagen I-PA, la información de bandera que garantice que una orden de gestión de memoria necesaria para gestionar el TID puede obtenerse de la imagen que se decodificará puede ajustarse a la información de base de datos o tren de información codificado y similares. Por ejemplo, en una unidad de Capa de Abstracción de Red (CAR) de un sector de la imagen B de referencia, un valor de a campo denominado nal_ref_idc que indica si el sector es o no un sector de la imagen de referencia se ajusta a un valor de uno o más. En la imagen B no de referencia, el mismo campo se ajusta a 0. En consecuencia el campo nal_ref_idc puede ser información de bandera. Además, en la información de base de datos, puede usarse como bandera una información de tipo códec que muestra MPEG-4 AVC Vídeo y MPEG-2 Vídeo y similar.
Obsérvese que, en lo anterior, se explica el MPG-4 AVC. Sin embargo, puede aplicarse un procedimiento similar a otros procedimientos de codificación.
(Segunda forma de realización)
La Fig. 18 es un diagrama de bloques que muestra un multiplexor en la presente forma de realización.
Un multiplexor 35 recibe datos de vídeo de entrada, codifica los datos de entrada en un tren de información MPEG-4 AVC, multiplexa y graba la siguiente información junto con el tren de información: información de acceso a UA que constituye el tren de información; e información de base de datos que incluye información suplementaria para determinar una operación cuando se realiza reproducción inteligente. El multiplexor 35 incluye una unidad de determinación de atributos del tren de información 11, una unidad de codificación 12, una unidad de generación de información de base de datos 32, una unidad de multiplexado 34 y una unidad de grabación 16. Se asignan marcas iguales a unidades que realizan las mismas operaciones que en el multiplexor convencional mostrado en la Fig. 5, y las explicaciones sobre las mismas unidades se omiten en este caso. Obsérvese que el procedimiento de codificación no sólo se limita a MPEG-4 AVC y pueden aplicarse otros procedimientos como MPEG-2 Vídeo y MPEG-4 Vídeo. Además, puede incluir una unidad de codificación 1000 en lugar de la unidad de codificación 12.
La unidad de determinación de atributos del tren de información 11 determina un parámetro de codificación para codificación de MPEG-4 AVC y una restricción relacionada con la reproducción inteligente, y lo envía a la unidad de codificación 12 y a una unidad de generación de información de apoyo de la reproducción 33 como información de atributo TIPO. En este caso, la restricción relacionada con la reproducción inteligente incluye información sobre si se debe o no aplicar una restricción para constituir una unidad de acceso aleatorio en un tren de información MPEG-4 AVC, si se debe o no incluir información que indique las UA que se decodificarán o visualizarán cuando se realice reproducción con velocidad variable y reproducción inversa, o si se debe o no restringir la estructura predictiva entre UA. La unidad de generación de información de apoyo de la reproducción 33 genera, basándose en la información de atributo TIPO introducida, la información de apoyo HLP que indica si se tiene o no una estructura de acceso aleatorio, y envía la información generada a la unidad de multiplexado 34. La unidad de multiplexado 34 genera datos multiplexados multiplexando los datos codificados introducidos desde la unidad de codificación 12, información de base de datos INFO e información de apoyo HLP, y envía los datos multiplexados a la unidad de grabación 16. Obsérvese que la unidad de codificación 12 puede enviar el tren de información de MPEG-4 AVC en paquetes en un Tren de Transporte MPEG-2 (TS), un Tren de Programa (PS) y similares. O bien puede paquetizar el tren de información usando un procedimiento definido por aplicaciones como BD.
La Fig. 19A y la Fig. 19B muestran un ejemplo de información indicado en la información de apoyo HLP. La información de apoyo HLP tiene los dos procedimientos siguientes: un procedimiento para indicar directamente información sobre un tren de información según se muestra en la Fig. 19A; y un procedimiento para indicar si el tren de información satisface o no una restricción definida por una norma de aplicación específica según se muestra en la Fig. 19B. En la Fig. 19A, se indica lo siguiente como información del tren de información: i) si el tren de información tiene una estructura de acceso aleatorio; ii) si existe una restricción en una estructura predictiva entre imágenes almacenadas en una UA; y iii) si existe información que indique una UA para decodificar o una UA para visualizar cuando se realiza reproducción inteligente.
En este caso, la información de la UA que se decodifica o se visualiza cuando se realiza reproducción inteligente puede indicar directamente la UA que se decodifica o visualiza, o puede indicar prioridad de decodificación o visualización. Por ejemplo, la información que indica la UA para decodificar o visualizar en una unidad de acceso aleatorio por unidad puede indicar que se almacene en una unidad CAR que tenga un tipo especial definido por la aplicación. En este caso, puede indicar si existe información que indique una estructura predictiva entre UA que constituye una unidad de acceso aleatorio. Además, la información sobre la UA que se decodificará o visualizará cuando se realiza reproducción inteligente puede añadirse conjuntamente para cada grupo de más de una unidad de acceso aleatorio o puede añadirse a cada UA que constituye una unidad de acceso aleatorio.
Además, cuando la información que indica una UA que se decodificará o visualizará se almacena en la unidad CAR que tiene un tipo especial, puede indicar un tipo de unidad CAR de la CAR. En un ejemplo de la Fig. 20, en la información de apoyo HLP, la información sobre una UA que se decodificará o visualizará cuando se realiza reproducción inteligente se incluye en una unidad CAR cuyo tipo de unidad CAR es 0. En la presente memoria descriptiva, separando la unidad CAR cuyo tipo de unidad CAR es 0 de los datos de UA en el tren de información, puede obtenerse la información relativa a la reproducción inteligente.
Además, la restricción de la estructura predictiva puede indicar si se satisfacen o no una o más restricciones predeterminadas o si se satisface o no la siguiente restricción individual.
i) Las UA respectivas de imagen I e imagen P tienen las mismas órdenes de decodificación y visualización.
ii) La UA de la imagen P no se refiere a la UA de la imagen B.
iii) Una UA visualizada después de una UA delantera en la unidad de acceso aleatorio sólo hace referencia a UA incluidas en la unidad de acceso aleatorio.
iv) Cada UA puede hacer referencia sólo al número máximo N de UA en orden de decodificación. En la presente memoria descriptiva, se cuenta una UA por cada referencia UA o todas las UA y la información de apoyo HLP puede indicar el valor de N.
Obsérvese que, en MPEG-4 AVC, con el fin de mejorar la calidad de imagen, como imagen de referencia se usa una imagen en la que se realiza un filtrado (desbloqueo) para reducir la distorsión de bloque después de decodificación de la imagen, mientras que puede usarse una imagen antes de dicho desbloqueo como una imagen para visualización. En la presente memoria descriptiva, es necesario que el aparato de decodificación de imágenes almacene datos de imagen antes y después del desbloqueo. En este caso, la información que indica si es necesario
o no almacenar la imagen antes de desbloqueo como una imagen para visualización puede almacenarse en información de apoyo HLP.
En este caso, la información de apoyo HLP puede incluir toda la información anterior o puede incluir una parte de la información. Además, puede incluir la información necesaria basándose en una condición predeterminada. Por ejemplo, puede incluir información sobre si existe información de reproducción inteligente sólo en el caso en que no exista restricción en una estructura predictiva.
Además, la información de apoyo HLP puede incluir información que indique lo siguiente: si la reproducción IP puede efectuarse o no sin causar desorganización de la gestión de memoria por decodificación sólo de las imágenes I y las imágenes P; o si la imagen I-PA puede decodificarse o no sin causar desorganización de la gestión de memoria por decodificación sólo de las imágenes I o imágenes P necesarias para decodificar la imagen I-PA.
Además, en la información de apoyo HLP puede incluirse información distinta de la anterior.
En la Fig. 19B, la información de apoyo HLP no muestra directamente información relativa a una estructura de un tren de información sino si satisface o no las restricciones relativas a la estructura de tren de información definida por una norma HD-DVD que es una norma para almacenar imagen de alta precisión de Alta Definición (HD) en un DVD. Además, en una norma de aplicación como BD-ROM, en el caso en que se define una pluralidad de modos para la restricción en la estructura de tren de información, en la información de apoyo HLP puede almacenarse información que indica qué modo se aplica. Por ejemplo, puede usarse que un modo 1 no tiene restricciones, y un modo 2 tiene una estructura de acceso aleatorio y se incluye información en un tren de información para especificar una UA que se decodifica cuando se realiza reproducción inteligente. En este caso, puede indicar si se satisfacen o no las restricciones definidas en un servicio de comunicación como descarga y visualización continua, o una norma de difusión.
Obsérvese que la información de apoyo HLP puede indicar la información mostrada en la Fig. 19A y en la Fig. 19B. También, en el caso en el que se sabe que un tren de información satisface una restricción en una norma de aplicación en particular, puede no indicar si el tren de información satisface una norma de aplicación, pero almacenar la restricción sobre la norma de aplicación convirtiéndose en un procedimiento para describir directamente una estructura de tren de información según se muestra en la Fig. 19A.
En este caso, en el que la información indicada en la información de apoyo HLP cambia durante la descarga en visualización directa, la información de cada sección puede almacenarse respectivamente. Por ejemplo, en el caso en que se editan y se conectan entre sí diferentes trenes de información, en el tren de información editado, la información de apoyo HLP puede cambiar durante la descarga en visualización directa. Por tanto, el contenido de la información de apoyo HLP también se conmuta.
Obsérvese que la información que indica una UA que se decodificará o visualizará cuando se realiza reproducción inteligente puede almacenarse como información de base de datos.
La Fig. 21 es un organigrama que muestra una operación del multiplexor 35. En una etapa s11, la información de atributo TIPO se determina basándose en un ajuste de usuario o una condición predeterminada. En una etapa s12, un tren de información se codifica basándose en la información de atributo TIPO. En una etapa s13, la información de apoyo HLP se genera basándose en la información de atributo TIPO. Después de eso, en una etapa s14, se genera información de acceso para cada base de acceso del tren de información codificado, y se genera información de base de datos INFO junto con otra información necesaria. En una etapa s15, la información de apoyo HLP y la información de base de datos INFO se multiplican, y los datos multiplexados se graban en una etapa s16. En este caso, la operación de la etapa s13 puede realizarse antes de la operación de la etapa s12, o puede realizarse después de la operación de la etapa s14.
(Tercera forma de realización)
La Fig. 22 es un diagrama de bloques que muestra una estructura de un segundo multiplexor en la presente forma de realización.
Un multiplexor 43 recibe un tren de información paquetizado que se distribuye desde un servidor que no se muestra en el diagrama, multiplexa y graba, junto con el tren de información, información general de base de datos que incluye información de acceso a las UA que conforman un tren de información e información suplementaria para determinar una operación cuando se realiza reproducción inteligente. Incluye una unidad de obtención de atributos del tren de información 41, una unidad de recepción del tren de información 42, una unidad de generación de información de base de datos 32, una unidad de multiplexado 34 y una unidad de grabación 16. Se asignan las mismas marcas a unidades que realizan las mismas operaciones como unidades en el multiplexor explicadas en la segunda forma de realización, y se omiten aquí las explicaciones sobre las mismas.
La unidad de obtención de atributos del tren de información 41 genera información de atributo TIPO basándose en información del tren de información obtenida por separado a partir del tren de información, y envía la información de atributo TIPO a la unidad de generación de información de apoyo de la reproducción 33. En este caso, la información del tren de información incluye información relativa a la reproducción inteligente como: si se debe aplicar
o no una restricción para constituir una unidad de acceso aleatorio en un tren de información MPEG-4 AVC; si se debe incluir o no información que indique las UA que se decodificarán o visualizarán cuando se realice reproducción con velocidad variable y reproducción inversa; y si se debe dar o no una restricción en una estructura predictiva entre UA. La unidad de recepción del tren de información recibe un tren de información MPEG-4 AVC, que es paquetizado por un Tren de Transporte MPEG-2 (TS) y un Protocolo de Transmisión en Tiempo Real (RTP), envía el tren de información recibido al multiplexor 34 como un tren de información para grabar, y envía también la información de acceso a la unidad general de generación de información de base de datos 14.
En este caso, cuando se recibe el paquete TS, el paquete RTP y similares en un entorno en el que se genera pérdida de paquetes, en el caso en que se realiza procesamiento de ocultación de errores cuando la información y los datos indican que se han perdido datos en un tren de información por pérdida de paquetes, la HLP puede almacenar información sobre esto como información de apoyo. Como información que indica la pérdida de datos, puede mostrarse la siguiente información: información de bandera que indica si los datos en un tren de información se han perdido o no; información que indica que se introduzca un código de notificación de errores especial en un tren de información con el fin de notificar la parte perdida; o información de identificación de un código de notificación de error que debe insertarse.
(Cuarta forma de realización)
La Fig. 22 es un diagrama de bloques que muestra una estructura de un demultiplexor en la presente forma de realización.
Un demultiplexor 55 separa un tren de información MPEG-4 AVC de los datos multiplexados generados por los multiplexores explicados en las formas de realización segunda y tercera, y reproduce el MPEG-4 AVC separado. Incluye una unidad de análisis de información de base de datos 51, una unidad de determinación de operación de reproducción inteligente 53, una unidad de determinación de UA de decodificación/visualización 54, una unidad de separación de UA 24, una unidad de decodificación 25 y una unidad de visualización 26. En este caso, se asignan las mismas marcas a las unidades que realizan las mismas operaciones como las unidades en el demultiplexor convencional mostrado en la Fig. 6 y se omiten las explicaciones sobre las mismas unidades.
La unidad de análisis de información de base de datos 51 incluye una información de apoyo de la unidad de análisis de reproducción 52 y una unidad general de análisis de información de base de datos 22. La información de apoyo de la unidad de análisis de reproducción 52, cuando se introduce una señal de instrucción de reproducción inteligente, obtiene y analiza la información de apoyo HLP a partir de la información de base de datos en los datos multiplexados, genera información de apoyo de reproducción inteligente basándose en el resultado del análisis, y notifica a la unidad de determinación de operación de reproducción inteligente 53 la información de apoyo de la reproducción inteligente. La unidad de determinación de operación de reproducción inteligente 53 determina un procedimiento de determinación de una UA que se decodificará y visualizará cuando se realiza reproducción inteligente basándose en la información de apoyo de la reproducción inteligente, y notifica a la unidad de determinación de UA de decodificación/visualización 54 de un modo de reproducción inteligente que indica el procedimiento determinado. La unidad de determinación de UA de decodificación/visualización 54 analiza la información de reproducción inteligente TRK obtenida por la unidad de separación de UA 24, determina una UA que se decodificará y visualizará por un procedimiento indicado por el modo de reproducción inteligente MODO, y notifica a la unidad de separación de UA 24 y la unidad de visualización respectivamente de la información de identificación de la UA para decodificar y de la información de identificación de la UA que se visualizará. En este caso, la UA que se visualizará puede determinarse mediante la unidad de determinación de UA de decodificación/visualización 54 basándose en una velocidad de reproducción especificada y similares. Además, cuando la información de reproducción inteligente TRK se almacena en la información de base de datos, la información de reproducción inteligente TRK almacenada en la información de base de datos puede obtenerse estableciendo otra unidad en la unidad de análisis de información de base de datos 51.
La Fig. 24 es un organigrama que muestra operaciones del demultiplexor 55. Cuando se introduce una señal de instrucción de reproducción inteligente, obtiene información de apoyo HLP de los datos multiplexados en la etapa s20. En una etapa s21, una operación de determinación de una UA que se decodificará y visualizará basándose en la información de apoyo HLP obtenida. En una etapa s22, se valora si se determina o no usar la información de reproducción inteligente TRK cuando se realiza reproducción inteligente. En una etapa s23, la información de reproducción inteligente TRK se obtiene a partir del tren de información y se analiza, y la operación avanza a una etapa s24. Si la información de reproducción inteligente TRK no se usa, la operación avanza directamente a la etapa s24. En la etapa s24, se determina una UA que se decodificará y visualizará basándose en el procedimiento determinado en la etapa s21, y la operación avanza a una etapa s25. En la etapa s25, la UA determinada se decodifica y se visualiza. Obsérvese que la información de apoyo HLP puede obtenerse sólo en el caso en que se realiza reproducción inteligente cuando se inicia la reproducción o después de que se inicie la reproducción.
La Fig. 25 es un organigrama que muestra el contenido del procesamiento en la etapa s21. En lo sucesivo, la valoración en las etapas s30, s33, y s35 se realiza basándose en la información de apoyo de la reproducción inteligente obtenida a partir de la información de apoyo HLP. En la etapa s30, se valora si el tren de información tiene o no una estructura de acceso aleatorio, la operación avanza a la etapa s31 si el tren de información tiene una estructura de acceso aleatorio, y la operación avanza a la etapa s32 si el tren de información no tiene la estructura de acceso aleatorio. A continuación, se determina la UA respectiva que se decodificará. En la etapa s31, se determina iniciar la decodificación a partir de una UA delantera en la unidad de acceso aleatorio. En la etapa s32, se determina iniciar la decodificación a partir de dicha UA cuando la UA delantera en la unidad de acceso aleatorio es una UA de una imagen RID, la decodificación se inicia a partir de dicha UA. En este caso, en el que un tiempo de visualización de una UA que incluye la imagen RID precedente está antes de un tiempo predeterminado o más, una UA para decodificar primero puede determinarse basándose en una regla predeterminada como iniciar la decodificación de una UA delantera en N base de acceso precedente o una imagen I distinta a RID. En la etapa s33, se valora si la información de reproducción inteligente TRK se incluye o no en el tren de información. Si se incluye la TRK, la operación avanza a una etapa s34, y si no se incluye la TRK, la operación avanza a una etapa s35. En la etapa s34, el procesamiento termina determinando una UA que se decodificará o visualizará basándose en la información de reproducción inteligente TRK. En la etapa s35, se valora si existe o no una restricción en la estructura predictiva entre UA. Si existe una restricción, la operación avanza a una etapa s36, y si no existe restricción, la operación avanza a una etapa s37. En la etapa s36, el procesamiento termina determinando que sólo debe decodificarse una UA cuando se decodifica la UA que es necesario visualizar cuando se realiza reproducción con velocidad variable y reproducción inversa basándose en la restricción en la estructura predictiva. También, en la etapa s37, el procesamiento termina determinando que se decodifican todas las UA. En consecuencia, primero se determina un procedimiento de determinación de una UA para decodificar como consecuencia de las etapas s31 y s32, y un procedimiento de especificación de una UA para decodificar cuando se realiza reproducción con velocidad variable o reproducción inteligente como consecuencia de las etapas s34, s36 y s37. A continuación, se envía a la unidad de determinación de UA de decodificación/visualización 54 como información de los modos respectivos de modos de la reproducción inteligente MODO. Obsérvese que, cuando se realiza una reproducción en salto, el procesamiento puede terminarse después de la etapa 32 o la etapa s31. En este caso, como un procedimiento de determinación de una UA para decodificar cuando se realiza reproducción inteligente, puede usarse un procedimiento predeterminado: por ejemplo, en el caso en que se valora que la información de reproducción inteligente TRK no se incluye en el tren de información en la etapa s33, sólo se decodifican las UA de imágenes I e imágenes P, o sólo se decodifican UA de imágenes I, imágenes P e imágenes B a las que se hace referencia.
Obsérvese que, en el caso en el que se incluye información para determinar una UA que se visualizará en la información de reproducción inteligente TRK, puede incluirse información que indique la determinación de una UA que se visualizará basándose en la información de reproducción inteligente TRK en el modo de reproducción inteligente MODO.
En este caso, en el que no puede realizarse decodificación por un procedimiento determinado por la unidad de determinación de operación de reproducción inteligente 53, puede determinarse una UA para decodificar mediante un procedimiento predeterminado. Por ejemplo, en el caso en que se indique obtener la información de reproducción TRK a partir del tren de información codificado por el modo de reproducción inteligente MODO, si la información de reproducción inteligente TRK no puede obtenerse en el tren de información codificado, puede determinarse todas las UA se decodifican o las UA que se decodificará basándose en otra información obtenida a partir de la información de apoyo HLP. En la presente memoria descriptiva, puede verificarse si la información de base de datos incluye la información de reproducción inteligente TRK.
En este caso, en el que se incluye información distinta de la información relacionada con reproducción inteligente en la información de apoyo HLP, puede conmutarse una operación de decodificación o visualización según la información. Por ejemplo, las operaciones pueden conmutarse basándose en información de pérdida de paquetes cuando se graban los datos recibidos a través de difusión y comunicación.
Además, un medio en el que se graban los datos multiplexados no sólo se limita a un disco óptico sino que puede ser otro medio de grabación como un disco duro y una memoria no volátil.
Además las operaciones de la unidad de determinación de UA de decodificación/visualización 23 difieren entre sí. Preparando los demultiplexores convencionales mostrados en la Fig. 6, un demultiplexor que se usará puede conmutarse basándose en un modo de reproducción inteligente determinado por información de apoyo establecida por separado de la unidad de análisis de reproducción 52 y la unidad de determinación de operación de reproducción inteligente 53. Por ejemplo, se prepara cualquiera de los dos demultiplexores convencionales que tienen la unidad de determinación de UA de decodificación/visualización 23 que realizan los siguientes tres tipos de operaciones, y puede conmutarse el demultiplexor que se usará basándose en la información de apoyo HLP de los datos multiplexados que se reproducirán. Los tres tipos son: i) determinar un demultiplexor de manera que se decodifiquen todas las UA durante todo el tiempo; ii) obtener la información de reproducción inteligente TRK durante todo el tiempo y determinar una UA para decodificar; y iii) determinar una UA para decodificar suponiendo que un tren de información sigue una estructura predictiva específica.
(Quinta forma de realización)
Como procedimiento de grabación de datos multiplexados en un disco óptico por un multiplexor según la segunda forma de realización, se explica un procedimiento de almacenamiento de información de apoyo HLP como información de base de datos de un BD que es un disco óptico de nueva generación.
En primer lugar, se explica un formato de grabación de un BD-ROM.
La Fig. 26 es un diagrama que muestra una estructura de a BD-ROM, en particular una estructura de un disco BD
(104) que es un medio de disco y datos (101, 102, y 103) grabados en el disco. Los datos que se registrarán en el disco BD (104) son datos AV (103), información de base de datos BD (102) como información de base de datos relativa a los datos AV y secuencia de reproducción de UA, y un programa de reproducción de BD (101) para realización de un interactivo. En la presente forma de realización, se explica un disco BD principalmente para una aplicación AV para reproducir contenido AV en una película con fines de explicación. Sin embargo, no hay duda de que es igual incluso si se usa para otros usos.
La Fig. 27 es un diagrama que muestra una estructura de directorios/archivos de datos lógicos grabados en el disco BD. El disco BD tiene un área de grabación en una forma espiral desde el radio interior hacia el radio exterior como, por ejemplo, similar al DVD, CD y similares, y tiene un espacio de direcciones lógicas en el que pueden grabarse datos lógicos entre una parte delantera del radio interior y una parte trasera del radio exterior. También, existe unárea especial dentro de la parte delantera que es leída sólo por un controlador denominada Área de Corte en Ráfagas (BCA). Esta área no puede leerse a partir de la aplicación de manera que puede usarse, por ejemplo, para una tecnología de protección de derechos de autor y similares.
En el espacio de direcciones lógicas, se graban datos de aplicación como datos de vídeo parte delantera de datos de vídeo mediante la información del sistema final (volumen). Como se explica en la tecnología convencional, el sistema de archivos es UDF, ISO96660 y similares. Permite la lectura de datos lógicos almacenados como en el ordenador personal PC, usando una estructura de directorios y archivos.
En la presente forma de realización, como la estructura de directorios y archivos del disco BD, se coloca undirectorio BDVIDEO inmediatamente debajo del directorio raíz (RAÍZ). En este directorio, se almacenan los datos (101, 102 y 103 explicados en la Fig. 26) como contenido AV e información de base de datos tratada en el BD.
Bajo el directorio BDVIDEO, se graban los siete tipos de archivos siguientes:
BD.INFO (nombre de archivo fijo)
En el archivo se graba un archivo que es uno entre “información de base de datos BD” e información relativa al disco BD como un todo en el archivo. Un reproductor BD lee en primer lugar este archivo.
BD.PROG (nombre de archivo fijo) En el archivo se graba un archivo que es uno entre “programa de reproducción BD” e información de control de reproducción relativa al disco BD como un todo.
XXX.PL (“XXX” es variable, la extensión “PL” es fija) En el archivo se graba un archivo que es uno entre “información de base de datos BD” y lista de información de reproducción que es un escenario (secuencia de reproducción). Existe un archivo para cada lista de reproducción.
XXX.PROG (“XXX” es variable, la extensión “PROG” es fija) En el archivo se graba un archivo que es uno entre “programa de reproducción BD” e información de control de
reproducción para cada lista de reproducción. Mediante un nombre de cuerpo de archivo (correspondencia “XXX”) se identifica una correspondencia con una lista de reproducción. YYY.VOB (“YYY” es variable, la extensión “VOB” es fija) En el archivo se graba un archivo que es uno entre “datos AV” y VOB (igual a VOB explicado en el ejemplo
convencional). Existe un archivo para cada VOB. YYY.VOBI (“YYY” es variable, la extensión “VOBI” es fija) En el archivo se graba un archivo que es uno entre “información de base de datos BD” e información de tren de
información de base de datos relativa a VOB que son datos AV. Se identifica una correspondencia con un VOB mediante un nombre de cuerpo de archivo (correspondencia “YYY”).
ZZZ.PNG (“ZZZ” es variable, la extensión “PNG” es fija) Un archivo que es uno entre “datos AV” y datos de imagen PNG (un formato de imagen normalizado por W3C, y pronunciado “ping”) para estructuración de subtítulos y un menú en el archivo. Existe un archivo para cada imagen PNG.
Con referencias a las Fig. 28 a 32, se explica una estructura de datos de navegación de BD (información de base de
datos BD). La Fig. 28 es un diagrama que muestra una estructura interna de un archivo de información de base de datos VOB (“YYY.VOBI”).
La información de base de datos VOB tiene información de atributo del tren de información (Atributo) de dicho VOB y un mapa de tiempos (TMAP). Existe un atributo de tren de información para cada de atributo de vídeo (Vídeo) y atributo de audio (Audio#01 a Audio#m). En particular, en el caso del audio tren de información de audio, como el VOB puede tener trenes de información de audio en el mismo tiempo, el número de audio trenes de información (Número) indica si existe un campo de datos o no.
A continuación se indica el atributo de campos de vídeo (Vídeo) y los valores del mismo.
Procedimiento de compresión (Codificación): MPEG1 MPEG2 MPEG3 MPEG4 (Codificación de Vídeo Avanzado)
Resolución: 1920 x 1080 1440 x 1080 1280 x 720 720 x 480
720 x 565 Relación anchura-altura
4:3
16:9
Velocidad de trama 60
59.94 (60/1.001) 50 30
29.97 (30/1.001) 25 24
23.976 (24/1.001)
A continuación se ofrecen los campos del atributo de audio (Audio) y los valores de los mismos.
Procedimiento de compresión (Codificación):
AC3
MPEG1
MPEG2
LPCM
Número de canales (Ch):
1 a 8
Atributo de lenguaje (Lenguaje)
Un mapa de tiempos (TMAP) es una tabla que tiene información para cada VOBU. La tabla incluye el número de VOBU (Número) guardado por dicho VOB y cada información VOBU (VOBU#1 a VOBU#n). Cada una de la información VOBU está constituida por una dirección I_inicio de una dirección de un paquete TS delantero de VOBU (inicio de imagen I), una dirección de desplazamiento (I_fin) hasta la dirección de fin de la imagen I, y un tiempo de inicio de reproducción (PTS) de la imagen I. En el caso en que un tren de información MPEG-4 AVC tiene una estructura de acceso aleatorio, un VOBU corresponde a una o más unidades de acceso aleatorio.
La Fig. 29 es un diagrama que explica los detalles de la información VOBU.
Como es ampliamente conocido, existe un caso en el que un tren de información de vídeo MPEG se comprime en velocidad binaria variable con el fin de grabar en alta calidad de imagen, no existe una correspondencia sencilla entre el tiempo de reproducción y el tamaño de los datos. Por el contrario, un AC3, que es una norma de compresión de audio, comprime el audio en una velocidad binaria fija. Por tanto, puede obtenerse una relación entre un tiempo y una dirección mediante una expresión primaria. Sin embargo, en el caso de datos de vídeo MPEG, cada trama tiene un tiempo de visualización fijo, por ejemplo, en el caso de NTSC, una trama tiene un tiempo de visualización de 1/29,97 segundos. Sin embargo, el tamaño de los datos de cada trama comprimida cambia en gran medida dependiendo de la característica de la imagen y del tipo de imagen usados para compresión, en concreto imágenes I/P/B. Por tanto, en el caso de vídeo MPEG, no puede describirse una relación entre tiempo y dirección en una expresión primaria.
A decir verdad, es imposible describir un tren de información del sistema MPEG que se obtenga multiplexando datos de vídeo MPEG en forma de una expresión primaria. Específicamente, VOB tampoco puede describir tiempo y tamaño de los datos en una expresión primaria. Por tanto, se usa un mapa de tiempos (TMAP) para establecer una relación entre tiempo y dirección en el VOB.
Por tanto, cuando se da información de tiempo, en primer lugar, se busca la VOBU a la que pertenece el tiempo (pista PTS para cada VOBU), se salta el PTS inmediatamente antes de dicho tiempo hasta una VOBU que tenga un TMAP (dirección especificada por I_inicio), se inicia la decodificación de imágenes a partir de una imagen delantera I en la VOBU, y se inicia la visualización de imágenes a partir de una imagen de dicho tiempo.
A continuación, con referencia a la Fig. 30, se explica la estructura interna de una lista de información de reproducción (“XXX.PL”).
La lista de información de reproducción está constituida por una lista de celdas (ListaCeldas) y una lista de eventos (ListaEventos).
La lista de celdas (ListaCeldas) es una secuencia de reproducción en una lista de reproducción, y la celda se reproduce en un orden de descripción en la lista. El contenido de la lista de celdas (ListaCeldas) incluye el número de celdas (Número) y la información de cada celda (Celda#1 a Celda#n).
La información de celda (Celda#) incluye un nombre de archivo VOB (NombreVOB), un tiempo de inicio (Entrada) y tiempo de fin (Salida) en el VOB, y una tabla de subtítulos. El tiempo de inicio (Entrada) y el tiempo de fin (Salida) se describen mediante números de trama en cada VOB, y puede obtenerse una dirección de los datos VOB necesaria para reproducción usando el mapa de tiempos (TMAP).
La tabla de subtítulos es una tabla que tiene información de subtítulos que se reproducirán al mismo tiempo con el VOB. El subtítulo puede tener una pluralidad de lenguajes similares a audio, y la primera información de la tabla de subtítulos está constituida por un número de lenguajes (Número) y la siguiente tabla para cada lenguaje (Lenguaje#1 a Lenguaje#k).
Cada tabla de lenguajes (Lenguaje#) está constituida por una información de lenguaje (Leng), el número de información de subtítulo (Número) que se visualiza separadamente, e información de subtítulos del subtítulo (Voz#1 a Voz#j). La información de subtítulos (Voz#) está constituida por un nombre de archivo de datos de imagen correspondientes (Nombre), un tiempo de inicio de visualización de los subtítulos (Entrada), un tiempo de fin de visualización de los subtítulos (Salida) y una posición de visualización del subtítulo (Posición).
La lista de eventos (ListaEventos) es una tabla en la que se definen los eventos generados en la lista de reproducción. La lista de eventos está constituida por cada evento (Evento#1 a Evento#m) después del número de eventos (Número). Cada evento (Evento#) está constituido por un tipo de evento (Tipo), un ID de evento (ID), un tiempo de generación de evento (Tiempo) y una duración.
La Fig. 31 es una tabla de gestor de eventos (“XXX.PROG”) que tiene un gestor de eventos (evento de tiempo y evento de usuario para selección de menú) para cada lista de reproducción.
La tabla de gestor de eventos tiene un gestor de eventos/número de programas (Número) definido y un gestor de eventos /programa (Programa#1 a Programa#n) individual. La descripción en cada gestor de eventos/programa (Programa#) tiene una definición sobre el inicio del gestor de eventos (<event_handler>tag) y un ID de un gestor de eventos ligado al evento. Después de eso, el programa se describe entre llaves “{” y “}” después de una Función. Los eventos (Evento#1 a Evento#m) almacenados en una lista de eventos del “XXX.PL” se especifican usando un ID de un gestor de eventos.
A continuación, con referencia a la Fig. 32, se explica la estructura de información interna relativa a un disco BD como un todo (“BD.INFO”).
La información total del disco BD está constituida por una lista de títulos y una tabla de eventos para un evento global.
La lista de títulos está constituida por un número de títulos en un disco (Número) y a continuación la información de cada título (Título#1 a Título#n). La información de cada título (Título#) incluye una tabla de lista de reproducción (TablaPL) incluida en un título y una lista de capítulos en el título. La tabla de la lista de reproducción (TablaPL) incluye el número de listas de reproducción en el título (Número) y un nombre de lista de reproducción (Nombre), específicamente, un nombre de archivo de la lista de reproducción.
La lista de capítulos está constituida por un número de capítulos (Número) incluido en el título e información de cada capítulo individual (Capítulo#1 a Capítulo#n). Cada fragmento de la información de capítulos (Capítulo#) tiene una tabla de celdas incluida en el capítulo. La tabla de celdas está constituida por un número de celdas (Número) e información de entrada de cada celda individual (EntradaCelda#1 a EntradaCelda#k). La información de entrada de celda (EntradaCelda#) se describe mediante un nombre de lista de reproducción que incluye la celda y un número de celda en la lista de reproducción.
La lista de eventos (ListaEventos) tiene un número de eventos globales (Número) e información de cada evento global individual. En este caso, debe mencionarse que un evento global definido en primer lugar se denomina primer evento, que es un evento al que se invocará primero cuando se introduzca un disco BD en un reproductor. La información de eventos para evento global sólo tiene un tipo de evento (Tipo) e ID de evento (ID).
La Fig. 34 muestra una tabla de un programa de un gestor de eventos global (“BD.PROG”). Esta tabla es la misma que la tabla del gestor de eventos explicada en la Fig. 32.
En dicho formato BD-ROM, la información de apoyo HLP se almacena como información de atributo del tren de información de la información de base de datos VOB. Cuando la información de apoyo HLP se usa sólo para MPEG4 AVC, la información de apoyo HLP puede almacenarse sólo cuando el procedimiento de compresión es MPEG-4 AVC.
Obsérvese que, además de la información de atributo del tren de información y un mapa de tiempos, la información de apoyo HLP puede almacenarse estableciendo un área para almacenar la información de apoyo de la reproducción en la información de base de datos VOB. Además, la información de apoyo HLP puede almacenarse como información de base de datos BD distinta a la información de base de datos VOB.
Además, la información de apoyo HLP puede almacenarse no sólo en el formato BD-ROM sino también en otros formatos de grabación como BD-RE (Reescribible) como información de base de datos.
(Sexta forma de realización)
La Fig. 34 es un diagrama de bloques que muestra aproximadamente la estructura funcional de un reproductor que reproduce datos grabados en el disco BD según la quinta forma de realización.
Los datos grabados en un disco BD (201) se leen a través del captador óptico (202). Los datos leídos se transfieren a una memoria especial dependiendo del tipo de datos respectivo. El programa de reproducción BD (contenido de los archivos “BD.PROG” o “XXX.PROG”), la información de base de datos BD (“BD.INFO”, “XXX.PL” o “YYY.VOBI”), y los datos AV (“YYY.VOB” o “ZZZ.PNG”) se transfieren respectivamente a una memoria de grabación de programas (203), una memoria de grabación de información de base de datos (204) y una memoria de grabación AV (205).
El programa de reproducción BD grabado en la memoria de grabación de programas (203), la información de base de datos BD grabada en la memoria de grabación de información de base de datos (204) y los datos AV grabados en la memoria de grabación AV (205) son procesados respectivamente por una unidad de procesamiento de programas (206), una unidad de procesamiento de información de base de datos (207) y una unidad de procesamiento de presentación (208).
La unidad de procesamiento de programas (206) procesa un programa para recibir información sobre las listas de reproducción que serán reproducidas por la unidad de procesamiento de información de base de datos (207) y la información de eventos como el tiempo de ejecución de un programa. Además, el programa puede cambiar dinámicamente las listas de reproducción que se reproducirán. En este caso, puede efectuarse enviando una instrucción de reproducción de la lista de reproducción a la unidad de procesamiento de información de base de datos (207). La unidad de procesamiento de programas (206) recibe un evento de un usuario, específicamente, una petición enviada desde una clave de controlador remoto, y ejecuta el evento si existe un programa correspondiente al evento de usuario.
La unidad de procesamiento de información de base de datos (207) recibe una instrucción de la unidad de procesamiento de programas (206), analiza la lista de reproducción correspondiente y la información de base de datos de VOB correspondiente a la lista de reproducción, y ordena que se reproduzcan los datos AV objeto a la unidad de procesamiento de presentación (208). Además, la unidad de procesamiento de información de base de datos (207) recibe información de tiempo estándar de la unidad de procesamiento de presentación (208), ordena la unidad de procesamiento de presentación (208) para detener la reproducción de datos AV basándose en la información de tiempo, y genera además un evento que indica un tiempo de ejecución de programa para la unidad de procesamiento de programas (206).
La unidad de procesamiento de presentación (208) tiene decodificadores que corresponden respectivamente a vídeo, audio y subtítulo/imagen (imagen fija). Cada uno de los decodificadores decodifica datos AV basándose en una instrucción enviada desde la unidad de procesamiento de información de base de datos (207), y envía los datos AV decodificados. Los datos de vídeo, subtítulo e imagen se describen respectivamente en un plano especial, un plano de vídeo (210) y un plano de imágenes (209) después de su decodificación, y sintetizan las imágenes mediante la unidad de sintetización (211) y la envían a un dispositivo de visualización como una televisión.
A continuación se explican operaciones del reproductor cuando se realiza reproducción inteligente.
La unidad de procesamiento de información de base de datos 207 incluye una función de la unidad de determinación de operación de reproducción inteligente 53 en el demultiplexor 55 según la cuarta forma de realización, cuando se introduce una señal de instrucción de reproducción inteligente para realizar reproducción inteligente como reproducción con velocidad variable, reproducción inversa o reproducción en salto por medio de la unidad de procesamiento de programas 206, obtiene y analiza la información de apoyo HLP a partir de la memoria de información de base de datos 204, y determina un procedimiento para determinar la operación de decodificación y visualización cuando se realiza reproducción inteligente. La unidad de procesamiento de presentación 208 incluye una función de la unidad de determinación de UA de decodificación/visualización 54 en el demultiplexor 55, determina una UA que se decodificará y visualizará basándose en el procedimiento determinado por la unidad de procesamiento de información de base de datos 207, y decodifica y visualiza la UA determinada. En este caso, la unidad de procesamiento de información de base de datos 207 puede tener la función de la unidad de determinación de UA de decodificación/visualización 54.
Además, cuando la información de reproducción inteligente TRK se almacena en la información de base de datos BD, la unidad de procesamiento de información de base de datos 207 obtiene la información de reproducción inteligente TRK a partir de la información de base de datos memoria 204. La información de reproducción inteligente TRK obtenida se analiza en la unidad de procesamiento de presentación 208.
Obsérvese que cada bloque de función en el diagrama de bloques mostrado en las Fig. 10, 15, 18, 22 y 23 puede efectuarse como LSI que sea un aparato de circuitos integrados. Dicho LSI puede incorporarse en una o varias formas de chip (por ejemplo, bloques de función que no sean una memoria pueden incorporarse en un solo chip). En este caso, LSI se toma como ejemplo, aunque puede denominarse “IC”, “sistema LSI”, “super LSI” y “ultra LSI” dependiendo del grado de integración.
El procedimiento para incorporación en un circuito integrado no se limita a LSI, y puede efectuarse con un procesador general o de línea privada. Después de la fabricación de LSI, puede usarse Field Programmable Gate Array (FPGA) que es un procesador programable, o reconfigurable que puede reconfigurar la conexión y los ajustes para la celda de circuito en LSI.
Además, junto con la llegada de la técnica para la incorporación en un circuito integrado, que sustituye el LSI debido al progreso en la tecnología de semiconductores u otra técnica que se haya derivado de ella, la integración de los bloques de función puede efectuarse usando las tecnologías de nuevo cuño. La aplicación de la biotecnología puede citarse como uno de los ejemplos.
Entre los bloques de función, sólo puede construirse una unidad para almacenar datos por separado sin incorporarlos en forma de chip, como el medio de almacenamiento 115 descrito en la presente forma de realización.
Obsérvese que la parte principal en los bloques de función mostrados en las Fig. 10, 15, 18, 22 a 25 y 34 o en los organigramas mostrados en las Fig. 13, 14, 16 y 17 puede efectuarse mediante un procesador o un programa.
Como se ha expuesto anteriormente, es posible emplear el procedimiento de codificación de imágenes y el procedimiento de decodificación de imágenes presentados en la forma de realización anterior en cualquiera de los dispositivos y sistemas descritos anteriormente. En consecuencia, se hace posible conseguir los efectos descritos en la forma de realización mencionada anteriormente.
(Séptima forma de realización)
Además, al registrar un programa para realizar la disposición del procedimiento de codificación de imágenes en movimiento o del procedimiento de decodificación de imágenes en movimiento según se muestra en cada una de las formas de realización mencionadas anteriormente, en un medio de grabación como un disco flexible, se hace posible realizar fácilmente el procesamiento según se muestra en cada una de las formas de realización anteriores en un sistema informático independiente.
La Fig. 35A, la Fig. 35B y la Fig. 35C son diagramas de un medio de grabación para grabar un programa para efectuar el procedimiento de codificación de imágenes en movimiento y el procedimiento de decodificación de imágenes en movimiento en las formas de realización anteriores en el sistema informático.
La Fig. 35B muestra la vista frontal de un disco flexible y la sección transversal esquemática, así como un disco flexible en sí, mientras que la Fig. 35A muestra un ejemplo de un formato físico del disco flexible como un medio de grabación en sí. Un disco flexible FD está contenido en una caja F, se forma una pluralidad de pistas Tr concéntricamente sobre la superficie del disco en la dirección radial desde la periferia, y cada pista se separa en 16 sectores Se en la dirección angular. Por tanto, en el disco flexible que almacena el programa mencionado anteriormente, el programa anterior se graba en un área asignada para ello en el disco flexible FD anterior.
5 Además, la Fig. 35C muestra la configuración para grabar y reproducir el programa en y desde el disco flexible FD. Cuando el programa se graba en el disco flexible FD, el sistema informático Cs escribe en el procedimiento de codificación de imágenes en movimiento y el procedimiento de decodificación de imágenes en movimiento como el programa en el disco flexible FD por medio de una unidad de disco flexible. Cuando el procedimiento de codificación de imágenes en movimiento y el procedimiento de decodificación de imágenes en movimiento anteriores se
10 construyen en el sistema informático usando el programa grabado en el disco flexible, el programa se lee desde el disco flexible por medio de la unidad del disco flexible y se transfiere al sistema informático.
Obsérvese que la explicación anterior se ofrece suponiendo que un medio de grabación es un disco flexible, pero el mismo procesamiento también puede realizarse usando un disco óptico. Además, el medio de grabación no está
15 limitado a estos, sino que puede usarse cualquier otro medio como un CD-ROM, una tarjeta de memoria y una casete ROM de la misma manera si es posible grabar en ellos un programa.
Aplicabilidad industrial
20 Un multiplexor y un demultiplexor según la presente invención pueden realizar la decodificación o visualización eficaz cuando se reproducen de forma especial los datos obtenidos multiplexando un tren de información MPEG-4 AVC, de manera que la presente invención es eficaz especialmente para un dispositivo de reproducción de un medio de paquete que se centra en una función de reproducción inteligente.

Claims (3)

  1. REIVINDICACIONES
    1. Un aparato de generación de trenes de información que genera un tren de información que incluye (i) orden de información de gestión de memoria OCGM para gestión de una memoria tampón (2004) que guarda una imagen decodificada como una imagen de referencia, y (ii) imágenes codificadas, comprendiendo dicho aparato:
    una unidad de generación (1004) operativa para generar las imágenes codificadas por codificación de imágenes,
    una unidad de adición de órdenes operativa para añadir la OCGM a una imagen codificada predeterminada,
    caracterizado por:
    una unidad de valoración (1002) operativa para valorar si una primera imagen codificada debe o no saltarse en el momento de la reproducción inteligente y se añade con OCGM; y
    una unidad de repetición (1003) operativa para generar una información de refuerzo suplementaria de repetición de marcado de imagen de referencia decodificada ISR RMIRD, y para repetir OCGM introduciendo datos de OCGM en la ISR RMIRD, cuando dicha unidad de valoración valora que la primera imagen codificada debe saltarse en el momento de la reproducción inteligente y se añade con OCGM;
    en el que dicha unidad de generación está operativa para generar el tren de información, añadiendo la ISR RMIRD a una segunda imagen codificada que sigue, en orden de decodificación, a la primera imagen codificada y que no debe saltarse en el momento de la reproducción inteligente.
  2. 2. Un procedimiento de generación de trenes de información para generar un tren de información que incluye (i) orden de información de gestión de memoria OCGM para gestionar una memoria tampón (2004) que guarda una imagen decodificada como una imagen de referencia, y (ii) imágenes codificadas generadas por codificación de imágenes, en el que la OCGM se añade a una imagen codificada predeterminada, con dicho procedimiento caracterizado por las etapas de:
    valoración (S1002, S1102) de si una primera imagen codificada es o no una imagen que debe saltarse en el momento de la reproducción inteligente y se añade con OCGM;
    generación (S1003) de información de refuerzo suplementaria de repetición de una imagen decodificada de referencia ISR RMIRD,
    repetición de OCGM introduciendo datos de OCGM a la ISR RMIRD, cuando dicha valoración valora que la primera imagen codificada debe saltarse en el momento de la reproducción inteligente y se añade con OCGM; y
    generación (S1008) del tren de información, añadiendo ISR RMIRD a una segunda imagen codificada que sigue, en orden de decodificación, a la primera imagen codificada y no debe saltarse en el momento de la reproducción inteligente.
  3. 3. Un medio de grabación (FD) en el que se graba un tren de información legible por un ordenador, generándose el tren de información por medio de un procedimiento según se define en la reivindicación 2.
ES05736768T 2004-04-28 2005-04-25 Aparato de generación de trenes de información , procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos. Active ES2364755T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004134211 2004-04-28
JP2004-134211 2004-04-28
JP2004272517 2004-09-17
JP2004-272517 2004-09-17
PCT/JP2005/008318 WO2005107253A1 (en) 2004-04-28 2005-04-25 Stream generation apparatus, stream generation method, coding apparatus, coding method, recording medium and program thereof

Publications (1)

Publication Number Publication Date
ES2364755T3 true ES2364755T3 (es) 2011-09-13

Family

ID=34971442

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05736768T Active ES2364755T3 (es) 2004-04-28 2005-04-25 Aparato de generación de trenes de información , procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos.

Country Status (11)

Country Link
US (3) US7889788B2 (es)
EP (3) EP1942670B1 (es)
JP (5) JP4091962B2 (es)
KR (3) KR100997270B1 (es)
CN (6) CN101686364B (es)
AT (2) ATE524924T1 (es)
BR (1) BRPI0506370A8 (es)
ES (1) ES2364755T3 (es)
MX (1) MXPA06004544A (es)
PL (2) PL1942670T3 (es)
WO (1) WO2005107253A1 (es)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10026003A1 (de) * 2000-05-25 2001-12-06 Bosch Gmbh Robert Stator
CN100458917C (zh) * 2003-10-16 2009-02-04 新科实业有限公司 硬盘驱动器悬架共振优化的方法和机构
JP2006101229A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 映像再生装置
JP2006211274A (ja) * 2005-01-27 2006-08-10 Toshiba Corp 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法
KR100770704B1 (ko) * 2005-08-04 2007-10-29 삼성전자주식회사 픽쳐 스킵 방법 및 장치
US7714838B2 (en) * 2006-04-27 2010-05-11 Research In Motion Limited Handheld electronic device having hidden sound openings offset from an audio source
EP2041982A2 (en) 2006-07-11 2009-04-01 Thomson Licensing Methods and apparatus using virtual reference pictures
US20080025408A1 (en) * 2006-07-31 2008-01-31 Sam Liu Video encoding
KR100794798B1 (ko) 2006-09-01 2008-01-15 삼성전자주식회사 시간지연을 완화하면서 역재생하는 영상기기 및 그제어방법
US9100702B2 (en) 2006-09-11 2015-08-04 Tivo Inc. Personal content distribution network
WO2008055180A2 (en) 2006-10-31 2008-05-08 Tivo Inc. Method and apparatus for downloading ancillary program data to a dvr
CN101523911B (zh) 2006-10-31 2013-08-28 Tivo有限公司 用于将辅助节目数据下载到dvr的方法和装置
US8270819B2 (en) * 2006-10-31 2012-09-18 Tivo Inc. Performing trick play functions in a digital video recorder with efficient use of resources
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8873932B2 (en) * 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US20090100482A1 (en) * 2007-10-16 2009-04-16 Rodriguez Arturo A Conveyance of Concatenation Properties and Picture Orderness in a Video Stream
KR100846512B1 (ko) * 2006-12-28 2008-07-17 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US8411734B2 (en) 2007-02-06 2013-04-02 Microsoft Corporation Scalable multi-thread video decoding
MY160436A (en) * 2007-02-23 2017-03-15 Nokia Technologies Oy Backward-compatible characterization of aggregated media data units
JP5023739B2 (ja) * 2007-02-28 2012-09-12 ソニー株式会社 画像情報符号化装置及び符号化方法
US9648325B2 (en) 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
JP2009272921A (ja) * 2008-05-08 2009-11-19 Panasonic Corp 動画像記録装置、動画像再生装置、動画像記録方法、動画像再生方法および半導体集積回路
US8886022B2 (en) * 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
JP2010004142A (ja) * 2008-06-18 2010-01-07 Hitachi Kokusai Electric Inc 動画像符号化装置、復号化装置、符号化方法及び復号化方法
CN102396221B (zh) * 2008-06-25 2015-03-25 思科技术公司 阻止特技模式操作的支持
US8359612B2 (en) 2008-08-13 2013-01-22 Tivo Inc. Content distribution system using transportable memory devices
US8761266B2 (en) * 2008-11-12 2014-06-24 Cisco Technology, Inc. Processing latticed and non-latticed pictures of a video program
US8184952B2 (en) * 2008-12-11 2012-05-22 Cable Television Laboratories, Inc. Segment boundary obfuscation
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
JP5332773B2 (ja) * 2009-03-18 2013-11-06 ソニー株式会社 画像処理装置および方法
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) * 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
KR101750495B1 (ko) 2010-04-16 2017-06-27 에스케이텔레콤 주식회사 인터 예측 방법 및 그 인터 예측 방법을 이용한 동영상 부호화/복호화 방법
US9451285B2 (en) 2010-04-16 2016-09-20 Sk Telecom Co., Ltd. Inter-prediction method and video encoding/decoding method using the inter-prediction method
KR101826331B1 (ko) 2010-09-15 2018-03-22 삼성전자주식회사 고주파수 대역폭 확장을 위한 부호화/복호화 장치 및 방법
WO2012067636A1 (en) * 2010-10-06 2012-05-24 Searete Llc Electromagnetic flow regulator, system, and methods for regulating flow of an electrically conductive fluid
US20120106632A1 (en) * 2010-10-28 2012-05-03 Apple Inc. Method and apparatus for error resilient long term referencing block refresh
US8885729B2 (en) 2010-12-13 2014-11-11 Microsoft Corporation Low-latency video decoding
US9706214B2 (en) 2010-12-24 2017-07-11 Microsoft Technology Licensing, Llc Image and video decoding implementations
EP2657933B1 (en) * 2010-12-29 2016-03-02 Samsung Electronics Co., Ltd Coding apparatus and decoding apparatus with bandwidth extension
US9243427B2 (en) 2011-01-24 2016-01-26 Carefusion 303, Inc. Self-aligning modular latch
KR101803970B1 (ko) * 2011-03-16 2017-12-28 삼성전자주식회사 컨텐트를 구성하는 장치 및 방법
CA2840427C (en) 2011-06-30 2018-03-06 Microsoft Corporation Reducing latency in video encoding and decoding
JP2013030907A (ja) * 2011-07-27 2013-02-07 Sony Corp 符号化装置および符号化方法、並びに、復号装置および復号方法
US8731067B2 (en) 2011-08-31 2014-05-20 Microsoft Corporation Memory management for video decoding
JP5106671B1 (ja) * 2011-09-30 2012-12-26 株式会社東芝 電子機器および再生制御方法
WO2013062174A1 (ko) * 2011-10-26 2013-05-02 경희대학교 산학협력단 메모리 관리 방법 및 그를 이용한 복호화 장치
US9819949B2 (en) 2011-12-16 2017-11-14 Microsoft Technology Licensing, Llc Hardware-accelerated decoding of scalable video bitstreams
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
JP5143295B1 (ja) * 2012-01-27 2013-02-13 株式会社東芝 電子機器及びインデックス生成方法
WO2013172667A1 (en) * 2012-05-17 2013-11-21 Samsung Electronics Co., Ltd. Recording medium, reproducing device for performing trick play for data of the recording medium, and method thereof
MX342499B (es) * 2012-06-29 2016-10-03 Sony Corp Dispositivo de descodificación y método de descodificación.
KR102167096B1 (ko) 2012-09-13 2020-10-16 엘지전자 주식회사 영상 부호화/복호화 방법 및 장치
JP2014150384A (ja) * 2013-01-31 2014-08-21 Toshiba Corp 動画像符号化装置及び動画像符号化方法
CN103404146B (zh) * 2013-03-11 2016-10-12 华为技术有限公司 视频文件修复方法及装置
US9565454B2 (en) 2013-06-24 2017-02-07 Microsoft Technology Licensing, Llc Picture referencing control for video decoding using a graphics processor
US9894370B2 (en) 2014-03-24 2018-02-13 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
WO2016002140A1 (ja) * 2014-07-03 2016-01-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP2019149753A (ja) * 2018-02-28 2019-09-05 株式会社Jvcケンウッド 画像復号化装置、画像復号化方法及び画像復号化プログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5241659A (en) 1990-09-14 1993-08-31 Eastman Kodak Company Auxiliary removable memory for storing image parameter data
US5270831A (en) 1990-09-14 1993-12-14 Eastman Kodak Company Storage and playback of digitized images in digital database together with presentation control file to define image orientation/aspect ratio
WO1992005653A1 (en) * 1990-09-19 1992-04-02 N.V. Philips' Gloeilampenfabrieken Method of recording coded pictures, record carrier on which coded pictures have been recorded, and picture retrieval and reproduction device for reading the record carrier
WO1992005651A1 (en) * 1990-09-19 1992-04-02 N.V. Philips' Gloeilampenfabrieken Method of recording picture information, record carrier, and picture retrieval and reproduction device for reading the record carrier
AU642540B2 (en) 1990-09-19 1993-10-21 Philips Electronics N.V. Record carrier on which a main data file and a control file have been recorded, method of and device for recording the main data file and the control file, and device for reading the record carrier
US5543925A (en) 1990-09-19 1996-08-06 U.S. Philips Corporation Playback apparatus with selective user preset control of picture presentation
EP0500927B1 (en) * 1990-09-19 2001-05-02 Koninklijke Philips Electronics N.V. Picture retrieval system
NL9002108A (nl) 1990-09-19 1992-04-16 Koninkl Philips Electronics Nv Registratiedrager waarop een hoofddatabestand en een besturingsdatabestand is opgetekend, een werkwijze en inrichting voor het optekenen van het hoofddatabestand en het besturingsbestand alsmede een inrichting voor het uitlezen van de registratiedrager.
JP3365109B2 (ja) * 1994-12-28 2003-01-08 ソニー株式会社 データ再生装置及びデータ再生方法
US6349653B1 (en) 2000-04-12 2002-02-26 Lockheed Martin Corporation Maintenance cart for remote inspection and cleaning of closed track
JP3104570B2 (ja) * 1995-03-28 2000-10-30 日本ビクター株式会社 ディジタル信号記録方法及び記録装置
JP3484834B2 (ja) * 1995-07-28 2004-01-06 ソニー株式会社 データ符号化/復号化方法および装置
US6445738B1 (en) * 1996-04-25 2002-09-03 Opentv, Inc. System and method for creating trick play video streams from a compressed normal play video bitstream
CA2289958C (en) * 1998-11-19 2003-01-21 Tomoyuki Okada Information recording medium, apparatus and method for recording or reproducing data thereof
KR100608454B1 (ko) * 1999-10-19 2006-08-02 삼성전자주식회사 키프레임을 이용한 동화상 기록 및/또는 재생장치
US6801294B2 (en) 1999-10-19 2004-10-05 Samsung Electronics Co., Ltd. Recording and/or reproducing apparatus and method using key frame
KR100796085B1 (ko) * 2000-04-14 2008-01-21 소니 가부시끼 가이샤 복호 장치, 복호 방법, 및 기록 매체
JP4538908B2 (ja) * 2000-06-14 2010-09-08 ソニー株式会社 データ変換装置及び方法
CN1111288C (zh) * 2000-12-28 2003-06-11 复旦大学 具有量子阱结构的光子晶体及其制备方法
JP3820155B2 (ja) 2001-01-16 2006-09-13 松下電器産業株式会社 情報記録装置および方法、情報記録プログラム、および情報記録プログラムを記録した記録媒体
CN100383889C (zh) * 2001-01-16 2008-04-23 松下电器产业株式会社 信息记录装置和方法
US6714721B2 (en) * 2001-06-18 2004-03-30 Thomson Licensing Changing a playback speed for video presentation recorded in a non-progressive frame structure format
JP2003116104A (ja) * 2001-10-02 2003-04-18 Sony Corp 情報処理装置及び情報処理方法
JP2003299103A (ja) 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP2003203431A (ja) * 2001-12-27 2003-07-18 Toshiba Corp 光ディスク装置と光ディスク及びこれらの方法
JP4215197B2 (ja) * 2002-04-12 2009-01-28 パナソニック株式会社 画像符号化方法および画像復号化方法
JP4355156B2 (ja) * 2002-04-16 2009-10-28 パナソニック株式会社 画像復号化方法及び画像復号化装置
JP2004007563A (ja) * 2002-04-19 2004-01-08 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
JP2004088135A (ja) 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 画像符号化装置及び画像復号化装置
ES2767066T3 (es) * 2002-08-08 2020-06-16 Godo Kaisha Ip Bridge 1 Procedimiento de descodificación de imágenes en movimiento
JP2004134211A (ja) 2002-10-10 2004-04-30 Canon Inc 加熱装置
JP2004228617A (ja) 2003-01-17 2004-08-12 Matsushita Electric Ind Co Ltd 動画像符号化装置および動画像復号化装置
CN1692654A (zh) * 2003-01-17 2005-11-02 松下电器产业株式会社 动态图像编码方法和动态图像解码方法
JP2004272517A (ja) 2003-03-07 2004-09-30 Kubota Corp 自動販売機の商品送出口開閉装置

Also Published As

Publication number Publication date
WO2005107253A1 (en) 2005-11-10
JP2007535208A (ja) 2007-11-29
US7889788B2 (en) 2011-02-15
US20100027964A1 (en) 2010-02-04
KR100891397B1 (ko) 2009-04-02
US7965766B2 (en) 2011-06-21
JP4068659B1 (ja) 2008-03-26
EP1942670A1 (en) 2008-07-09
KR20100042663A (ko) 2010-04-26
PL1942670T3 (pl) 2012-02-29
ATE515883T1 (de) 2011-07-15
CN100571356C (zh) 2009-12-16
BRPI0506370A (pt) 2006-12-26
JP4554690B2 (ja) 2010-09-29
CN101677383A (zh) 2010-03-24
JP2008136179A (ja) 2008-06-12
MXPA06004544A (es) 2006-06-23
EP1743481A1 (en) 2007-01-17
KR100997270B1 (ko) 2010-11-29
KR100997277B1 (ko) 2010-11-29
EP1743481B1 (en) 2011-07-06
US20100046922A1 (en) 2010-02-25
JP4091962B2 (ja) 2008-05-28
BRPI0506370A8 (pt) 2016-12-06
EP2184919A3 (en) 2010-07-28
JP2008219887A (ja) 2008-09-18
CN101686364B (zh) 2013-03-13
CN101677382B (zh) 2013-01-09
CN1951113A (zh) 2007-04-18
JP4465033B2 (ja) 2010-05-19
CN101677382A (zh) 2010-03-24
CN101677383B (zh) 2013-05-29
EP2184919A2 (en) 2010-05-12
EP1942670B1 (en) 2011-09-14
ATE524924T1 (de) 2011-09-15
US8442382B2 (en) 2013-05-14
JP2007325287A (ja) 2007-12-13
CN101686365B (zh) 2011-12-07
CN101686364A (zh) 2010-03-31
KR20080110939A (ko) 2008-12-19
CN101686363A (zh) 2010-03-31
US20070116426A1 (en) 2007-05-24
CN101686365A (zh) 2010-03-31
JP4410275B2 (ja) 2010-02-03
PL1743481T3 (pl) 2011-12-30
JP2010050980A (ja) 2010-03-04
KR20070000429A (ko) 2007-01-02

Similar Documents

Publication Publication Date Title
ES2364755T3 (es) Aparato de generación de trenes de información , procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos.
ES2388397T3 (es) Aparato de generación de un flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES2495391T3 (es) Aparato de codificación de imágenes y aparato de decodificación de imágenes
KR20060136399A (ko) 스트림 생성 장치, 스트림 생성 방법, 코딩 장치, 코딩방법, 기록 매체 및 그 프로그램
ES2368965T3 (es) Aparato de generación de trenes de información, procedimiento de generación de trenes de información, aparato de codificación, procedimiento de codificación, medio de grabación y programa para los mismos.