ES2383656T3 - Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento - Google Patents

Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento Download PDF

Info

Publication number
ES2383656T3
ES2383656T3 ES10159160T ES10159160T ES2383656T3 ES 2383656 T3 ES2383656 T3 ES 2383656T3 ES 10159160 T ES10159160 T ES 10159160T ES 10159160 T ES10159160 T ES 10159160T ES 2383656 T3 ES2383656 T3 ES 2383656T3
Authority
ES
Spain
Prior art keywords
image
images
information
random access
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10159160T
Other languages
English (en)
Inventor
Tadamasa Toma
Shinya Kadono
Tomoyuki Okado
Hiroshi Yahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Application granted granted Critical
Publication of ES2383656T3 publication Critical patent/ES2383656T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4332Content storage operation, e.g. storage operation in response to a pause request, caching operations by placing content in organized collections, e.g. local EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

Un aparato de generación de un flujo de imágenes en movimiento que genera un flujo que incluye imágenes queconstituyen una imagen en movimiento, comprendiendo dicho aparato de generación de un flujo de imágenes enmovimiento: una primera unidad de codificación operable para codificar una primera información suplementaria incluida en una unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primeraimagen es una imagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos de imagen, que indica tipos de todas las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes, y los fragmentos plurales de informaciónde tipos de imagen incluyen al menos: una imagen I sobre la cual se lleva a cabo la intra-codificación; unaimagen P sobre la cual se lleva a cabo la inter-codificación con referencia a una imagen por bloque, que esuna unidad básica en la codificación; una primera imagen B sobre la cual se lleva a cabo la inter-codificacióncon referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que puede ser objeto de referencia de una imagen; y una segunda imagen B sobre la cual se lleva a cabo la intercodificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que nopuede ser objeto de referencia de ninguna otra imagen; una segunda unidad de codificación operable para codificar una segunda información suplementaria incluida en la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de información de estructuras de imagen, que indica estructuras de todas las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen enreproducción trucada, estando los fragmentos plurales de información de estructuras de imagen colocados enel orden que corresponde al orden de descodificación del grupo de imágenes; y los fragmentos plurales deinformación de tipos de imagen incluyen al menos información que indica si la estructura de imagen de cada imagen es una estructura de campos, una primera estructura de tramas para visualizar la imagen usando doscampos de visualización, o una segunda estructura de tramas para visualizar la imagen, usando tres camposde visualización, mediante la visualización repetida de un primer campo de visualización en un momento deuso del avance descendente 3-2.

Description

Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento,aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
Campo técnico
La presente invención se refiere a un aparato, y similares, que genera un flujo de imágenes en movimiento codificadas, especialmente a un aparato, y similares, que genera un flujo sobre el cual se puede llevar a cabo unareproducción trucada tal como reproducción a saltos, reproducción a velocidad variable, reproducción inversa ysimilares.
Técnica anterior
Recientemente, ha llegado la era de los multimedios en la cual el sonido, las imágenes y otros valores de píxeles se integran en un medio, y los medios de información convencionales, como las herramientas de comunicación talescomo periódicos, revistas, televisión, radio y teléfono se consideran como destinos de multimedios. Generalmente,los multimedios son una forma de representación simultánea no solamente de caracteres sino también de gráficos,sonido y especialmente imágenes. Con el fin de gestionar los medios de información convencionales anteriormentedescritos como multimedios, es un requisito representar la información digitalmente.
Sin embargo, no es realista procesar directamente una gran cantidad de información de manera digital usando losmedios de información convencionales anteriormente descritos porque, cuando se calcula la cantidad de datos decada medio de información descrito anteriormente como cantidad de datos digitales, la cantidad de datos porcarácter es de 1 a 2 octetos, mientras que la del sonido por segundo no es inferior a 64 kbits (calidad vocaltelefónica) y la de las imágenes en movimiento por segundo no es inferior a 100 Mbits (actual calidad de recepción de televisión). Por ejemplo, ya es comercialmente práctico un teléfono con televisión, gracias a la Red Digital deServicios Integrados (ISDN), con una velocidad de transmisión de 64 kbps a 1,5 Mbps, pero es imposible transmitirimágenes móviles de cámara de televisión cuando se usa ISDN.
Por este motivo es necesaria la técnica de compresión de la información. Por ejemplo, una norma de técnica decompresión de imágenes en movimiento de H. 261 o H. 263, recomendada por la Unión Internacional de las Telecomunicaciones - Sector de Normalización de las Telecomunicaciones (ITU-T), se usa para los teléfonos contelevisión. Igualmente, con la técnica de compresión de la información de la norma MPEG-1, es posible almacenarinformación de imágenes, junto con información de sonido, en un CD (disco compacto) normal para música.
Aquí, el Grupo de Expertos en Imágenes en Movimiento (MPEG) es una norma internacional para comprimirdigitalmente señales de imágenes en movimiento, y ha sido normalizada por la ISO / IEC (la Organización Internacional de Estandarización / Consorcio Internacional de Ingeniería). MPEG-1 es la norma para comprimirseñales de imágenes en movimiento a 1,5 Mbps, es decir, para comprimir información de señal de televisión enaproximadamente una centésima parte. Igualmente, la calidad que satisface la norma MPEG-1 es el nivel medio quese puede realizar a una velocidad de transmisión de aproximadamente 1,5 Mbps. De este modo MPEG-2 se normaliza para satisfacer la necesidad de una mayor calidad de imagen, y comprime las señales de imágenes en movimiento hasta entre 2 y 15 Mbps. Actualmente, el grupo de trabajo (ISO / IEC JTC1 / SC29 / WG11), quenormalizó MPEG-1 y MPEG-2, ha normalizado MPEG-4 con una mayor tasa de compresión. La norma MPEG-4 (i) consigue una tasa de compresión superior a las de la norma MPEG-1 y la norma MPEG-2, (ii) permite codificar,descodificar y realizar operaciones objeto por objeto y (iii) realiza nuevas funciones necesarias en esta era demultimedios. El objeto inicial de la norma MPEG-4 es normalizar un procedimiento de codificación de imágenes con bajas velocidades de bits, pero el objeto se extiende a un procedimiento de codificación de propósito general deimágenes entrelazadas con tasas de bits elevadas. Después de esto, ISO / IEC y ITU / T, en combinación, hannormalizado la AVC (codificación de vídeo avanzada) de MPEG-4 como un procedimiento de codificación deimágenes de la próxima generación, de imágenes con una tasa de compresión elevada. Se espera que se use paralos aparatos relacionados con los discos ópticos de la próxima generación, o en la difusión para terminales móviles.
Generalmente, en la codificación de las imágenes móviles, la cantidad de información se comprime reduciendo lasredundancias temporales y espaciales. En la codificación de predicción interimágenes, dirigida a reducir las redundancias temporales, la generación de imágenes de estimación y predicción de movimiento se lleva a cabobloque por bloque con referencia a una imagen anterior o una imagen posterior, y la codificación se lleva a cabosobre el valor diferencial entre la imagen de predicción obtenida y la imagen a codificar. En esta memoria, el término “Imagen” usado es un término que representa una imagen. En una imagen progresiva, una imagen significa una trama, pero, en una imagen entrelazada, significa una trama o un campo. El término “imagen entrelazada” descritoaquí significa una trama compuesta por dos campos con un ligero retardo temporal. En los procedimientos decodificación y descodificación de imágenes entrelazadas, es posible procesar una trama como es, como doscampos, o trama por trama o campo por campo de cada bloque en una trama.
La imagen para llevar a cabo la codificación intra-predicción sin hacer referencia a ninguna imagen de referencia sedenomina Imagen Intra-codificada (imagen I). Igualmente, la imagen para llevar a cabo la codificación interpredicción que se refiere a solamente una imagen se denomina Imagen predictiva codificada (imagen P). Igualmente, la imagen para llevar a cabo la codificación inter-predicción que se refiere a dos imágenes de referenciasimultáneamente se denomina Imagen codificada Bipredictiva (imagen B). Una imagen B se puede referir a dos imágenes seleccionadas como una combinación arbitraria de una imagen posterior y una imagen anterior en tiempode visualización. Tales dos imágenes de referencia se pueden especificar bloque por bloque, siendo el bloque unaunidad básica de codificación y descodificación. Esas imágenes de referencia se distinguen las unas de las otras dela siguiente manera: la imagen de referencia descrita anteriormente en el flujo codificado de bits se denominaprimera imagen de referencia, y la otra imagen de referencia, descrita más tarde, se llama segunda imagen de
referencia. Obsérvese que tales imágenes de referencia deben haber sido ya codificadas o descodificadas paracodificar o descodificar imágenes P e imágenes B.
La codificación inter-predicción de compensación de movimiento se usa para codificar imágenes P e imágenes B. Lacodificación intra-predicción de compensación de movimiento es un procedimiento de codificación intra-predicciónen el cual se aplica la compensación de movimiento. La compensación de movimiento es un procedimiento para mejorar la precisión de predicción y reducir la cantidad de datos evaluando la cantidad de movimiento (en losucesivo denominada vector de movimiento) de cada bloque de una imagen y llevando a cabo la codificación depredicción que considera el vector de movimiento. Por ejemplo, la cantidad de datos se reduce evaluando losvectores de movimiento de las imágenes a codificar y codificando cada residuo de predicción entre cada valor depredicción que está desplazado en la cantidad de cada vector de movimiento y cada imagen actual a codificar. En elcaso de este procedimiento, puesto que la información del vector de movimiento es necesaria en la descodificación,los vectores de movimiento también se codifican, y se graban o se transmiten.
Los vectores de movimiento se evalúan macrobloque por macrobloque. Más específicamente, se evalúan losvectores de movimiento fijando el macrobloque de una imagen a codificar, moviendo el macrobloque de una imagen de referencia dentro del intervalo de búsqueda, y encontrando la ubicación del bloque de referencia que sea más cercano al bloque estándar.
Las FIG. 1A y 1B son, respectivamente, diagramas estructurales de flujos MPEG-2 convencionales. Como se muestra en la FIG. 1B, un flujo MPEG-2 tiene una estructura jerárquica como la que se describirá en lo sucesivo. Unflujo se compone de un Grupo de Imágenes (denominado GOP en lo sucesivo). El uso de un GOP como unidadbásica en el procesamiento de codificación permite editar una imagen en movimiento o llevar a cabo un accesoaleatorio. Un GOP se compone de imágenes I, imágenes P e imágenes B. Un flujo, un GOP y una imagen incluyenademás, una señal síncrona (sinc) que indica una frontera de unidades y un encabezamiento que indica los datoscomunes en las unidades, siendo las unidades aquí un flujo, un GOP y una imagen, respectivamente.
Las FIG. 2A y 2B muestran respectivamente ejemplos que indican la manera de llevar a cabo la codificación depredicción inter-imagen que se usa en MPEG-2. Las imágenes diagonalmente sombreadas en la figura son aquellas imágenes a las que han de referirse otras imágenes. Como se muestra en la FIG. 2A, en la codificación de predicción en MPEG-2, las imágenes P (P0, P6, P9, P12 y P15) se pueden referir solamente a una única imagenseleccionada como una imagen I o una imagen P inmediatamente posterior en el tiempo de visualización.Igualmente, las imágenes B (B1, B2, B4, B5, B7, B8, B10, B11, B13, B14, B16, B17, B19 y B20) se pueden referir ados imágenes seleccionadas como una combinación de una imagen I o imagen P inmediatamente anterior y unaimagen I o imagen P inmediatamente posterior. Además, el orden de las imágenes a colocar en un flujo estádeterminado. Las imágenes I y una imagen P se colocan en el orden del tiempo de visualización, y cada imagen Bse coloca inmediatamente después de una imagen I a visualizar inmediatamente después de la imagen B oinmediatamente después de una imagen P. Como ejemplo estructural de un GOP, como se muestra en la FIG. 2B,las imágenes de I3 a B14 se agrupan en un solo GOP.
La FIG. 3A es un diagrama estructural de un flujo AVC de MPEG-4. No hay ningún concepto equivalente a un GOP en la AVC de MPEG-4. Sin embargo, ya que es posible construir una unidad accesible aleatoriamente equivalente aun GOP, segmentando los datos sobre la base de una imagen especial que se puede descodificar sin depender deotras imágenes, la unidad se denominará en lo sucesivo RAU (Unidad de Acceso Aleatorio). Dicho de otro modo,una unidad de acceso aleatorio RAU es un grupo de imágenes codificadas, que empieza con una imagen intracodificada, que se puede descodificar sin depender de ninguna imagen.
A continuación, se describirá más adelante la unidad de acceso que es una unidad básica en la gestión de un flujo(denominada simplemente AU en lo sucesivo). Una AU es la unidad para almacenar datos codificados equivalentesa una imagen, e incluye un conjunto PS de parámetros, datos de segmentos y similares. Hay dos tipos de conjuntosPS de parámetros. Uno de ellos es un conjunto PPS de parámetros de imágenes (denominados en lo sucesivo simplemente PPS) que son datos equivalentes al encabezamiento de cada imagen. El otro es un conjunto SPS de parámetros de secuencias (denominado en lo sucesivo simplemente SPS) que es equivalente al encabezamientoincluido en una unidad de un GOP o más en el MPEG-2. Un SPS incluye el número máximo de imágenes dereferencia, un tamaño de imagen y similares. Por otra parte, un PPS incluye un tipo de codificación de longitudvariable, un valor inicial de la etapa de cuantización, el número de imágenes de referencia y similares. A cada imagen se le asigna un identificador que indica a cuál de los PPS y SPS anteriormente descritos se hace referencia.Igualmente, un número FN de trama, que es el número de identificación para identificar una imagen incluida endatos de segmentos. Obsérvese que una secuencia empieza con una imagen especial en la cual todos los estadosnecesarios para descodificar se reinician como se describirá más adelante, y que se compone de un grupo deimágenes que empieza con una imagen especial y termina con una imagen que se coloca inmediatamente antes de la siguiente imagen especial.
Hay dos tipos de imágenes I en la AVC de MPEG-4. Hay un Refresco de Descodificador Instantáneo (IDR) y el resto.Una imagen de IDR es la imagen I que puede descodificar todas las imágenes colocadas después de la imagen IDRen un orden de descodificación, sin referirse a las imágenes colocadas antes de la imagen IDR en el orden dedescodificación; dicho de otro modo, es la imagen I en la cual se reinician los estados necesarios para ladescodificación. Una imagen IDR corresponde a la imagen I superior de un GOP cerrado de MPEG-2 Una secuenciaen la AVC de MPEG-4 empieza con una imagen IDR. En el caso de una imagen I que no sea una imagen IDR, unaimagen colocada después de la imagen I en el orden de descodificación se puede referir a una imagen colocadaantes de la imagen I en el orden de descodificación. Los tipos de imágenes respectivos se definirán en lo sucesivo.Una imagen IDR y una imagen I son las imágenes que se componen solamente de segmentos I. Una imagen P es la imagen que puede estar compuesta por segmentos P y segmentos I. Una imagen B es la imagen que se puedecomponer de segmentos B, segmentos P y segmentos I. Obsérvese que los segmentos de una imagen IDR sealmacenan en una unidad NAL (Capa de Abstracción de Red) cuyo tipo es diferente del de la unidad NAL donde sealmacenan los segmentos de una imagen no-IDR. Aquí, una unidad NAL es una unidad de subimagen.
En una AU en la AVC de MPEG-4, no solamente pueden incluirse los datos necesarios para descodificar, sinotambién la información suplementaria y la información de frontera de la AU. Tal información suplementaria sedenomina Información Potenciadora Suplementaria (SEI) y es innecesaria para descodificar datos de segmentos. Todos los datos tales como un conjunto PS de parámetros, datos de segmentos y una SEI, se almacenan en unaunidad de Capa de Abstracción de Red (NAL), es decir, la NALU. Una unidad NAL se compone de un encabezamiento y una carga útil. Un encabezamiento incluye un campo que indica el tipo de datos a almacenar (enlo sucesivo denominado tipo de unidad NAL). Los valores de los tipos de unidad NAL se definen respectivamentepara los tipos de datos tales como un segmento o una SEI. La referencia a tal valor de un tipo de unidad NALpermite identificar el tipo de datos a almacenar en la unidad NAL. El encabezamiento de una unidad NAL incluye uncampo denominado nal_ref_idc. Se define que un campo nal_ref_idc es un campo de 2 bits y adopta un valor de 0,1 ó más, según los tipos de unidades NAL. Por ejemplo, la unidad NAL de un SPS o un PPS adopta el valor 1 omás. En el caso de la unidad NAL de un segmento, un segmento al que se refieren los otros segmentos adopta elvalor 1 o más, mientras que el segmento al que no se hace referencia adopta el valor 0. Igualmente, la unidad NALde una SEI siempre toma el valor 0.
Uno o más mensajes de SEI se pueden almacenar en la unidad NAL de una SEI. Un mensaje SEI se compone de un encabezamiento y una carga útil, y el tipo de información a almacenar en la carga útil se identifica mediante eltipo de un mensaje SEI indicado en el encabezamiento. La descodificación de una AU significa descodificar losdatos de segmentos en una AU, y visualizar una AU significa visualizar el resultado de descodificación de los datosde segmentos en la AU en lo que sigue.
Aquí, puesto que una unidad NAL no incluye información para identificar una frontera de unidad NAL, es posibleañadir información de frontera a la parte superior de cada unidad NAL en el momento de almacenar una unidad NALcomo una AU. En la gestión de un flujo de AVC de MPEG-4 en un Flujo de Transporte (TS) de MPEG-2 o un Flujode Programa (PS) de MPEG-2, un prefijo de código de inicio, mostrado como 3 octetos de 0x000001, se añade a laparte superior de una unidad NAL. Igualmente se define que una unidad NAL que indica una frontera de AU se debeinsertar en la parte superior de una AU en un TS o PS de MPEG-2, tal como una AU denominada Delimitador de Unidad de Acceso.
Convencionalmente, se han propuesto diversos tipos de técnicas relacionados, como este, con la codificación deimágenes en movimiento (Por ejemplo, remítase al Documento de Patente 1).
Documento de Patente 1: Publicación japonesa de Patente Abierta a Inspección Pública Nº 2003-18549.
La FIG. 4 es un diagrama en bloques de un aparato convencional de codificación de imágenes en movimiento.
El aparato 1 de codificación de imágenes en movimiento es un aparato que produce un flujo codificado Str obtenidoconvirtiendo, a través de la codificación por compresión, una señal EntradaV de vídeo de entrada, a introducir en unflujo de bits de un flujo codificado de longitud variable, o similar. El aparato de codificación de imágenes enmovimiento incluye una unidad PTYPE de determinación de estructura de predicción, una unidad ME de estimaciónde vector de movimiento, una unidad MC de compensación de movimiento, una unidad Restar de resta, una unidad T de transformada ortogonal, una unidad Q de cuantización, una unidad IQ de cuantización inversa, una unidad ITde transformada ortogonal inversa, una unidad Sumar de suma, una memoria de imagen MemImag, un conmutadory una unidad VLC de codificación de longitud variable.
La señal EntradaV de vídeo de entrada se introduce en la unidad de resta Restar y la unidad ME de estimación devector de movimiento. La unidad Restar de resta calcula el valor diferencial entre la señal EntradaV de vídeo de entrada introducida y la imagen de predicción, y la emite hacia la unidad de transformada ortogonal. La unidad T detransformada ortogonal convierte el valor diferencial en un coeficiente de frecuencias, y lo emite hacia la unidad Q decuantización. La unidad Q de cuantización lleva a cabo la cuantización sobre el coeficiente de frecuencia introducido, y emite un valor Qcoef de cuantización hacia la unidad de codificación de longitud variable.
La unidad IQ de cuantización inversa realiza la cuantización inversa sobre el valor Qcoef de cuantización para reconstruir el coeficiente de frecuencia, y lo emite hacia la unidad IT de transformada ortogonal inversa. La unidad ITde transformada ortogonal inversa lleva a cabo la transformada de frecuencia inversa para transformar el coeficientede frecuencia en un valor diferencial de píxeles, y lo emite hacia la unidad Sumar de suma. La unidad Sumar desuma añade el valor diferencial de píxeles a la imagen de predicción, a emitir desde la unidad MC de compensaciónde movimiento, para realizar una imagen descodificada. El conmutador SW se enciende cuando se instruye elalmacenamiento de la imagen descodificada, y la imagen descodificada se almacena en la memoria de imagenMemImag.
Por otra parte, la unidad ME de estimación de vector de movimiento, en la cual se introduce una señal EntradaV devídeo de entrada macrobloque por macrobloque, busca la imagen descodificada almacenada en la memoria deimagen MemImag, y estima el área de imagen que sea más cercana a la señal de imagen de entrada, y en consecuencia determina el vector MV de movimiento que indica la posición. La estimación del vector de movimientose lleva a cabo bloque por bloque, siendo el bloque una parte segmentada de un macrobloque. Puesto que sepueden usar diversas imágenes como imágenes de referencia en este momento, los números de identificación paraespecificar imágenes a las cuales referirse (índices relativos) son necesarios bloque por bloque. Resulta posibleespecificar imágenes de referencia calculando los números de imagen indicados por los índices relativos, siendo tales números de imagen asignados a las imágenes respectivas en una memoria de imagen MemImag.
La unidad MC de compensación de movimiento selecciona el área de imagen que es óptima como imagen depredicción a partir de las imágenes descodificadas almacenadas en la memoria de imagen MemImag.
La unidad PTYPE de determinación de estructura de predicción instruye a la unidad ME de estimación de vector demovimiento y a la unidad MC de compensación de movimiento para llevar a cabo la codificación intra-imagen sobre
la imagen de destino, como imagen especial accesible aleatoriamente, usando su tipo TipoI de imagen, en el casoen que una imagen de inicio de unidad de acceso aleatorio, EntradaRAU, indica que la unidad RAU de accesoaleatorio empieza con la imagen actual, e instruye a la unidad VLC de codificación de longitud variable para codificarel tipo TipoI de imagen.
La unidad VLC de codificación de longitud variable lleva a cabo la codificación de longitud variable sobre el valor Qcoef de cuantización, el índice relativo Índice, el tipo TipoI de imagen y el vector MV de movimiento para formar unflujo codificado Flujo.
La FIG. 5 es un diagrama en bloques de un aparato 2 convencional de descodificación de imágenes en movimiento.Este aparato 2 de descodificación de imágenes en movimiento incluye una unidad VLD de descodificación delongitud variable, una memoria MemImag de imagen, una unidad MC de compensación de movimiento, una unidad Sumar de suma, una unidad IT de transformada ortogonal inversa y una unidad IQ de cuantización inversa.Obsérvese que, en la figura, a estas unidades de procesamiento que realizan las mismas operaciones que lasunidades de procesamiento en un aparato convencional de codificación de imágenes en movimiento, según se muestra en el diagrama en bloques de la FIG. 4, se les asignan los mismos números de referencia, y se omitirán lasdescripciones acerca de las mismas.
La unidad VLD de descodificación de longitud variable descodifica un flujo codificado Flujo, y emite el valor Qcoefde cuantización, el índice relativo Índice, el tipo TipoI de imagen y el vector MV de movimiento. El valor Qcoef de cuantización, el índice relativo Índice y el vector MV de movimiento se introducen en la memoria MemImag deimagen, la unidad MC de compensación de movimiento y la unidad IQ de cuantización inversa, respectivamente, y acontinuación se lleva a cabo el procesamiento de descodificación sobre los mismos. Tales operaciones de un aparato convencional de codificación de imágenes en movimiento ya se han descrito usando el diagrama en bloquesde la FIG. 4.
Una unidad RAU de acceso aleatorio muestra que la descodificación se puede llevar a cabo empezando con la AUsuperior en la unidad de acceso aleatorio. Sin embargo, puesto que un flujo convencional de AVC de MPEG-4 permite estructuras de predicción muy flexibles, un aparato de almacenamiento con un disco óptico o un disco rígido no puede obtener información para determinar las AU a descodificar o visualizar en el momento de la reproducción avelocidad variable o reproducción inversa.
Las FIG. 6A y 6B son ejemplos de las estructuras de predicción de las AU. Aquí, se almacena una imagen en cadaAU. La FIG. 6A es la estructura de predicción de las AU usada en un flujo MPEG-2. Las imágenes sombreadasdiagonalmente en la figura son imágenes de referencia para otras AU. En el MPEG-2 las AU de las imágenes P (P4 y P7) pueden llevar a cabo la codificación de predicción refiriéndose solamente a una única AU seleccionada como la AU de una imagen I o imagen P inmediatamente posterior en el tiempo de visualización. Igualmente, las AU de lasimágenes B (B1, B2, B3, B5 y B6) pueden llevar a cabo la codificación de predicción refiriéndose solamente a dosAU seleccionadas como una combinación de las AU de una imagen I o imagen P inmediatamente posterior y unaimagen I o imagen P inmediatamente anterior en el tiempo de visualización. Además, el orden de las imágenes a colocar en un flujo se predetermina de la siguiente manera: las AU de una imagen I y las imágenes P se colocan enel orden del tiempo de visualización; y cada una de las AU de imágenes B se coloca inmediatamente después de lasAU de la imagen I o una de las imágenes P que se coloca inmediatamente después de la AU de cada imagen B. Enconsecuencia, la descodificación se puede llevar a cabo de las tres siguientes maneras: (1) todas las imágenes sedescodifican; (2) solamente las AU de una imagen I e imágenes P se descodifican y visualizan; y (3) solamente la AU de una imagen I se descodifica y visualiza. Por lo tanto, los tres siguientes tipos de reproducción se puedenllevar a cabo fácilmente usando: (1) reproducción normal, (2) reproducción de velocidad media, y (3) reproducción a alta velocidad.
En la AVC de MPEG-4, se puede llevar a cabo la predicción donde la AU de una imagen B se refiere a la AU de unaimagen B. La FIG. 6B es un ejemplo de estructura de predicción en un flujo de AVC de MPEG-4, y las AU de imágenes B (B1 y B3) se refieren a la AU (B2) de la imagen B. En este ejemplo, se pueden llevar a cabo los cuatrosiguientes tipos de descodificación o visualización: (1) todas las imágenes se descodifican; (2) solamente las AU, deuna imagen I, imágenes P e imágenes B, a las que se hace referencia, se descodifican y visualizan; (3) solamentelas AU de una imagen I, y las imágenes P son descodificadas y visualizadas; (4) solamente la AU de una imagen Ise descodifica y visualiza.
Además, en la AVC de MPEG-4, la AU de una imagen P se puede referir a la AU de una imagen B. Como semuestra en la FIG. 7, la AU de una imagen P (P7) se puede referir a la AU de una imagen B (B2). En este caso, laAU de una imagen P (P7) se puede descodificar solamente después de que se haya descodificado la AU de unaimagen B (B2). Por lo tanto, los tres siguientes tipos de descodificación o visualización se pueden llevar a cabo: (1)todas las imágenes se descodifican; (2) solamente las AU, de una imagen I, imágenes P e imágenes B, a las que se hace referencia, se descodifican y visualizan; (3) solamente la AU de una imagen I se descodifica y visualiza.
De esta manera, puesto que se permiten diversas estructuras de predicción en la AVC de MPEG-4, se debe realizar el análisis de los datos de segmentos y la evaluación de la estructura de la predicción para conocer la relación de referencia entre las AU. Esto conlleva un problema: las AU a descodificar o visualizar no se pueden determinarbasándose en una regla que se predetermina según una velocidad de reproducción en el momento de llevar a cabo la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa, a diferencia del caso delMPEG-2.
El documento EP-A-756 281 revela un aparato de generación de flujo de imágenes en movimiento en el cual lainformación de posición de tramas I y P, requerida para modalidades de reproducción trucada, se graba en un sectorde entrada formado en la parte superior de cada GOP.
Divulgación de la invención
Un objeto de la presente invención es proporcionar (i) un aparato de generación de flujos de imágenes en movimiento, que sea capaz de generar un flujo de imágenes en movimiento que puedan llevar a cabo una reproducción trucada tal como reproducción a saltos, reproducción a velocidad variable y reproducción inversa,incluso en el caso de un procedimiento de codificación como la AVC de MPEG-4, que permite estructuras de predicción flexibles.
La presente invención proporciona un aparato de generación de flujos de imágenes en movimiento, unprocedimiento de generación de flujos de imágenes en movimiento, un aparato de descodificación de imágenes enmovimiento, un procedimiento de descodificación de imágenes en movimiento, un medio de grabación legible porordenador, un procedimiento de grabación y un sistema de descodificación de imágenes en movimiento, según lo definido, respectivamente, en las reivindicaciones.
Como se ha descrito hasta este punto, con la presente invención, se pueden determinar las AU a descodificar en eltiempo de la reproducción trucada, tal como la reproducción a velocidad variable y la reproducción inversa,refiriéndose a una unidad específica NAL en la AU superior de una unidad RAU de acceso aleatorio. Por lo tanto, sepuede realizar fácilmente un aparato de descodificación de imágenes en movimiento con una función excelente de reproducción trucada y, de este modo, la presente invención es sumamente práctica.
Breve descripción de los dibujos
Estos y otros objetos, ventajas y características de la invención devendrán evidentes a partir de la siguientedescripción, considerada conjuntamente con los dibujos anexos, que ilustran una realización específica de la invención. En los dibujos:
las FIG. 1A y 1B son diagramas que muestran, respectivamente, estructuras de flujo MPEG-2 de una técnica anterior;
las FIG. 2A y 2B son diagramas que muestran, respectivamente, estructuras de GOP de MPEG-2 de una técnicaanterior;
las FIG. 3A y 3B son diagramas que muestran, respectivamente, estructuras de flujo MPEG-4 de una técnica anterior;
la FIG. 4 es un diagrama en bloques que muestra la estructura de un aparato de codificación convencional;
la FIG. 5 es un diagrama en bloques que muestra la estructura de un aparato de descodificación convencional;
las FIG. 6A y 6B son diagramas que muestran, respectivamente, ejemplos de la estructura de predicción en un flujo convencional de AVC de MPEG-4;
la FIG. 7 es un diagrama que muestra otro ejemplo de la estructura de predicción en un flujo convencional de AVCde MPEG-4;
Las FIG. 8A y 8B son diagramas que muestran, respectivamente, estructuras de flujos de AVC de MPEG-4 de la presente invención;
las FIG. 9A a 9D son diagramas de un primer ejemplo que muestra las AU a descodificar en una unidad RAU de acceso aleatorio;
las FIG. 10A a 10D son diagramas de un segundo ejemplo que muestra las AU a descodificar en una unidad RAU deacceso aleatorio;
las FIG. 11A a 11C son diagramas de un tercer ejemplo que muestra las AU a descodificar en una unidad RAU deacceso aleatorio;
las FIG. 12A a 12F son diagramas de un ejemplo que muestra el procedimiento para especificar las AU a descodificar en una unidad RAU de acceso aleatorio;
la FIG. 13A es un diagrama que muestra un ejemplo de sintaxis de una tabla que indica información de reproduccióna velocidad variable, y la FIG. 13B es un diagrama que muestra una unidad de almacenamiento de datos;
la FIG. 14 es un diagrama de un ejemplo de extensión de una tabla que indica información de reproducción a velocidad variable;
las FIG. 15A a 15C son diagramas de un ejemplo que muestra las AU de la imagen I y la imagen P en una unidadRAU de acceso aleatorio en forma de información de reproducción a velocidad variable;
las FIG. 16A a 16C son diagramas de un ejemplo donde el tiempo de detención en memoria temporal se usa comoindicador de prioridades en el momento de la utilización de las prioridades de las AU como información de reproducción a velocidad variable;
las FIG. 17A y 17B son diagramas que muestran respectivamente ejemplos en los cuales las AU de estructura detrama y las AU de estructura de campo coexisten en las RAU respectivas; la FIG. 17C es un diagrama que muestrael ejemplo de sintaxis del primer mapa (RAU_map1) que muestra la estructura de cada AU en la RAU; la FIG. 17Des un diagrama que muestra el RAU_map1 de la RAU de la FIG. 17B; la FIG. 17E es un diagrama que muestra el
RAU_map en cuanto a la unidad RAU de acceso aleatorio de la FIG. 17B; la FIG. 17F es un diagrama que muestrael ejemplo de sintaxis del segundo mapa (RAU_map2) que muestra el tipo de codificación de cada trama o cadaimagen de un par de campos;
las FIG. 18A a 18C son diagramas que muestran otro mapa ejemplar en forma de información de reproducción;
la FIG. 19 es un diagrama del procedimiento para indicar la información de frontera en una unidad RAU de acceso aleatorio; las FIG. 20A y 20B son diagramas que muestran ejemplos de estructuras de predicción de imágenes en una unidad
RAU de acceso aleatorio;
la FIG. 21 es un diagrama en bloques que muestra la estructura de un aparato de codificación de imágenes en movimiento de la presente invención; la FIG. 22 es un diagrama de flujo de un procedimiento de codificación de imágenes en movimiento; la FIG. 23 es un diagrama de bloques que muestra la estructura de un aparato de multiplexado de imágenes en
movimiento de la presente invención; las FIG. 24A y 24B son diagramas que muestran contenidos ejemplares de la Ayuda de la información de soporte; la FIG. 25 es un diagrama que muestra un ejemplo de una unidad NAL en la cual la información de reproducción
trucada se almacena en la Ayuda de la información de soporte;
la FIG. 26 es un diagrama de flujo que muestra el funcionamiento de un aparato de multiplexado de imágenes en movimiento; la FIG. 27 es un diagrama en bloques que muestra la estructura de un aparato de descodificación de imágenes en
movimiento de la presente invención; la FIG. 28 es un diagrama de flujo de un procedimiento convencional de descodificación de imágenes; la FIG. 29 es un diagrama de flujo de determinación de las AU a descodificar en el procedimiento de descodificación
de imágenes en movimiento de la presente invención; la FIG. 30 es un diagrama de flujo que muestra el procesamiento realizado en el caso en el cual las AU a
descodificar no coinciden con las AU a visualizar en el procedimiento de descodificación de imágenes en movimiento de la presente invención; la FIG. 31 es un diagrama que muestra una jerarquía de datos de una unidad HD-DVD; la FIG. 32 es un diagrama estructural del espacio lógico sobre una unidad HD-DVD; la FIG. 33 es un diagrama estructural de un archivo de información de un objeto VOB de vídeo; la FIG. 34 es un diagrama de un mapa temporal; la FIG. 35 es un diagrama estructural de un fichero de lista de reproducción; la FIG. 36 es un diagrama estructural de un fichero de programa que corresponde a la lista de reproducción; la FIG. 37 es un diagrama estructural que muestra un fichero de información de gestión de todo el disco Blue-Ray
BD; la FIG. 38 es un diagrama estructural de un fichero para grabar un gestor global de sucesos; la FIG. 39 es un diagrama en bloques que muestra el esbozo de un reproductor de HD-DVD; y las FIG. 40A a 40C son diagramas que muestran un medio de grabación para almacenar el programa a fin de
realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación deimágenes en movimiento de la presente invención
Mejor modo de realizar la invención
Se describirá en lo sucesivo una realización de la presente invención con referencia a las figuras.
(Estructura de un flujo AVC)
En primer lugar, la estructura de un flujo AVC a generar por un aparato de generación de flujos de imágenes enmovimiento, un aparato de codificación de imágenes en movimiento y un aparato de multiplexado de imágenes enmovimiento de la presente invención; dicho de otro modo, se describirá un flujo AVC a introducir en un aparato de descodificación de imágenes en movimiento de la presente invención.
La FIG. 8A y la FIG. 8B muestran, respectivamente, las estructuras de flujos AVC de la presente invención.Obsérvese que la información de frontera a añadir a la parte superior de una unidad NAL no se muestra en la figura.El flujo AVC difiere de un flujo AVC convencional en cuanto a que se añade información de reproducción trucada,indicando dicha información de reproducción trucada las AU a descodificar en el momento de la reproducción 7 10
trucada, tal como la reproducción a saltos, la reproducción de velocidad variable y la reproducción inversa. La información de reproducción trucada se almacena en una unidad NAL para almacenar información de reproducción(FIG. 8A). En la AVC de MPEG-4, la relación entre la información a almacenar y el tipo de unidad NAL de una unidadNAL específica se puede establecer por aplicación. Más específicamente, pueden usarse los valores de 0 y 24 a 31,y estos tipos de unidad NAL se denominan tipos de unidad NAL ajustables por usuario. En consecuencia, la información de reproducción trucada se almacena en la unidad NAL que tiene tales tipos de unidad NAL ajustablespor usuario. Aquí, en el caso en el cual los tipos de unidad NAL específicos se reservan para almacenar lainformación distinta de la información de reproducción trucada, los tipos de unidad NAL que son diferentes a lostipos de unidad NAL se asignan a la información de reproducción trucada. Las unidades NAL de la información dereproducción trucada se almacenan en la AU superior de una unidad RAU de acceso aleatorio. Tal unidad NAL se coloca inmediatamente después de una unidad NAL de PPS, si está presente, en una AU, pero se puede colocar enotra posición mientras el orden satisfaga el requisito de la AVC de MPEG-4 u otra norma. Igualmente, en el caso enel cual sea imposible interpretar la unidad NAL de información de reproducción trucada, los datos de la unidad NALse pueden saltar y reiniciar la descodificación desde la parte superior de la siguiente unidad NAL. Por lo tanto,incluso un terminal que no pueda interpretar la unidad NAL de información de reproducción trucada puede llevar a cabo el procesamiento de descodificación sin fallos.
Obsérvese que tal unidad NAL de información de reproducción trucada se puede incluir, no en la AU superior de unaunidad RAU de acceso aleatorio, sino en otra AU tal como la última AU. Igualmente, tal unidad NAL de informaciónde reproducción trucada se puede incluir en cada AU que constituya una unidad RAU de acceso aleatorio.
Las FIG. 9 a 11 muestran ejemplos de AU a descodificar en el momento de la reproducción a velocidad variable. La FIG. 9A muestra el orden de visualización de las AU. Aquí, las AU sombreadas diagonalmente son aquellas AU a lasque se refieren otras AU, y las flechas muestran imágenes a las que se hace referencia. Se asignan númerosnegativos de referencia a las AU a visualizar antes de 10, y se asignan números positivos de referencia a las AU avisualizar después de B15. La FIG. 9B muestra el orden de descodificación de las AU mostradas en la FIG. 9A, y 10 a B11 constituyen una unidad RAU de acceso aleatorio. En este momento, I0, -B14, P4, B2, P8, P6, P12 y B10 se descodifican para llevar a cabo una reproducción a doble velocidad (FIG. 9C), mientras que I0, P4, P8 y P12 sedescodifican para llevar a cabo una reproducción de cuádruple velocidad (FIG. 9D). Las FIG. 9C y 9D muestran quelas AU con un signo * se han de descodificar en el momento de reproducción a doble velocidad y de reproducción decuádruple velocidad, y estos fragmentos de información se almacenan en la unidad NAL de la información dereproducción trucada. En el ejemplo de las FIG. 10A a 10D, las imágenes de 10 a B11 en el orden de descodificación constituyen una unidad RAU de acceso aleatorio. Aquí, I0, -B13, P3, B1, P6, B4, P9, B7, P12 y B10se descodifican para llevar a cabo una reproducción a una velocidad multiplicada por 1,5 mientras que I0, P3, P6, P9y P12 se descodifican para llevar a cabo una reproducción a triple velocidad. Igualmente, en el ejemplo de las FIG.11A a 11C, I0, P3, P6, P9 y P12 se descodifican para llevar a cabo una reproducción a triple velocidad.
Aquí las velocidades de reproducción no necesitan ser exactas porque se describen como directrices de las velocidades de reproducción. Por ejemplo, en el ejemplo de la FIG. 11C, en el caso en el cual se descodifican todaslas AU mostradas como las AU a descodificar en el momento de la reproducción a triple velocidad, la velocidad es3,2 veces superior a la obtenida a partir de la expresión: 16÷5; dicho de otro modo, no es exactamente una triplevelocidad. Igualmente, en el momento de la reproducción multiplicada por M, en el caso en el cual el menor valor porencima de M es N entre las velocidades de reproducción mostradas como información de reproducción trucada, es posible descodificar las AU necesarias para ser descodificadas en el momento de reproducción multiplicada por N, ydeterminar el modo en que el resto de las AU se deberían codificar, según la implementación del aparato dedescodificación. Igualmente, es posible colocar prioridades elevadas sobre las AU necesarias para serdescodificadas en el caso en el cual la velocidad de reproducción es rápida, y determinar las AU a descodificarsobre la base de las prioridades.
Obsérvese que algunas AU, entre las AU a descodificar en el momento de la reproducción de velocidad variable,pueden no visualizarse. Por ejemplo, se visualiza la N-ésima AU en el momento de la reproducción de doblevelocidad, pero no se visualiza la M-ésima AU. En este momento, en el caso en el cual existe una necesidad dedescodificar la M-ésima AU a fin de descodificar la N-ésima AU, la M-ésima AU se descodifica pero no se visualiza en el momento de la reproducción a doble velocidad.
A continuación, el procedimiento para especificar las AU a descodificar en el momento de reproducción a velocidadvariable se describirá con referencia a las FIG. 12A a 12F. Las FIG. 12A a 12F muestran los ejemplos de especificación de las AU a descodificar en la misma unidad RAU de acceso aleatorio que la de la FIG. 9. Como semuestra en la FIG. 12D, I0, -B14, P4, B2, P8, P6, P12, B10 se descodifican en el momento de la reproducción a doble velocidad. Estas AU son la primera, segunda, quinta, sexta, novena, décima, decimotercera y decimocuarta AU cuando se cuentan las AU a partir de la AU superior de la unidad RAU de acceso aleatorio. De esta manera, es posible especificar unívocamente las AU a descodificar en el momento de reproducción a velocidad variable mostrando los números ordinales de las AU en una unidad RAU de acceso aleatorio. Un delimitador de unidades de acceso se coloca seguramente en la parte superior de una AU en el momento de multiplexar un flujo de AVC por unflujo de transporte (TS) de MPEG-2. Cuando se obtienen datos de AU a descodificar en el momento de reproducción a velocidad variable, los delimitadores de unidades de acceso se buscan en secuencia para conocer los límites delas AU. Esta forma de procesamiento de búsqueda elimina la necesidad de analizar la carga útil de unidades NAL,tales como datos de segmentos, y por ello es más fácil.
Obsérvese que es posible especificar las AU a descodificar determinando que las AU a las que harán referenciaotras AU, tales como las AU de una imagen I e imágenes P (tales AU a las que se hará referencia se denominan AU de referencia), se descodifican en el momento de la reproducción a velocidad variable, y especificando los númerosordinales de las AU de referencia en una unidad RAU de acceso aleatorio. En la unidad RAU de acceso aleatorio de la FIG. 12B, como se muestra en la FIG. 12C, I0, -B14, P4, B2, P8, P6, P12 y B10 son AU de referencia. Igualmente,en el momento de la reproducción a doble velocidad, I0, -B14, P4, B2, P8, P6, P12, B10 se descodifican, perocuando se indican estas AU en el orden de las AU de referencia, corresponden a la primera, segunda, tercera,
cuarta, quinta, sexta, séptima y octava AU de referencia, como se muestra en la FIG. 12F. Si una AU es o no una AUde referencia puede evaluarse refiriéndose a un campo específico en el encabezamiento de la unidad NAL en unsegmento. Más específicamente, en el caso en el que el valor de un campo nal_ref_idc no es 0, la AU es una AU de referencia. Obsérvese que una AU de referencia a descodificar se puede especificar sobre la base de un número detrama, porque es posible identificar una AU de referencia sobre la base de un número de trama.
Además, es posible especificar las AU a descodificar especificando el valor desplazado equivalente a la longitud enoctetos, desde la posición de inicio de la AU superior de una unidad RAU de acceso aleatorio hasta la posición deinicio de la AU a descodificar. Por ejemplo, en las FIG. 12A a 12F, en el caso en que 10 se inicie con la posiciónalejada de la parte superior de un flujo en 10.000 octetos, y P4 se inicie con la posición alejada de P4 en 20.000octetos, el valor desplazado hasta P4 es de 10.000 octetos, obtenido a partir de la expresión: 20.000 – 10.000. En el caso en el cual se usa un flujo multiplexado en un TS de MPEG-2, es posible especificar un valor de desplazamientoque incluye el sobregasto del encabezamiento de un paquete de TS o un paquete de PES (Flujo elemental enpaquetes), o bien es posible especificar un valor desplazado que lo incluye en el momento de llevar a cabo el relleno de datos por aplicación. Igualmente, es posible especificar una AU por un número FN de trama.
Obsérvese que, en el caso de usar un flujo multiplexado en un TS de MPEG-2, es posible especificar las AU basándose en el número de paquetes TS a partir de (i) el paquete TS para almacenar el número de índice y lainformación de dirección para identificar un paquete TS que incluye los datos superiores de las AU a descodificar, olos datos superiores de la unidad RAU de acceso aleatorio a (ii) el paquete TS actual. Aquí, es posible utilizar lainformación sobre el Paquete de Origen a utilizar para un formato de grabación de un disco Blu-ray (BD) en lugar deun paquete TS. El Paquete de Origen se obtiene añadiendo, a un paquete TS, un encabezamiento de 4 bytes que incluye información temporal del paquete TS, información de control de copia y similares.
La FIG. 13A es un ejemplo de sintaxis de una tabla que indica la información para la reproducción a velocidadvariable. En la sintaxis, nro_imag_en_RAU muestra el número de las AU que constituyen una unidad RAU deacceso aleatorio, nro_velocidad muestra el número de velocidades de reproducción a las cuales las AU han dedescodificarse, velocidad_reproducción muestra una velocidad de reproducción, nro_imag_desc muestra el número de las AU a descodificar en el momento de la reproducción a una velocidad de reproducción mostrada en velocidad_reproducción, imag_desc muestra los números ordinales de las AU a descodificar en el caso de contar lasAU a partir de la AU superior en una unidad RAU de acceso aleatorio. La FIG. 13B es un ejemplo en el caso dealmacenar información sobre las AU a descodificar en una unidad RAU de acceso aleatorio mostrada en las FIG. 9A a 9D en el momento de una reproducción a doble velocidad y una reproducción a cuádruple velocidad. Obsérvese que nro_imag_en_RAU se usa en el momento de calcular una velocidad de reproducción exacta basada en elnúmero de las AU a descodificar y el número total de las AU en una unidad RAU de acceso aleatorio, o de saltar enbase a unidades RAU de acceso aleatorio en secuencia. Sin embargo, nro_imag_en_RAU se puede omitir porque lamisma información se puede obtener buscando las AU superiores de las unidades RAU de acceso aleatorio.Igualmente, se puede añadir a la tabla un campo que indica el tamaño de una tabla. Obsérvese que, en el ejemplo de sintaxis de la FIG. 13A, el número ordinal de una AU a descodificar, contando desde la parte superior de unaunidad RAU de acceso aleatorio, se muestra directamente, pero si es necesario o no descodificar cada AU puedemostrarse activando o desactivando los bits correspondientes a cada AU. Por ejemplo, una unidad RAU de accesoaleatorio se compone de 16 AU en el ejemplo de las FIG. 9A a 9D, y se necesitan 16 bits cuando se asigna 1 bit a una AU. En el momento de la reproducción a cuádruple velocidad, se muestra que la primera, quinta, novena y decimotercera AU se descodifican asignando información de 16 bits que se representa como 0b1000100010001000 (0b indica un número binario). Aquí, el bit superior y el último bit corresponden, respectivamente, a la AU superior y ala última AU de una unidad RAU de acceso aleatorio.
Obsérvese que el tamaño de una tabla es variable en el ejemplo de sintaxis de la FIG. 13A. El valor máximo del tamaño de la tabla se determina en el caso donde se prescriben el valor máximo del número de las AU que constituyen una unidad RAU de acceso aleatorio y el valor máximo de nro_velocidad. En consecuencia, es posiblefijar el tamaño de la tabla en el valor máximo determinado y, en el caso donde el tamaño de la información para lareproducción a velocidad variable no alcance el valor máximo, es posible llevar a cabo el relleno. La fijación deltamaño de la tabla de esta manera hace posible obtener siempre los datos de un tamaño fijo cuando se obtiene lainformación de reproducción a velocidad variable, lo que permite acelerar el procesamiento de obtención de información. Obsérvese que el tamaño de tabla, o el tamaño de una unidad NAL para almacenar la tabla, se muestracomo información de gestión. Igualmente, es posible predeterminar el tamaño de una unidad NAL para almacenarinformación de reproducción trucada y, en el caso donde la información no se pueda almacenar en una única unidadNAL, es posible almacenar la información para la reproducción a velocidad variable en diversas unidades NAL porseparado. En este momento el relleno se lleva a cabo sobre la carga útil de la última unidad NAL, de manera que el tamaño de la unidad NAL se convierta en el tamaño predeterminado. Igualmente, algunos valores prescritos sedeterminan como los valores del tamaño de la tabla, y el número de índice que indica un valor prescrito del tamaño de la tabla se puede mostrar en la tabla, o usar la información de gestión de la aplicación.
Igualmente, es posible mostrar información diferencial en lugar de enumerar todas las AU a descodificar a cadavelocidad de reproducción. Como la información en el momento de la reproducción a una velocidad multiplicada por M (<N), solamente las AU necesarias para descodificar se muestran además de las AU a descodificar en elmomento de la reproducción a una velocidad multiplicada por N. En el ejemplo de la FIG. 13B, como la segunda,sexta, décima y decimocuarta AU, además de las AU a descodificar en el momento de la reproducción a velocidadcuádruple, se descodifican en el momento de la reproducción a doble velocidad, es posible mostrar solamente lasegunda, sexta, décima y decimocuarta AU como la información para la reproducción a doble velocidad.
Obsérvese que las AU necesarias a descodificar en el momento de la reproducción a velocidad variable se muestranen la descripción anterior, pero además, es posible mostrar la información que indica el orden de visualización delas AU necesarias a descodificar. Por ejemplo, la información en el momento de la reproducción a doble velocidad yla reproducción a velocidad cuádruple se muestra en el ejemplo de las FIG. 9A a 9D, pero hay un ejemplo dereproducción de esta unidad RAU de acceso aleatorio a triple velocidad. La visualización de una parte de las AU a
exhibir en el momento de reproducción a doble velocidad, además de las AU a visualizar en el momento de la reproducción a velocidad cuádruple, permite realizar una reproducción a triple velocidad. Aquí, cuando se considerael caso donde se visualizan una o más AU entre I0 y P4, que se han de visualizar en el momento de la reproduccióna cuádruple velocidad, la información para la reproducción a doble velocidad muestra que los candidatos son –B14,B2, B6 y B10. Sin embargo, el orden de visualización de estas cuatro AU se puede obtener solamente en el caso donde se analiza la información de encabezamiento de un segmento. Aquí, puesto que la información en el orden devisualización muestra que solamente –B14 se visualiza entre I0 y P4, es posible determinar que –B14 sea descodificada. La FIG. 14 es un ejemplo de sintaxis que indica la información sobre el orden de visualización, y seobtiene añadiendo la información sobre el orden de visualización a la sintaxis de la FIG. 13A. Aquí, ind_pts_dtsmuestra si el orden de descodificación de las AU a descodificar a la velocidad de reproducción coincide o no con el orden de visualización de las AU, y solamente en el caso donde el orden de descodificación no coincida con el ordende visualización, la información del orden de visualización se muestra en un campo orden_visualización.
Obsérvese que, en el caso de reproducción a una velocidad de reproducción que no es mostrada por la informaciónde reproducción a velocidad variable, es posible determinar las AU a descodificar y las AU a visualizar basándose en la regla que se predetermina en el terminal. Por ejemplo, en el caso de reproducción a triple velocidad en el ejemplo de la FIG. 9, es posible visualizar I0, B3, B6, B9 y P12 además de las AU a visualizar en el momento de lareproducción a cuádruple velocidad, en lugar de visualizar una parte de las AU a visualizar en el momento dereproducción a doble velocidad. Aquí, como en las imágenes B, las imágenes B en las AU de referencia pueden, preferiblemente, descodificarse o visualizarse.
Igualmente, hay un caso donde la reproducción trucada, tal como la reproducción a velocidad variable, se realiza reproduciendo solamente la AU de una imagen I o solamente las AU de una imagen I e imágenes P. Por lo tanto, sepuede almacenar una lista de una imagen I e imágenes P como información de reproducción trucada. Las FIG. 15Aa 15C muestran otro ejemplo. Aquí, las imágenes a partir de I0 a B14 se incluyen en una unidad RAU de accesoaleatorio como se muestra en la FIG. 15B y, entre esas, las AU de una imagen I e imágenes P son I0, P3, P6, P9,P12 y P15, como se muestra en la FIG. 15C. Por lo tanto, se almacena la información para identificar I0, P3, P6, P9, P12 y P15. En este momento, es posible añadir la información para distinguir la AU de una imagen I a partir de la AUde una imagen P. Igualmente, es posible mostrar la información para distinguir las siguientes imágenes entre sí,incluyendo las imágenes: una imagen I, imágenes P, imágenes B a servir de referencia (denominadas en lo sucesivoimágenes B de referencia), e imágenes B a las que no se hará referencia (denominadas en lo sucesivo imágenes Bde no-referencia).
Además, es posible almacenar la información de prioridad de las AU respectivas como información de reproduccióntrucada, y descodificar o visualizar las AU según las prioridades en el momento de la reproducción a velocidadvariable. Es posible utilizar tipos de imágenes como información de prioridad. Por ejemplo, las prioridades de las AUse pueden asignar en el siguiente orden de enumeración: (i) una imagen I; (ii) imágenes P; (iii) imágenes B dereferencia; y (iv) imágenes B de no-referencia. Igualmente, es posible establecer información de prioridad de la siguiente manera: cuanto mayor sea el tiempo entre el momento después de la descodificación de una AU y el momento de visualización de la AU, mayor deviene la prioridad. Las FIG. 16A a 16C muestran un ejemplo de ajustede las prioridades según el tiempo de detención en memoria temporal. La FIG. 16A muestra la estructura de predicción de las AU y a P3 se hace referencia también por parte de B7 y P9. En este momento, en el caso donde launidad RAU de acceso aleatorio se compone de las AU desde I0 a B11 (FIG. 16B), el tiempo de detención en memoria temporal de cada AU es como se muestra en la FIG. 16C. Aquí, el tiempo de detección en memoria temporal se muestra basado en el número de tramas. Por ejemplo, P3 es necesario hasta que se descodifica P9, yel tiempo de detención en memoria temporal debe ser equivalente a seis imágenes. Por lo tanto, la descodificaciónde las AU cuyo tiempo de detención en memoria temporal sea 3 o más significa la descodificación de toda la imagenI y todas las imágenes P, y se realiza la reproducción a triple velocidad. Aquí, el tiempo de detención en memoria temporal de P3 es superior al de I0, pero es posible añadir un valor de desplazamiento a la AU de la imagen I paracolocar la mayor prioridad sobre la AU de la imagen I. Igualmente, es posible colocar prioridades elevadas en las AUnecesarias a descodificar en el momento de la reproducción a alta velocidad y usar, como información de prioridad,N en las AU necesarias a descodificar en el momento de la reproducción a velocidad multiplicada por N. Obsérveseque, en el caso donde a una AU se hace referencia en otras AU después de ser descodificada o visualizada, es posible mostrar el periodo de tiempo durante el cual se hace referencia a la AU.
Obsérvese que la información de reproducción trucada se puede almacenar en un mensaje SEI (FIG. 8B). En estecaso, el tipo de mensaje SEI se define para la información de reproducción trucada, y la información de reproduccióntrucada se almacena en el mensaje SEI del tipo definido. El mensaje SEI para la información de reproduccióntrucada se almacena en la unidad NAL de la SEI, solo o junto con otros mensajes. Obsérvese que es posible almacenar información de reproducción trucada en el mensaje SEI user_data_registered_itu_t_t35 o en el mensajeSEI user_data_unregistered, que son mensajes SEI para almacenar la información definida por un usuario. En elmomento de usar estos mensajes SEI, es posible mostrar que la información de reproducción trucada se almacena,
o que el tipo de información de reproducción trucada en la parte de carga útil de una SEI, añadiendo información deidentificación de la información a almacenar.
Obsérvese que es posible almacenar información de reproducción trucada en las AU distintas a la AU superior enuna unidad RAU de acceso aleatorio. Igualmente, es posible predeterminar los valores para identificar las AUnecesarias a descodificar en el momento de la reproducción a una velocidad de reproducción específica y añadir losvalores determinados para cada AU. Por ejemplo, en lo relativo a las AU a descodificar a una velocidad dereproducción que sea una velocidad multiplicada por N, o inferior, N está dada como información de velocidad de reproducción. Igualmente, es posible mostrar lo siguiente en nal_ref_idc, y similares, de la unidad NAL de unsegmento: la estructura de la imagen en una AU, siendo la estructura una estructura de trama o una estructura decampo y, además, en el caso donde la imagen tenga una estructura de campo, es posible mostrar el tipo de campo,
o sea, un campo superior o un campo inferior. Por ejemplo, como existe una necesidad de visualizar alternadamentelos campos superiores y los campos superiores en el caso de la visualización entrelazada, es deseable que pueda evaluarse fácilmente que el campo a descodificar a continuación es un campo superior o un campo inferior en el
momento de descodificar campos, saltando algunos campos en el momento de la reproducción a alta velocidad. Enel caso donde el tipo de campo se puede evaluar a partir del encabezamiento de una unidad NAL, no hay necesidadde analizar el encabezamiento de segmentos y puede reducirse la magnitud de procesamiento necesaria para talevaluación.
Obsérvese que la información que indica si cada AU que constituye una unidad RAU de acceso aleatorio es un campo o una trama puede almacenarse en la AU superior de una unidad RAU de acceso aleatorio. Igualmente, esposible determinar fácilmente las AU a descodificar en el momento de la reproducción trucada, incluso en el casodonde una estructura de campo y una estructura de trama coexisten, almacenando tal información en la AU superiorde la unidad de acceso aleatorio. Las FIG. 17A y 17B son ejemplos donde las AU que tienen una estructura detrama y las AU que tienen una estructura de campo coexisten en la unidad RAU de acceso aleatorio, y muestran elorden de visualización de las AU y el orden de descodificación de las AU, respectivamente. Las siguientes imágenesse codifican, respectivamente, como pares de campos: B2 y B3; I4 y P5; B9 y B10; B11 y B12; P13 y P14; B15 y B16; B17 y B18; y P19 y P20. Igualmente, las otras AU se codifican como las AU que tienen una estructura detrama. En este momento, en el caso de reproducir solamente las AU de una imagen I e imágenes P, se puede descodificar y reproducir lo siguiente en el siguiente orden enumerado: el par de campos de I4 y P5; la trama de P8; el par de campos de P13 y P14; y el par de campos de P19 y P20. Sin embargo, la adición de tal información esefectiva porque hay una necesidad de evaluar si cada AU es uno de los campos que constituyen un par de campos
o si cada AU es una trama en el momento de determinar las AU a descodificar.
La FIG. 17C es un ejemplo de sintaxis del primer mapa (RAU_map1) que indica si una AU en una unidad RAU de acceso aleatorio es una trama o un campo. El número de las AU que constituyen una unidad de acceso aleatorio semuestra en nro_AU_en_RAU, y la información sobre cada AU se muestra en el siguiente bucle en un orden dedescodificación. Aquí, indicador_campo_trama muestra si la imagen a almacenar en un AU es una trama o uncampo. Igualmente, tipo_imag muestra la información sobre el tipo de codificación de una imagen. Los tipos decodificación que se pueden mostrar incluyen: una imagen I; una imagen IDR; una imagen P; una imagen B dereferencia; una imagen B de no-referencia; y similares. Por lo tanto, es posible determinar las imágenes a descodificar en el momento de la reproducción trucada refiriéndose a este mapa. Obsérvese que es posible indicarsi cada imagen I y cada imagen P son objeto de referencia o no. Además, es posible indicar la información paraevaluar si se aplica o no un requisito predeterminado en cuanto a las estructuras de predicción.
La FIG. 17D muestra el RAU_map1, que se refiere a una unidad RAU de acceso aleatorio de la FIG. 17B. Aquí, lostipo_imag de una imagen I, imágenes P, imágenes B de referencia, e imágenes B de no-referencia, son 0, 1, 2 y 3,respectivamente. Aquí, es posible almacenar la información que indica los tipos de codificación de imágenes sobrelas bases anteriormente enumeradas, porque las imágenes se reproducen trama a trama, o par de campos a par de campos, en el momento de la reproducción trucada.
La FIG. 17F es un ejemplo de sintaxis del segundo mapa (RAU_map2) que indica tipos de codificación de imágenestrama a trama o par de campos a par de campos. Aquí, nro_trama_en_RAU muestra el número de tramas que constituyen una unidad RAU de acceso aleatorio y el número de pares de campos. Igualmente, indicador_tramamuestra si una imagen es una trama o no y, en el caso donde es una trama, se pone 1 allí. En el caso donde sepone 1 en indicador_trama, la información sobre el tipo de codificación de una trama se muestra en tipo_trama. En elcaso donde se pone 0 en indicador_trama, dicho de otro modo, la imagen es uno de un par de campos, y el tipo decodificación de cada campo que constituye el par de campos se muestra en tipo_par_campos.
La FIG. 17E muestra el RAU_map2 en cuanto a la unidad RAU de acceso aleatorio de la FIG. 17B. En la FIG. 17E,los valores que indican el tipo_trama de una imagen I, imágenes P, imágenes B de referencia, e imágenes B de noreferencia, son 0, 1, 2 y 3, respectivamente. Igualmente, el tipo_par_campos muestra el tipo de cada campo en unorden de descodificación. Los tipos de campos son los siguientes: I para una imagen I; P para imágenes P; Br paraimágenes B de referencia; y Bn para imágenes de no-referencia. Por ejemplo, se muestra como IP en el caso donde el primer campo es una imagen I y el segundo campo es una imagen P, y se muestra como BnBn en el caso dondeel primer campo y el segundo campo son imágenes B de no-referencia. Aquí, los valores para indicar combinacionesde IP, PP, PI, BrBr, BnBn y similares se establecen previamente. Obsérvese que la siguiente información se puedeusar como la información que indica el tipo de codificación de un par de campos: información en cuanto a si el par decampos incluye una imagen I o una o más imágenes P; información en cuanto a si el par de campos incluye una omás imágenes B de referencia; e información en cuanto a si el par de campos incluye una o más imágenes B de noreferencia.
Por ejemplo, la información de reproducción trucada puede ser el mapa de una unidad RAU de acceso aleatorio,como una sintaxis mostrada en la FIG. 18A. Este mapa incluye estructura_imagen, que indica la estructura de cadauna de las imágenes incluidas en la unidad RAU de acceso aleatorio, y tipo_imagen, que indica el tipo de imagen. Como se muestra en la FIG. 18B, estructura_imagen muestra la estructura de cada imagen, es decir, una estructurade campo o una estructura de trama, y similares. Igualmente, como se muestra en la FIG. 18C, tipo_imagen muestrael tipo de imagen de cada imagen, es decir, una imagen I, una imagen B de referencia, una imagen B de noreferencia, y una imagen P. De este modo, el aparato de descodificación de imágenes en movimiento que recibióeste mapa puede identificar fácilmente las AU sobre las cuales se realiza la reproducción trucada refiriéndose a estemapa. Como ejemplo, es posible descodificar y reproducir, en reproducción a velocidad elevada, solamente unaimagen I e imágenes P, o imágenes B de referencia, además de una imagen I e imágenes P.
Obsérvese que en el caso donde la información que indica la estructura de imagen, tal como un avance descendente 3-2, se incluye en una AU que constituye una unidad RAU de acceso aleatorio, es posible incluir lainformación que indica la estructura de imagen en el primer o segundo mapa anteriormente descrito. Por ejemplo, es posible mostrar si cada imagen tiene campos de visualización equivalentes a tres imágenes o si cada imagen tienecampos de visualización equivalentes a dos imágenes, Además, en el caso donde tiene campos de visualizaciónequivalentes a tres imágenes, es posible mostrar la información que indica si el primer campo se visualizarepetidamente, o la información que indica si el primer campo es un campo superior. Igualmente, en el caso donde
tiene campos de visualización equivalentes a dos imágenes, es posible mostrar la información de si el primer campoes un campo superior. Aquí, en la AVC de MPEG-4, si una imagen tiene o no una estructura de imagen, tal como unavance descendente 3-2, puede mostrarse usando (i) el pic_struct_present_flag de un conjunto (SPS) de parámetrosde secuencia o bien (ii) el picture_to_display_conversion_flag, y similares, en la temporización de la AVC y eldescriptor HRD que se define en la norma del sistema MPEG-2. Además, la estructura de cada imagen se muestra por un campo pic_struct de una SEI de Temporización de Imagen. Por lo tanto, es posible mostrar la estructura deimagen fijando un indicador solamente en el caso donde un campo pic_struct tiene un valor específico, por ejemplo,una imagen tiene campos de visualización equivalentes a tres imágenes. Dicho de otro modo, indicar los tressiguientes tipos de información en cuanto a cada imagen es efectivo (i) en el caso donde la reproducción a saltos serealiza en medio de una unidad RAU de acceso aleatorio y (ii) en el momento de determinar el campo a visualizar enun momento específico, o la trama en la cual se almacena un campo. Lo mismo se puede decir en el caso dedeterminar imágenes a visualizar durante la reproducción a velocidad variable. Los tres tipos de información son:
(i)
campo
(ii)
trama (que se usa en el momento de no usar un avance descendente de 3-2, o que se usa también en elmomento de usar un avance descendente de 3-2. En el último caso, la trama tiene campos de visualización equivalentes a dos imágenes).
(iii) trama que tiene un campo de visualización equivalente a tres imágenes en el momento de usar un avancedescendente de 3-2
Obsérvese que estos tipos de información se pueden indicar en la estructura_imagen de un mapa de RAU mostradoen la FIG. 18A.
Indicar información de lista de tipos de imágenes de las imágenes respectivas que constituyen una RAU de estamanera hace que sea posible determinar fácilmente imágenes a descodificar o visualizar en el momento de realizaruna reproducción trucada, tal como la reproducción a velocidad variable, la reproducción a saltos y la reproduccióninversa. Esto es especialmente efectivo en los siguientes casos:
(i)
donde solamente se reproducen una imagen I e imágenes P;
(ii)
donde se efectúa la reproducción a alta velocidad, en la cual hay una imagen I, imágenes P e imágenes Bde referencia; y
(iii) donde las imágenes, sobre las cuales se establecen requisitos en cuanto a las estructuras de predicción, seidentifican sobre la base de los tipos de imagen, se seleccionan las imágenes necesarias a descodificar en elmomento de la reproducción trucada, y las imágenes seleccionadas se reproducen en reproducción trucada.
Además, es posible almacenar un valor por omisión de información de reproducción trucada en una región, que seadiferente al flujo de AVC, tal como la información de gestión a nivel de aplicación, e incluir información dereproducción trucada en una unidad RAU de acceso aleatorio solamente en el caso donde la información dereproducción trucada sea distinta a la información de reproducción trucada mostrada por el valor por omisión.
La información de reproducción trucada en cuanto a la reproducción a velocidad variable se ha descrito anteriormente, pero es posible utilizar información similar como información suplementaria en el momento de lareproducción inversa. Es posible completar la descodificación en un momento, en el momento de la reproduccióninversa en el caso donde todas las imágenes a visualizar se puedan almacenar en una memoria, y la carga deprocesamiento necesaria para la descodificación se pueda reducir. Considerando un caso de realización de reproducción inversa en el orden enumerado de P12, P8, P4 e I0 en el ejemplo de las FIG. 9A a 9D, a condición deque se almacenen todos los resultados de la descodificación de estas cuatro AU, es posible descodificar I0, P4, P8 yP12 en este orden en un momento y realizar la reproducción inversa. Por lo tanto, es posible evaluar si todos losdatos descodificados de las AU pueden o no almacenarse basándose en el número de las AU a descodificar ovisualizar en el momento de la reproducción, a una velocidad multiplicada por N, y determinar las AU a visualizar enel momento de la realización de la reproducción inversa basándose en el resultado de la evaluación.
Igualmente, se puede usar información de reproducción trucada como información suplementaria en el momento dela reproducción a saltos. Aquí, la reproducción a saltos significa el avance rápido de una imagen en movimiento yrealizar una reproducción normal de la imagen en movimiento a partir de la posición determinada al azar. Determinarimágenes sujetas a avance rápido utilizando tal información suplementaria, incluso en el momento de la reproducción a saltos, hace que sea posible determinar la imagen en la cual se inicia la reproducción a saltos.
Obsérvese que la AU a servir de referencia para cada AU que constituye una unidad de acceso aleatorio se puedemostrar directamente en la información trucada. En el caso donde hay diversas AU de referencia, se muestran todas ellas. Aquí, en el caso donde una AU de referencia pertenece a una unidad de acceso aleatorio distinta a la unidadde acceso aleatorio que incluye una AU que se refiere a la AU de referencia, la AU se puede indicar de la siguientemanera específica: la M-ésima AU de la unidad de acceso aleatorio que se coloca antes o después de N números de unidades de acceso aleatorio, o bien la AU se puede indicar de la siguiente sencilla manera: la AU que pertenecea la unidad de acceso aleatorio que se coloca antes o después de N números de unidades de acceso aleatorio.Obsérvese que es posible mostrar el número ordinal, en el orden de descodificación, de la AU de referencia en elcaso de contar a partir de la AU que se refiere a la AU de referencia. En ese momento, las AU se cuentan sobre labase de uno de los siguientes casos: todas las AU; las AU de referencia; las AU de un tipo de imagen específico talcomo I, P y B. Igualmente, es posible mostrar que cada AU se puede referir a las AU de solamente hasta N númerosde AU antes y después, en un orden de descodificación. Obsérvese que, en el caso de referirse a una AU que no seincluya en las AU de hasta N números de AU antes y después en el orden de descodificación, es posible añadir lainformación que indica el hecho.
Obsérvese que es posible usar la información de reproducción trucada anteriormente descrita de una manera similartambién en un formato de multiplexado, tal como MP4, donde se usa el tamaño de una unidad NAL en lugar de usarun prefijo de código de inicio como información de frontera de una unidad NAL.
Obsérvese que, en el momento de recibir y grabar un flujo codificado que se paquetiza usando un paquete TS (Flujode transporte) de MPEG-2, o un RTP (Protocolo de transmisión en tiempo real), se produce una pérdida de paquetes. De esta manera, en el caso de la grabación de los datos recibidos en un entorno en el que se produceuna pérdida de paquetes, es posible almacenar, en un flujo codificado como información suplementaria, o comoinformación de gestión, la información que indica que los datos en un flujo se han perdido a causa de una pérdida depaquetes. Es posible mostrar una pérdida de datos debida a la pérdida de un paquete insertando la información deindicador que indica si los datos del flujo se han perdido o no, o bien un código de notificación de error especial paranotificar la parte perdida. Obsérvese que, en el caso de la realización del procesamiento de ocultación de errorcuando se pierden los datos, es posible almacenar información de identificación que indique la presencia / ausencia,
o el procedimiento, del procesamiento de ocultación de error.
La información de reproducción trucada para determinar las AU a descodificar o visualizar en el momento de lareproducción trucada se ha descrito hasta este punto. Aquí, la estructura de datos para permitir la detección de la frontera de las unidades RAU de acceso aleatorio se describirá con referencia a la FIG. 19.
En la AU superior de una unidad RAU de acceso aleatorio, la unidad NAL de un SPS a ser objeto de referencia porparte de una AU que constituye una unidad RAU de acceso aleatorio se almacena siempre. Por otra parte, en lanorma AVC de MPEG-4, es posible almacenar la unidad NAL del SPS a ser objeto de referencia por la N-ésima AUen un orden de descodificación, en una AU que se selecciona arbitrariamente entre la N-ésima AU o las AUcolocadas antes de la N-ésima AU en un orden de descodificación. Tal unidad NAL se almacena de manera que launidad NAL de un SPS pueda transmitirse repetidamente, en preparación para el caso donde la unidad NAL de unSPS se pierde a causa de una pérdida de paquetes en el momento de transmitir un flujo en comunicación o difusión. Sin embargo, la siguiente regla es efectiva para el uso de las aplicaciones de almacenamiento. Solamente una única unidad NAL del SPS a ser objeto de referencia por todas las AU de la unidad RAU de acceso aleatorio se almacena en la AU superior de una unidad RAU de acceso aleatorio, y la unidad NAL del SPS no se almacena en lassiguientes AU en la unidad de acceso aleatorio. Hacerlo así posibilita garantizar que la AU sea la AU superior de launidad RAU de acceso aleatorio si incluye la unidad NAL de un SPS. El inicio de la unidad RAU de acceso aleatoriose puede encontrar buscando la unidad NAL del SPS. La información de gestión de un flujo tal como un mapatemporal no garantiza la provisión de información de acceso en cuanto a todas las unidades RAU de accesoaleatorio. Por lo tanto, es especialmente efectivo que la posición de inicio de cada unidad RAU de acceso aleatoriose pueda obtener buscando la unidad NAL de un SPS en un flujo en el caso de, por ejemplo, realizar reproducción asaltos sobre la imagen situada en medio de la unidad RAU de acceso aleatorio cuya información de acceso no seproporciona.
Aquí, en el caso donde la AU superior de la unidad RAU de acceso aleatorio sea la AU de una imagen IDR, la AU de la unidad RAU de acceso aleatorio no se refiere a la AU en la unidad RAU de acceso aleatorio que se sitúapreviamente en un orden de descodificación. Este tipo de unidad RAU de acceso aleatorio se denomina unidad RAUde acceso aleatorio de tipo cerrado. Por otra parte, en el caso donde la AU superior de una unidad RAU de accesoaleatorio sea la AU de una imagen I que no es una imagen IDR, la AU de la unidad RAU de acceso aleatorio puedereferirse a la AU en la unidad RAU de acceso aleatorio que se sitúa previamente en un orden de descodificación.Este tipo de unidad RAU de acceso aleatorio se denomina unidad RAU de acceso aleatorio de tipo abierto. En elmomento en que los ángulos se conmutan durante la reproducción en un disco óptico o similar, la conmutación serealiza a partir de una unidad RAU de acceso aleatorio RAU de tipo cerrado. Por lo tanto, es efectivo que laevaluación en cuanto a si una unidad RAU de acceso aleatorio sea una unidad RAU de acceso aleatorio de tipoabierto o de tipo cerrado se pueda hacer en la parte superior de la unidad RAU de acceso aleatorio. Por ejemplo, es posible mostrar la información de indicador para evaluar el tipo, es decir, un tipo abierto o un tipo cerrado, en uncampo nal_ref_idc de la unidad NAL de un SPS. Como se define que el valor de nal_ref_idc es 1 o más en la unidadNAL de un SPS, el bit de orden superior se fija siempre en 1 y la información de indicador se muestra mediante el bitde orden inferior. Obsérvese que una AU en una unidad RAU de acceso aleatorio no puede referirse a una AU enuna unidad RAU de acceso aleatorio que se sitúe previamente en un orden de descodificación, incluso en el casodonde la AU superior sea la AU de una imagen I que no sea una IDR. Este tipo de unidad RAU de acceso aleatoriose puede considerar como una unidad RAU de acceso aleatorio de tipo cerrado. Obsérvese que la información deindicador se puede mostrar usando un campo distinto de nal_ref_idc.
Obsérvese que es posible especificar la posición de inicio de una unidad RAU de acceso aleatorio en base a launidad NAL distinta de un SPS, a almacenar solamente en la AU superior de una unidad RAU de acceso aleatorio. Igualmente, es posible mostrar el tipo, es decir, el tipo abierto o el tipo cerrado, de cada una de las unidades RAU de acceso aleatorio, usando el campo nal_ref_idc de cada unidad RAU de acceso aleatorio.
Finalmente, las FIG. 20A y 20B muestran ejemplos de estructuras de predicción de las AU que constituyen unaunidad RAU de acceso aleatorio. La FIG. 20A muestra las posiciones de las AU en un orden de visualización, y laFIG. 20B muestra las posiciones de las AU en el orden de descodificación. Como se muestra en las figuras, B1 y B2, que se muestran antes de I3, es decir, la AU superior de una unidad RAU de acceso aleatorio, se pueden referir alas AU a visualizar después de I3. En la figura, B1 se refiere a P6, Aquí, con el fin de garantizar que las AU de I3 ylas siguientes imágenes en el orden de visualización se puedan descodificar correctamente, se prohíbe que las AUde I3 y las siguientes imágenes en el orden de visualización se refieran a las AU antes de I3 en el orden devisualización
(Aparato de codificación de imágenes en movimiento)
La FIG. 21 es un diagrama en bloques del aparato 100 de codificación de imágenes en movimiento que realiza elprocedimiento de codificación de imágenes en movimiento de la presente invención. Este aparato 100 de
codificación de imágenes en movimiento genera un flujo codificado, mostrado en las FIG. 8 a 20, de una imagen enmovimiento que se puede reproducir usando una reproducción trucada tal como la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa. El aparato 100 de codificación de imágenes en movimiento incluye una unidad TrickPlay de generación de información de reproducción trucada, además de lasunidades de un aparato 1 convencional de codificación de imágenes en movimiento mostrado en la FIG. 4. Obsérvese que a las unidades de procesamiento que realizan las mismas operaciones que las unidades deprocesamiento de un aparato convencional de codificación de imágenes en movimiento, mostrado en el diagrama enbloques de la FIG. 4, se asignan los mismos números de referencia en la figura, y sus descripciones se omitirán.
La unidad TrickPlay de generación de información de reproducción trucada es un ejemplo de una unidad que genera, sobre la base de una unidad de acceso aleatorio que incluye una o más imágenes, informaciónsuplementaria para ser objeto de referencia en el momento de reproducir las unidades de acceso aleatorio. Launidad TrickPlay de generación de información de reproducción trucada genera información de reproducción trucadabasada en tipos TipoI de imágenes, y notifica la información de reproducción trucada a la unidad VLC de codificaciónde longitud variable.
La unidad VLC de codificación de longitud variable es un ejemplo de una unidad de generación de flujo que genera un flujo que incluye información e imágenes suplementarias, añadiendo la información suplementaria generada acada unidad de acceso aleatorio correspondiente. La unidad VLC de codificación de longitud variable codifica ycoloca la unidad NAL para almacenar información de reproducción trucada en la AU superior de una unidad RAU de acceso aleatorio.
La FIG. 22 es un diagrama de flujo de cómo el aparato 100 de codificación de imágenes en movimiento (principalmente la unidad TrickPlay de generación de información de reproducción trucada) mostrado en la FIG. 21 realiza el procedimiento de generación de un flujo codificado que incluye información de reproducción trucada.
En primer lugar, en la Etapa 10, el aparato 100 de codificación de imágenes en movimiento evalúa si la AU acodificar es o no la AU superior de una unidad RAU de acceso aleatorio. En el caso donde sea la AU superior, sepasa a la Etapa 11, mientras que en el caso donde no sea la AU superior, se pasa a la Etapa 12. En la Etapa 11, el aparato 100 de codificación de imágenes en movimiento realiza el procesamiento inicial para generar información de reproducción trucada de la unidad RAU de acceso aleatorio e, igualmente, asegura el área para almacenar lainformación de reproducción trucada en la AU superior de la unidad RAU de acceso aleatorio. En la Etapa 12, elaparato 100 de codificación de imágenes en movimiento codifica los datos de AU, y pasa entonces a la Etapa 13. Enla Etapa 13, el aparato 100 de codificación de imágenes en movimiento obtiene la información necesaria en elmomento de generar información de reproducción trucada. Tal información es: los tipos de imágenes de la AU, esdecir, una imagen I, una imagen P, una imagen B de referencia, o una imagen B de no-referencia; o si haynecesidad de descodificar la AU en el momento de realizar la reproducción a una velocidad multiplicada por N.Después de esto, el aparato 100 de codificación de imágenes en movimiento pasa a la Etapa 14. En la Etapa 14, elaparato 100 de codificación de imágenes en movimiento evalúa si la AU es la última AU de la unidad RAU de acceso aleatorio. En el caso donde sea la última AU, el aparato 100 de codificación de imágenes en movimiento pasa a laEtapa 15, mientras que en el caso donde no sea la última AU, pasa a la Etapa 16. En la Etapa 15, el aparato 100 decodificación de imágenes en movimiento determina información de reproducción trucada, genera la unidad NAL paraalmacenar la información de reproducción trucada, y almacena la unidad NAL generada en el área asegurada en laEtapa 11. Después de completar el procesamiento de la Etapa 15, el aparato 100 de codificación de imágenes enmovimiento pasa a la Etapa 16. En la Etapa 16, el aparato 100 de codificación de imágenes en movimiento evalúa si hay o no una AU a codificar a continuación. En el caso donde haya una AU a codificar, repite la Etapa 10 y lassiguientes etapas, mientras que en el caso donde no haya AU a codificar, completa el procesamiento. Aquí, en elcaso donde el aparato 100 de codificación de imágenes en movimiento evalúa que no hay ninguna AU a codificar enla Etapa 16, almacena información de reproducción trucada de la última unidad RAU de acceso aleatorio, y a continuación completa el procesamiento.
Por ejemplo, cuando el aparato 100 de codificación de imágenes en movimiento genera información de reproduccióntrucada mostrada en la FIG. 18A, obtiene lo siguiente en la Etapa 13: el tipo de imagen; si la imagen tiene unaestructura de campo o si la imagen tiene una estructura de trama; o / y la información que indica si el campo devisualización de la imagen es equivalente a dos imágenes o equivalente a tres imágenes en el caso donde lainformación en cuanto a un avance descendente 3-2 se incluya en el flujo codificado. En la Etapa 15, el aparato 100de codificación de imágenes en movimiento establece la estructura_imagen y el tipo_imagen de todas las imágenesen la unidad RAU de acceso aleatorio en un orden de descodificación.
Obsérvese que, en el caso donde el tamaño de la unidad NAL para almacenar información de reproducción trucada no se conozca en el momento de iniciar la codificación de la AU superior de una unidad RAU de acceso aleatorio, el procesamiento para asegurar el área para almacenar la información de reproducción trucada se omitirá en la Etapa
11. En este caso, la unidad NAL generada para almacenar información de reproducción trucada se inserta en la AUsuperior en la Etapa 15.
Igualmente, el almacenar o no almacenar la información de reproducción trucada se puede conmutar sobre unabase de flujo codificado. Especialmente en el caso donde la estructura de predicción entre las AU que constituyen una unidad de acceso aleatorio se prescriba por aplicación, es posible determinar que la información dereproducción trucada no está almacenada. Por ejemplo, en el caso donde un flujo codificado tenga la mismaestructura de predicción que en el caso de un flujo de MPEG-2, no hay necesidad de almacenar información dereproducción trucada. Esto es debido al hecho de que es posible determinar las AU necesarias a descodificar en elmomento de la reproducción trucada sin información de reproducción trucada. Obsérvese que tal conmutación se puede llevar a cabo sobre la base de una unidad RAU de acceso aleatorio.
(Aparato de multiplexado de imágenes en movimiento)
La FIG. 23 es un diagrama en bloques que muestra la estructura del aparato 108 de multiplexado de imágenes enmovimiento de la presente invención. Este aparato 108 de multiplexado de imágenes en movimiento ingresa datosde imágenes en movimiento, codifica los datos de imágenes en movimiento para componer un flujo AVC de MPEG4, multiplexa el flujo con la información de acceso a las AU que constituyen el flujo y la información de gestión que incluye la información suplementaria para determinar las operaciones realizadas en el momento de la reproducción trucada, y graba el flujo multiplexado. El aparato 108 de multiplexado de imágenes en movimiento incluye unaunidad 101 de determinación de atributos de flujo, una unidad 102 de codificación, una unidad 103 de generación deinformación de gestión, una unidad 106 de multiplexado y una unidad 107 de almacenamiento. Aquí, la unidad 102de codificación tiene una función para añadir información de reproducción trucada en el aparato 100 de codificaciónde imágenes en movimiento mostrado en la FIG. 21.
La unidad 101 de determinación de atributos de flujo determina los requisitos concernientes a la reproduccióntrucada realizada en el momento de la codificación de un flujo AVC de MPEG-4, y los emite hacia la unidad 102 decodificación y hacia la unidad 105 de generación de información de soporte de reproducción como información deatributo TYPE. Aquí, los requisitos concernientes a la reproducción trucada incluyen información que indica: si elrequisito para constituir una unidad de acceso aleatorio se aplica o no a un flujo AVC de MPEG-4; si la información que indica las AU a descodificar o visualizar en el momento de reproducción a velocidad variable o reproduccióninversa se incluye en el flujo; o si se establece o no un requisito sobre la estructura de predicción entre las AU. Launidad 101 de determinación de atributos de flujo emite hacia la unidad 104 de generación de información de gestióngeneral la información de gestión general que es la información necesaria para generar información de gestión talcomo un formato de compresión o una resolución. La unidad 102 de codificación codifica los datos de videoingresados en el flujo AVC de MPEG-4 en base a la información de atributo TYPE, emite los datos codificados haciala unidad 106 de multiplexado, y emite la información de acceso en el flujo hacia la unidad 104 de generación deinformación de gestión general. Aquí, en el caso donde la información de atributo TYPE muestra que la información que indica las AU a descodificar o visualizar en el momento de reproducción a velocidad variable o reproduccióninversa no se incluye en el flujo, la información de reproducción trucada no se incluye en el flujo codificado. Obsérvese que la información de acceso indica la información de una unidad de acceso que es la unidad básica alacceder al flujo, e incluye la dirección de inicio, el tiempo de visualización, y similares, de la AU superior en unaunidad de acceso. La unidad 104 de generación de información de gestión general genera los datos de tabla a los que referirse en el momento de acceso a un flujo, y los datos de tabla que almacenan información de atributos, talescomo un formato de compresión basado en la información de acceso, y la información de gestión general, y emitelos datos de tabla hacia la unidad 106 de multiplexado como la información de gestión INFO. La unidad 105 degeneración de información de soporte de reproducción genera información de soporte HLP que indica si el flujo tieneuna estructura de acceso aleatorio basada en la información de atributo TYPE introducida, y emite la información desoporte HLP hacia la unidad 106 de multiplexado. La unidad 106 de multiplexado genera datos codificados introducidos a través de la unidad 102 de codificación, la información de gestión INFO, y los datos de multiplexado, multiplexando la información de soporte HLP, y luego los emite hacia la unidad 107 de almacenamiento. La unidad107 de almacenamiento graba los datos de multiplexado introducidos a través de la unidad 106 de multiplexado en un medio de grabación, tal como un disco óptico, un disco rígido y una memoria. Obsérvese que la unidad 102 decodificación puede paquetizar el flujo AVC de MPEG-4 en, por ejemplo, un TS (flujo de transporte) de MPEG-2 o un PS (flujo de programa) de MPEG-2, y a continuación emite los TS o PS de MPEG-2 paquetizados. Igualmente, launidad 102 de codificación puede paquetizar el flujo usando un formato prescrito por la aplicación, tal como un BD.
Obsérvese que el contenido de la información de gestión no está obligado a depender de si la información dereproducción trucada se almacena en el flujo codificado o no. En este momento, la información de soporte HLP sepuede omitir. Igualmente, el aparato 108 de multiplexado de imágenes en movimiento puede tener la estructura sinuna unidad 105 de generación de información de soporte de reproducción.
Las FIG. 24A y 24B muestran ejemplos de la información mostrada por la información de soporte HLP. Lainformación de soporte HLP incluye el procedimiento que indica directamente la información de un flujo como semuestra en la FIG. 24A, y el procedimiento que indica si el flujo satisface el requisito prescrito por una norma deaplicación específica, como se muestra en la FIG. 24B.
La FIG. 24A muestra lo siguiente como información concerniente a un flujo: información en cuanto a si el flujo tiene una estructura de acceso aleatorio; información en cuanto a si hay un requisito sobre la estructura de predicción entre imágenes almacenadas en una AU; e información en cuanto a si hay información que indica las AU adescodificar o visualizar en el momento de la reproducción trucada,
Aquí la información relativa a las AU a descodificar o visualizar en el momento de reproducción trucada puedeindicar directamente las AU a descodificar o visualizar, o indicar las prioridades en el momento de descodificar o visualizar. Por ejemplo, se puede indicar que la información que indica que las AU a descodificar o visualizar sobre labase de una unidad de acceso aleatorio se almacena en una unidad NAL que tenga un tipo de unidad NAL especialprescrito por aplicación, un mensaje de SEI o similares. Obsérvese que es posible indicar si hay información queindique la estructura de predicción entre las AU que constituyen una unidad de acceso aleatorio. Igualmente, lainformación relativa a las AU a descodificar o visualizar en el momento de reproducción trucada se puede añadirsobre la base de una o más unidades de acceso aleatorio, o bien a cada una de las AU que constituyen la unidad deacceso aleatorio.
Además, en el caso donde la información que indica las AU a descodificar o visualizar se almacena en la unidadNAL que tenga un tipo especial, es posible mostrar el tipo de unidad NAL de la unidad NAL. En el ejemplo de la FIG.25, en la información de soporte HLP, la información relativa a las AU a descodificar o visualizar en el momento de reproducción trucada se incluye en la unidad NAL cuyo tipo de unidad NAL es 0. En ese momento, es posibleobtener la información relativa a la reproducción trucada demultiplexando la unidad NAL cuyo tipo de unidad NALsea 0, a partir de los datos de AU del flujo. En el caso donde la información relativa a la reproducción trucada se almacene usando un mensaje SEI, es posible indicar la información para identificar el mensaje SEI.
Igualmente, en cuanto a los requisitos sobre las estructuras de predicción, es posible indicar si uno o más requisitospredeterminados se satisfacen o no, o es posible indicar que los siguientes requisitos respectivos se satisfacenindependientemente:
(i)
en cuanto a las AU de una imagen I e imágenes P, el orden de descodificación debería coincidir con elorden de visualización;
(ii)
la AU de una imagen P no se puede referir a la AU de una imagen B;
(iii) las AU después de la AU superior en un orden de visualización en una unidad de acceso aleatorio sepueden referir solamente a las AU incluidas en la unidad de acceso aleatorio; y
(iv) cada AU se puede referir solamente a las AU colocadas hasta N números antes y después en el orden dedescodificación. En este caso, todas las AU se cuentan por completo, o bien las AU se cuentan sobre la base de las AU de referencia, y el valor de N se puede mostrar en la información de soporte HLP.
Obsérvese que, en la AVC de MPEG-4, es posible utilizar, como imágenes de referencia, imágenes sobre las cualesse realiza el procesamiento de filtrado (desbloqueo) para eliminar la distorsión de bloque después de la descodificación, para mejorar la calidad de imagen, y es posible utilizar, como imágenes para visualización,imágenes antes del desbloqueo. En este caso, el aparato de descodificación de imágenes en movimiento necesita mantener los datos de imagen antes y después del desbloqueo. Por lo tanto, es posible almacenar, en la informaciónde soporte HLP, la información que indica si hay una necesidad de mantener las imágenes antes del desbloqueopara el uso de la visualización. La norma AVC de MPEG-4 define el tamaño máximo de una memoria temporal(DPB: Memoria temporal de imágenes descodificadas) necesaria para almacenar las imágenes de referencia o las imágenes a visualizar como resultados de la descodificación. Por lo tanto, con una memoria temporal DPB que tenga el tamaño máximo o una memoria temporal que tenga el tamaño máximo prescrito por aplicación, es posibleindicar si el procesamiento de descodificación se puede realizar sin fallos incluso en el caso de almacenar lasimágenes para visualización de las imágenes de referencia. Obsérvese que, con el fin de almacenar las imágenesantes del desbloqueo de las imágenes de referencia, es posible indicar el tamaño de la memoria temporal aasegurar, además del tamaño necesario como un DPB, usando el número de octetos o el número de tramas. Aquí, si se realiza o no el desbloqueo sobre cada imagen se puede saber a partir de la información en el flujo, o lainformación exterior al flujo tal como la información de gestión. En el caso de obtener la información en el flujo, porejemplo, se puede obtener a partir de una SEI. Además, en el caso de la descodificación de un flujo AVC de MPEG4, es posible evaluar si las imágenes, antes del desbloqueo de las imágenes de referencia, se pueden usar paravisualizar o no, basándose en el tamaño de la memoria temporal que se puede usar en la unidad de descodificación y la información anteriormente descrita, y entonces es posible determinar cómo visualizar las imágenes.
Obsérvese que toda la información, o una parte de la información, se puede incluir como información de soporteHLP. Igualmente, es posible incluir información necesaria basada en una condición predeterminada, por ejemplo,incluir información en cuanto a la presencia o ausencia de información de reproducción trucada solamente en elcaso donde no haya ningún requisito relativo a la estructura de predicción. Igualmente, la información distinta a la información anteriormente descrita se puede incluir en la información de soporte HLP.
La FIG. 24B no indica directamente la información relativa a la estructura de un flujo, pero indica si un flujo satisfacelos requisitos sobre las estructuras de flujo prescritos por la norma de disco Blu-ray (BD-ROM) o la norma de DVDde Alta definición (HD), que es la norma para almacenar imágenes de alta definición en un DVD. Igualmente, en elcaso donde se definen diversas modalidades como los requisitos de un flujo en una norma de aplicación tal como la norma BD-ROM o similares, la información que indica la modalidad aplicada se puede almacenar. Por ejemplo, seusan las siguientes modalidades: la modalidad 1, que indica que no hay ningún requisito; la modalidad 2, que indicaque el flujo tiene una estructura de acceso aleatorio e incluye la información para especificar las AU a descodificaren el momento de la reproducción trucada; y similares. Obsérvese que es posible indicar si el flujo satisface losrequisitos prescritos en el servicio de comunicación, tal como la descarga o emisión de flujo, o una norma de difusión.
Obsérvese que es posible indicar tanto la información mostrada en la FIG. 24A como la información mostrada en laFIG. 24B. Igualmente, en el caso donde se conozca que el flujo satisface los requisitos en una norma de aplicaciónespecífica, es posible almacenar los requisitos en la norma de aplicación convirtiendo la estructura de flujo al formatopara la descripción directa, como se muestra en la FIG. 24A, en lugar de indicar si el flujo satisface la norma de aplicación.
Obsérvese que es posible almacenar la información que indica las AU a descodificar o visualizar en el momento dela reproducción trucada como información de gestión. Igualmente, en el caso donde el contenido de la informaciónde soporte HLP se conmute en un flujo, se puede indicar la información de soporte HLP sección a sección.
La FIG. 26 es un diagrama de flujo que muestra las operaciones del aparato 108 de multiplexado de imágenes en movimiento. En la Etapa 51, la unidad 101 de determinación de atributos de flujo determina la información deatributo TYPE en base a los valores fijados por el usuario o las condiciones predeterminadas. En la Etapa 52, launidad 102 de codificación codifica un flujo en base a la información de atributo TYPE. En la Etapa 53, la unidad 105 de generación de información de soporte de reproducción genera la información de soporte HLP en base a lainformación de atributo TYPE. En consecuencia, en la Etapa 54, la unidad 102 de codificación genera la información de acceso sobre la base de una unidad de acceso del flujo codificado, y la unidad 104 de generación de informaciónde gestión general genera la información de gestión INFO añadiendo la información de acceso a la otra informaciónnecesaria (información de gestión general). En la Etapa 55, la unidad 106 de multiplexado multiplexa un flujo, lainformación de soporte HLP y la información de gestión INFO. En la Etapa 56, la unidad 107 de almacenamientograba los datos multiplexados. Obsérvese que la Etapa 53 se puede realizar antes de la Etapa 52, o después de la Etapa 54.
Obsérvese que la unidad 102 de codificación puede almacenar la información mostrada en la información de soporteHLP en un flujo. En este caso, la información mostrada en la información de soporte HLP se almacena en la unidadNAL para almacenar reproducción trucada. Por ejemplo, en el caso donde las imágenes P no se refieran a lasimágenes B, es posible descodificar solamente una imagen I e imágenes P en el momento de la reproducción avelocidad variable. Por lo tanto, se almacena información de indicador que indica si solamente una imagen I e imágenes P se pueden descodificar y visualizar. Igualmente, hay un caso donde algunas AU a descodificar en elmomento de la reproducción a velocidad variable no pueden obtener un SPS o un PPS de las AU a las que sedeberían referir las AU respectivas. Es el caso donde el PPS al que hace referencia una imagen P se almacenasolamente en la AU de una imagen B en el caso de descodificar solamente una imagen I e imágenes P. En estecaso, hay una necesidad de obtener el PPS necesario para descodificar la imagen P a partir de la AU de una imagen
B. Por lo tanto, es posible incluir información de indicador que indica si el SPS o el PPS a los que se refiere cada AUa descodificar en el momento de reproducción a velocidad variable se puede obtener con seguridad a partir de unade las otras AU a descodificar en el momento de reproducción a velocidad variable. Hacerlo de este modo posibilita realizar la operación tal como detectar un SPS o un PPS también a partir de la AU de una imagen no destinada a serdescodificada en el momento de la reproducción a velocidad variable, solamente en el caso donde no esté activado un indicador. Igualmente, en el momento en que se muestra que solamente una imagen I e imágenes P se puedendescodificar y visualizar, es posible ajustar la velocidad de reproducción descodificando también imágenes B,especialmente imágenes B de referencia a las que hacen referencia otras imágenes.
Igualmente, es posible almacenar la información de indicador en el encabezamiento de otra unidad NAL tal como unSPS, un PPS o un segmento, en lugar de usar cualquier unidad NAL para almacenar reproducción trucada. Porejemplo, en el caso donde un SPS, al que hace referencia una AU que constituye una unidad RAU de accesoaleatorio, se almacene en la AU superior en la unidad RAU de acceso aleatorio, el campo nal_ref_idc de la unidadNAL de un SPS puede indicar la información de indicador. Como se define que el valor de nal_ref_idc es 1 o más enla unidad NAL de un SPS, es posible fijar siempre el bit de orden superior en 1 e indicar la información de indicador mediante el bit de orden inferior.
Obsérvese que el contenido de la información de soporte HLP se puede almacenar bien en un flujo o bien eninformación de gestión, o bien en ambos. Por ejemplo, el contenido se puede mostrar en información de gestión enel caso donde el contenido de la información de soporte HLP se fije en un flujo, mientras que el contenido se puedemostrar en un flujo en el caso donde el contenido sea variable. Igualmente es posible almacenar la información deindicador que indica si la información de soporte HLP se fija o no en la información de gestión. Igualmente, en elcaso donde la información de soporte HLP esté predeterminada en una norma de aplicación tal como un BD-ROM o una memoria RAM, o en el caso donde la información de soporte HLP se proporcione por separado por comunicación o difusión, la información de soporte HLP no puede almacenarse.
(Aparato de descodificación de imágenes en movimiento)
La FIG. 27 es un diagrama en bloques del aparato 200 de descodificación de imágenes en movimiento que realiza el procedimiento de descodificación de imágenes en movimiento de la presente invención. Este aparato 200 dedescodificación de imágenes en movimiento reproduce un flujo codificado mostrado en las FIG. 8A y 8B a 20. Puede realizar no solamente la reproducción normal, sino también la reproducción trucada, tal como la reproducción asaltos, la reproducción a velocidad variable y la reproducción inversa. El aparato 200 de descodificación deimágenes en movimiento incluye, además, una unidad de extracción de flujo EXT y una unidad AUsel de selecciónde las AU a descodificar, además de las unidades de un aparato 2 de descodificación convencional mostrado en laFIG. 5. Obsérvese que a las unidades de procesamiento que realizan las mismas operaciones que las unidades deprocesamiento respectivas del aparato 2 de descodificación convencional, mostrado en el diagrama en bloques de laFIG. 5, se les asignan los mismos números de referencia, y se omitirán sus descripciones.
La unidad AUsel de selección de las AU a descodificar determina las AU necesarias a descodificar basándose en la información GrpInf de reproducción trucada descodificada en la unidad VLD de descodificación de longitud variable,según una instrucción de reproducción trucada introducida desde el exterior. Aquí, la instrucción que indicareproducción trucada se introduce desde la unidad AUsel de selección de las AU a descodificar. Además, la unidadAUsel de selección de las AU a descodificar notifica a la unidad EXT de extracción de flujo sobre DecAU, que es lainformación que indica las AU determinadas como las AU necesarias a descodificar. La unidad EXT de extracción deflujo extrae solamente el flujo correspondiente a las AU que son evaluadas como las AU necesarias a descodificarpor parte de la unidad AUsel de selección de las AU a descodificar, y a continuación transmite el flujo a la unidadVLD de descodificación de longitud variable.
La FIG. 28 es un diagrama de flujo de la manera en que el aparato 200 de descodificación de imágenes en movimiento (principalmente la unidad AUsel de selección de las AU a descodificar) mostrado en la FIG. 27 realiza el procedimiento de descodificación de un flujo que incluye información de reproducción trucada en el momento derealizar la reproducción trucada.
En primer lugar, en la etapa 20, la unidad AUsel de selección de las AU a descodificar evalúa si la AU es la AUsuperior de una unidad RAU de acceso aleatorio, detectando un SPS, o similar, en el flujo. En el caso donde la AUsea la AU superior, pasa a la Etapa 21, mientras que en el caso donde la AU no sea la AU superior, pasa a la Etapa
22. Aquí, la posición de inicio de la unidad RAU de acceso aleatorio se puede obtener a partir de la información degestión, tal como un mapa temporal. Especialmente en el caso donde se determine la posición de inicio dereproducción en el momento de la reproducción por saltos, o solamente se seleccione la imagen superior de launidad RAU de acceso aleatorio y se realice la reproducción a alta velocidad sobre la imagen superior seleccionada, es posible determinar la posición de inicio de la unidad RAU de acceso aleatorio que se refiere al mapa temporal. En la Etapa 21, la unidad AUsel de selección de las AU a descodificar obtiene la información de reproducción trucada apartir de los datos de AU, analiza los datos de AU y determina las AU a descodificar antes de pasar a la Etapa 22. En la Etapa 22, la unidad AUsel de selección de las AU a descodificar evalúa si la AU es la AU que se determina enla Etapa 21 como la AU a descodificar. En el caso donde sea la AU determinada, el aparato 200 de descodificación
de imágenes en movimiento descodifica la AU en la Etapa 23, mientras que en el caso donde no sea la AUdeterminada, pasa a la Etapa 24. En la Etapa 24, el aparato 200 de descodificación de imágenes en movimientoevalúa si queda alguna AU a descodificar. En el caso donde haya una AU, el aparato 200 de descodificación deimágenes en movimiento repite el procesamiento de la Etapa 20, y las siguientes etapas, mientras que, en el casodonde no haya AU, se completa el procesamiento. Obsérvese que es posible omitir el proceso de la Etapa 21 y la Etapa 22, u omitir el procesamiento de determinación en la Etapa 21, y emitir la información que indica que todas lasAU se descodifican en el momento de la reproducción normal, donde todas las AU se descodifican y visualizan enorden.
La FIG. 29 es un diagrama de flujo que indica el procesamiento (el procesamiento por la unidad AUsel de selecciónde las AU a descodificar) en la Etapa 21. En primer lugar, la unidad AUsel de selección de las AU a descodificardetecta la posición de inicio de una unidad NAL que constituye una AU, buscando en los datos de AU un prefijo decódigo de inicio, empezando con el octeto superior en la Etapa 30, y pasa a la Etapa 31. Obsérvese que puede buscar un prefijo de código de inicio a partir, no del octeto superior de los datos de AU, sino de otra posición, talcomo la posición final de un Delimitador de Unidad de Acceso. En la Etapa 31, la unidad AUsel de selección de lasAU a descodificar obtiene el tipo de unidad NAL de una unidad NAL, y pasa a la Etapa 32. En la Etapa 32, la unidad AUsel de selección de las AU a descodificar evalúa si el tipo de unidad NAL obtenido en la Etapa 31 es el tipo deunidad NAL para almacenar información de reproducción trucada. En el caso donde la información de reproduccióntrucada esté almacenada, pasa a la Etapa 33, mientras que en el caso donde la información de reproducción trucadano esté almacenada, repite el procesamiento de la Etapa 30 y las siguientes etapas. Aquí, en el caso donde lainformación de reproducción trucada esté almacenada en un mensaje SEI, la unidad AUsel de selección de las AU adescodificar obtiene la unidad NAL de una SEI en primer lugar y evalúa, además, si el mensaje SEI para almacenarla información de reproducción trucada se incluye o no en la unidad NAL. En la Etapa 33, la unidad AUsel deselección de las AU a descodificar obtiene información de reproducción trucada, y pasa a la Etapa 34. En la Etapa34, la unidad AUsel de selección de las AU a descodificar determina las imágenes necesarias a descodificar en elmomento de realizar una operación de reproducción trucada especificada. Por ejemplo, siempre que se especifique la reproducción a doble velocidad. En el caso donde la información de reproducción trucada indique que es posiblerealizar la reproducción a doble velocidad descodificando y reproduciendo solamente una imagen I, imágenes P eimágenes B de referencia, se determina que estos tres tipos de imágenes se descodifican y reproducen. Obsérveseque, en el caso donde la información de reproducción trucada no se detecte en la imagen superior de la unidad RAUde acceso aleatorio en el procesamiento desde la Etapa 30 a la Etapa 32, las imágenes necesarias a descodificar afin de realizar la operación de reproducción trucada se determinan según un procedimiento predeterminado. Comoejemplo, es posible evaluar si la imagen es una imagen de referencia o no remitiéndose al campo que indica el tipode imagen de una imagen en un Delimitador de Unidad de Acceso, o bien comprobando el nal_ref_idc del encabezamiento de la unidad NAL. Por ejemplo, es posible distinguir imágenes B de referencia de imágenes B deno-referencia remitiéndose tanto al campo que indica los tipos de imágenes como a nal_ref_idc.
La FIG. 30 es un diagrama de flujo que indica el procesamiento (el procesamiento por parte de la unidad AUsel deselección de las AU a descodificar) en el caso donde todas las AU a descodificar no se visualicen siempre. A lasetapas para realizar el mismo procesamiento que las etapas en el diagrama de flujo de la FIG. 28 se les asignan losmismos números de referencia, y se omitirá su descripción. En la Etapa 41, la unidad AUsel de selección de las AUa descodificar obtiene y analiza información de reproducción trucada, determina las AU a descodificar y las AU avisualizar en una operación de reproducción trucada especificada, y pasa a la Etapa 42. En la Etapa 42, la unidadAUsel de selección de las AU a descodificar evalúa si las AU a descodificar coinciden completamente con las AU avisualizar. En el caso donde haya una coincidencia completa, pasa a la Etapa 22, mientras que en el caso donde nohaya coincidencia completa, pasa a la Etapa 43. En la Etapa 43, la unidad AUsel de selección de las AU a descodificar emite información de la lista de las AU a visualizar, y pasa a la Etapa 22. La información de lista de las AU emitidas se usa en una etapa (no mostrada en una figura) para determinar las AU a visualizar entre las AUdescodificadas.
Obsérvese que, en la AVC de MPEG-4, es posible usar, como imágenes de referencia, imágenes sobre las cualesse realiza el procesamiento de filtrado (desbloqueo) para eliminar la distorsión de bloques después de ladescodificación, a fin de mejorar la calidad de imagen, y es posible utilizar, como imágenes de visualización,imágenes antes del desbloqueo. En este caso, el aparato 200 de descodificación de imágenes en movimientonecesita mantener los datos de imagen antes y después del desbloqueo. Aquí, a condición de que el aparato 200 dedescodificación de imágenes en movimiento tenga una memoria que pueda almacenar datos pos-descodificaciónequivalentes a cuatro imágenes, en el caso donde almacene los datos de imagen antes y después del desbloqueoen la memoria, la memoria necesita almacenar datos equivalentes a dos imágenes, a fin de mantener imágenes antes del desbloqueo de las imágenes de referencia. Sin embargo, como se ha descrito anteriormente, es deseableque se puedan mantener en la memoria tantas imágenes como sea posible en el momento de la reproduccióninversa. A condición de que el aparato 200 de descodificación de imágenes en movimiento utilice las imágenesdespués del desbloqueo también para el uso de visualización, puede contener datos de cuatro imágenes en unamemoria porque no se necesita almacenar imágenes antes del desbloqueo. Por lo tanto, visualizar imágenes antesdel desbloqueo, a fin de mejorar la calidad de imagen en el momento de la reproducción en una dirección normal, yvisualizar imágenes después del desbloqueo en el momento de la reproducción inversa, hace que sea posiblemantener más imágenes en una memoria, y reducir la magnitud del procesamiento en el momento de la reproducción inversa. Por ejemplo, en el ejemplo de las FIG. 15A a 15C, que muestran una lista de las AU de unaimagen I e imágenes P como información de reproducción trucada, todos los datos de cuatro imágenes se pueden mantener en una memoria en el momento de la reproducción inversa, mientras que los siguientes conjuntos de dosimágenes, que se seleccionan arbitrariamente entre I0, P3, P6 y P9, se pueden mantener en la memoria al mismotiempo en el momento de la reproducción en una dirección normal: 10 y P3; P3 y P6; y P6 y P9.
(Ejemplo de un formato de grabación de reproducción trucada en un disco óptico)
Una función de reproducción trucada es especialmente importante en un aparato de disco óptico que reproduzcamedios de paquetes. Aquí, se describirá un ejemplo de grabación de información de reproducción trucada, descritaanteriormente en un disco Blu-ray (BD), que es un disco óptico de la próxima generación.
En primer lugar, se describirá un formato de grabación de un BD-ROM.
La FIG. 31 es un diagrama que indica la estructura del BD-ROM, especialmente las estructuras de un disco BD 114, que es un medio en disco, y los datos 111, 112 y 113 almacenados en el disco. Los datos almacenados en el discoBD 114 incluyen datos de VA (Vídeo Avanzado) 113, información 112 de gestión de BD, tal como información degestión relativa a los datos de VA y una secuencia de reproducción de VA, y un programa 111 de reproducción deBD que realiza la interactividad. Aquí, por motivos de conveniencia, la descripción del disco BD se hará enfocadasobre la aplicación de VA para reproducir contenidos de audio y visuales de películas, pero se puede hacer una descripción similar enfocada en otro uso.
La FIG. 32 es un diagrama que muestra la estructura de un fichero de directorio de datos lógicos almacenados en el disco BD anteriormente descrito. Un disco BD tiene un área de grabación desde su radio más interior hasta su radiomás exterior como, por ejemplo un DVD, un CD y similares, y tiene espacio de direcciones lógicas para almacenardatos lógicos entre la entrada por lectura en el radio más interno y la salida por lectura en el radio exterior. Igualmente, en el interior de la entrada por lectura, hay un área especial que se puede leer solamente mediante uncontrolador denominado Área de Corte de Ráfaga (BCA). Como este área no se puede leer a partir de la aplicación,se puede usar, por ejemplo, para una técnica de protección de propiedad intelectual.
La información del sistema de ficheros (volumen) se almacena en la parte superior del espacio de direccioneslógicas, y datos de aplicación tales como datos de vídeo se almacenan también ahí. Como se ha descrito en la técnica anterior, un sistema de ficheros es, por ejemplo, el UDF o la ISO9660, y permite la lectura de los datos lógicos almacenados usando una estructura de directorio o una estructura de ficheros como en el caso de unordenador personal normal.
En esta realización, como la estructura de directorio y la estructura de ficheros sobre el disco BD, se coloca eldirectorio BDVIDEO inmediatamente por debajo de un directorio raíz (ROOT). Este directorio es un directorio que almacena datos tales como contenido de VA o información de gestión (101, 102 y 103, que se describen en la FIG.32) que se gestiona en el BD.
Por debajo del directorio BDVIDEO, se graban los siguientes siete ficheros.
(i)
BD. INFO (el nombre de fichero es fijo) que es un fragmento de la “información de gestión del BD” y es unfichero que almacena la información relativa a todo el disco BD. El reproductor de BD lee en primer lugar este fichero.
(ii)
BD.PROG (el nombre de fichero es fijo) que es uno de los “programas de reproducción de BD” y es un fichero que almacena la información de control de reproducción relativa a todo el disco BD.
(iii) XXX. PL (”XXX” es variable, y la extensión “PL” es fija) que es un elemento de “información de gestión deBD” y es un fichero que almacena la información de lista de reproducción, que es un guión (secuencia de reproducción). Cada lista de reproducción tiene un fichero.
(iv)
XXX.PROG (“XXX” es variable, y la extensión “PROG” es fija) que es uno de los “programas de reproducción de BD” y es un fichero que almacena la información de control de reproducción preparada sobre labase de listas de reproducción. La lista de reproducción correspondiente se identifica sobre la base de un nombre decuerpo de fichero (basado en la coincidencia de “XXX”).
(v)
YYY.VOB (“YYY” es variable, y la extensión “VOB” es fija) que es uno de los “datos de VA” y es un ficheroque almacena el VOB (lo mismo que el VOB descrito en la técnica anterior). Cada VOB tiene un fichero.
(vi)
YYY.VOBI (“YYY” es variable, y la extensión “VOBI” es fija) que es un elemento de la “información degestión de BD” y es fichero que almacena la información de gestión de flujo relativa al VOB que son los datos deVA. La lista de reproducción correspondiente se identifica basándose en un nombre de cuerpo de fichero (basado en una coincidencia de “YYY”).
(vii) ZZZ.PNG (“ZZZ” es variable, y la extensión “PNG” es fija) que es uno de los “datos de VA” y es un ficheroque almacena datos de imagen PNG (que es un formato de imagen normalizado por el W3C y denominado “ping”)para constituir subtítulos y menús. Cada imagen PNG tiene un fichero.
La estructura de datos de navegación de BD (información de gestión de BD) se describirá con referencia a las FIG. 33 a 38.
La FIG. 33 es un diagrama que muestra la estructura interna de un fichero de información de gestión de VOB(“YYY.VOBI”). La información de gestión de VOB tiene la información del atributo de flujo (Atributo) del VOB y un mapa temporal (TMAP). El atributo de flujo tiene atributo de vídeo (Vídeo) y atributo de audio (Audio#0 a Audio#m)por separado. Especialmente en el caso de flujo de audio, como un VOB tiene diversos flujos de audio al mismo tiempo, la presencia o ausencia de un campo de datos se indica por el número (Número) de flujos de audio.
Los siguientes son atributos de vídeo (Vídeo) almacenados en campos respectivamente, y los valores que loscampos respectivos pueden tener:
(i) formato de compresión (Codificación): MPEG-1; MPEG-2; MPEG-4; y AVC (Codificación de vídeo avanzada) de MPEG-4.
(ii)
resolución (Resolución): 1920 x 1080; 1440 x 1080; 1280 x 720; 720 x 480; y 720 x 565.
(iii)
relación de aspecto (Aspecto): 4 a 3; y 16 a 9.
(iv)
frecuencia de trama (Frecuenciatrama): 60; 59,94 (60 / 1,001), 50; 30; 29,97 (30 / 1,001), 25; 24; y 23,976(24 / 1,001).
Los siguientes son atributos de audio (Audio) almacenados en campos respectivamente, y los valores que los respectivos campos pueden tener.
(i)
formato de compresión (Codificación): AC3; MPEG-1; MPEG-2; y LPCM.
(ii)
el número de canales (Ch): 1 a 8
(iii) atributo de idioma (Idioma):
El mapa temporal (TMAP) es una tabla para almacenar la información para cada VOBU, y tiene el número de las VOBU que tiene el VOB y los fragmentos respectivos de información de VOBU (VOBU#1 a VOBU#n). Los fragmentos respectivos de información de VOBU incluyen I_inicio, que es la dirección (la dirección de inicio de una imagen I) del paquete TS superior de una VOBU y una dirección de desplazamiento (I_fin) hasta la dirección final dela imagen I, y el tiempo de inicio de reproducción (PTS) de la imagen I.
La FIG. 34 es un diagrama que ilustra los detalles de la información de VOBU. Como es ampliamente conocido, ya que se puede realizar la compresión de velocidad de bits variable en el flujo de video MPEG, a fin de grabar el flujode video con alta calidad, no hay ninguna proporcionalidad entre el tiempo de reproducción y el tamaño de los datos.Por otra parte, como se realiza una compresión de velocidad de bits fija en AC3, que es una norma de compresiónde audio, la relación entre el tiempo y la dirección se puede obtener a partir de una expresión primaria. Sin embargo,en el caso de datos de vídeo MPEG, cada trama tiene un tiempo de visualización fijo, por ejemplo, una trama tiene un tiempo de visualización de 1 / 29,97 segundos en el caso de NTSC, pero el tamaño de los datos después decomprimir cada trama cambia en gran medida, según la característica de la imagen, o del tipo de imagen usado en la compresión, tal como una imagen I, una imagen P o una imagen B. Por lo tanto, en el caso de un flujo de vídeoMPEG, es imposible representar la relación entre el tiempo y la dirección usando una expresión primaria.
Como se podría esperar, es imposible representar la relación entre el tiempo y el tamaño de los datos usando una expresión primaria en un flujo del sistema MPEG donde los datos de vídeo MPEG se multiplexan, es decir, un VOB.Por lo tanto, un mapa temporal (TMAP) asocia el tiempo a la dirección en un VOB.
De esta manera, en el caso donde se da información de tiempo, la VOBU a la cual pertenece el tiempo se busca enprimer lugar (siguiendo los PTS de las VOBU en orden), se salta al PTS inmediatamente antes de ese tiempo en laVOBU que un TMAP tiene (la dirección especificada por I_inicio), la descodificación se inicia con la imagen I superior de la VOBU, y la visualización se inicia con la imagen correspondiente a ese tiempo.
A continuación, la estructura interna de una información de lista de reproducción (“XXX.PL”) se describirá conreferencia a la FIG. 35. La información de lista de reproducción incluye una lista de celdas (ListaCeldas) y una listade sucesos (ListaSucesos).
La lista de celdas (ListaCeldas) es una secuencia de celdas de reproducción en la lista de reproducción; y las celdas se reproducen en el orden de descripción indicado en esta lista. El contenido de la lista de celdas (ListaCeldas) es elnúmero de celdas (Número) y la información de cada celda (Celda#1 a Celda#n).
La información de celda (Celda#) tiene un nombre de fichero de VOB (NombreVOB), tiempo de inicio (In) y tiempofinal (Sal) en el VOB, y subtítulos (TablaSubtítulos). El tiempo de inicio (In) y el tiempo final (Sal) se representancomo un número de trama en cada VOB. Es posible obtener la dirección de los datos de VOB necesarios para reproducir usando el mapa temporal (TMAP) anteriormente descrito.
La tabla de subtítulos (TablaSubtítulos) es una tabla que almacena información de subtítulos que se reproducesincronizadamente con el VOB. Como en el caso del audio, se incluyen diversos idiomas en los subtítulos. La primera información de la tabla de subtítulos (TablaSubtítulos) incluye el número de idiomas (Número) y las siguientes tablas (Idioma#1 a Idioma#k) preparadas sobre una base de un idioma.
Cada tabla de idiomas (Idioma#) incluye información de idioma (Idioma), el número (Número) de fragmentos deinformación de subtítulos de los subtítulos a visualizar por separado, e información de subtítulos (Discurso#1 aDiscurso#j) de subtítulos a visualizar por separado. La información de subtítulos (Discurso#) incluye un nombre defichero de datos de imagen (Nombre), el tiempo de inicio de visualización de subtítulo (In), el tiempo de finalizaciónde visualización de subtítulo (Sal) y una posición de visualización de subtítulo (Posición).
La lista de sucesos (ListaSucesos) es una tabla que define cada suceso que se produce en la lista de reproducción.La lista de sucesos incluye el número de sucesos (Número) y los sucesos respectivos (Suceso#1 a Suceso#m).Cada suceso (Suceso#) incluye un tipo de suceso (Tipo), un identificador de suceso (ID), un tiempo de ocurrenciadel suceso (Tiempo) y una duración del suceso (Duración).
La FIG. 36 es una tabla de gestión de sucesos (“XXX. PROG”) que tiene un gestor de sucesos (es decir, un suceso temporal y un suceso de usuario para la selección de menús) preparado sobre la base de una lista de reproducción.La tabla de gestión de sucesos incluye el número de gestores / programas de sucesos definidos (Número) y losrespectivos gestores / programas de sucesos (Programa#1 a Programa#n). El contenido de cada gestor / programade sucesos (Programa#) es la definición del inicio de un gestor de sucesos (etiqueta <event_handler>) y el identificador del gestor de sucesos (ID) que se empareja con el identificador de suceso previamente descrito, y a
continuación del mismo, el programa descrito en “{}” que sigue a la palabra Function (Función). El suceso (Suceso#1a Suceso#m) almacenado en la lista de sucesos (ListaSucesos) del “XXX.PL” previamente descrito se especificausando un identificador (ID) del gestor de sucesos de “XXX. PROG”.
A continuación, la estructura interna de la información relativa a todo el disco BD (“BD.INFO”) se describirá con referencia a la FIG. 37. La información relativa a todo el disco BD incluye una lista de títulos (ListaTítulos) y una tabla de sucesos para sucesos globales (ListaSucesos).
La lista de títulos (ListaTítulos) incluye el número de títulos de un disco (Número) y fragmentos de información detítulo (Título#1 a Título#3) que siguen al número de títulos. Los fragmentos respectivos de información de título(Título#) incluyen una tabla de lista de reproducción en el título (TablaPL) y una lista de capítulos en el título(ListaCapítulos). La tabla de listas de reproducción (TablaPL) incluye el número de listas de reproducción en el título (Número) y nombres de listas de reproducción (Nombre) que son los nombres de ficheros de listas de reproducción.
La lista de capítulos (ListaCapítulos) incluye el número de capítulos incluidos en el título (Número) y fragmentos deinformación de capítulo (Capítulo#1 a Capítulo#n). Cada fragmento de información de capítulo (Capítulo#) incluyeuna tabla de celdas (TablaCeldas) incluida en el capítulo, y la tabla de celdas (TablaCeldas) incluye el número deceldas (Número) y fragmentos de información de entrada de celdas (EntradaCelda#1 a EntradaCelda#k). La información de entrada de celda (EntradaCelda#) incluye el nombre de lista de reproducción que incluye la celda yun número de celda en la lista de reproducción.
La lista de sucesos (ListaSucesos) incluye el número de sucesos globales (Número) y fragmentos de información desucesos globales. Debería observarse que el suceso global a definir en primer lugar se denomina primer suceso(PrimerSuceso), y es el suceso invocado en primer lugar después de la inserción del disco BD en un reproductor. La información de suceso para sucesos globales tiene solamente un tipo de suceso (Tipo) y un identificador de suceso(ID).
La FIG. 38 es una tabla (“BD.PROG”) de un programa de un gestor de sucesos globales. El contenido de esta tablaes el mismo que el contenido de la tabla de gestión de sucesos descrita en la FIG. 36.
En el caso de almacenar la información de reproducción trucada anteriormente descrita en el formato de BD-ROM descrito hasta ahora, se considera que una VOBU incluye una o más unidades RAU de acceso aleatorio, y lainformación de reproducción trucada se incluye en la AU superior de la VOBU. Obsérvese que, en la AVC de MPEG4, se incluye una unidad NAL donde se almacena información de reproducción trucada.
Obsérvese que la información de reproducción trucada se puede almacenar en la información de gestión del BD. Porejemplo, es posible almacenar información de reproducción trucada preparada VOBU a VOBU, extendiendo el mapa temporal de la información de gestión del VOB. Igualmente, es posible definir un nuevo mapa para almacenar lainformación de reproducción trucada.
Igualmente, es posible almacenar la información de reproducción trucada bien en la VOBU o bien en la informaciónde gestión del BD.
Igualmente es posible almacenar solamente el valor por omisión de la información de reproducción trucada en la información de gestión del BD, y solamente en el caso donde la información de reproducción trucada, en cuanto a laVOBU, sea distinta al valor por omisión, es posible almacenar la información de reproducción trucada en la VOBU.
Igualmente, es posible almacenar un conjunto de uno o más fragmentos de información de reproducción trucada enla información de gestión del BD como la información que es común entre los flujos. La VOBU se puede referir a unfragmento de información de reproducción trucada entre los fragmentos de información de reproducción trucada almacenada en la información de gestión del BD. En este caso, la información de índice de la información dereproducción trucada objeto de referencia por la VOBU se almacena en la información de gestión de una unidadVOBU o en la VOBU.
(Reproductor para reproducir discos ópticos)
La FIG. 39 es un diagrama en bloques que muestra en líneas generales la estructura funcional de un reproductor que reproduce un disco BD mostrado en la FIG. 31, y similares. Los datos sobre el disco BD 201 se leen medianteun lector óptico 202. Los datos de lectura se transmiten a una memoria exclusiva según los tipos de los datos respectivos. El programa de reproducción de BD (el contenido de “BD.PROG” o “XXX.PROG”) se transmite a unamemoria 203 de programa. Igualmente, la información de gestión del BD (“BD.INFO”, “XXX.PL” o “YYY.VOBI”) se transmite a una memoria 204 de información de gestión. Igualmente los datos de VA (“YYY.VOB” o “ZZZ.PNG”) se transmiten a una memoria 205 de VA.
El programa de reproducción de BD grabado en la memoria 203 de programa se procesa mediante una unidad 206de procesamiento de programas. Igualmente, la información de gestión del BD grabada en la memoria 204 deinformación de gestión se procesa mediante la unidad 207 de procesamiento de información de gestión. Igualmente,los datos de VA grabados en la memoria 205 de VA se procesan mediante una unidad 208 de procesamiento de presentación.
La unidad 206 de procesamiento de programa recibe la información de listas de reproducción a reproducir por launidad 207 de procesamiento de información de gestión y la información de sucesos, tal como la programación de laejecución del programa, y realiza el procesamiento del programa. Igualmente, es posible cambiar dinámicamente laslistas de reproducción a reproducir por el programa. Esto se puede llevar a cabo enviando una instrucción de reproducción de las listas de reproducción a la unidad 207 de procesamiento de información de gestión. La unidad206 de procesamiento de programa recibe un suceso de un usuario; dicho de otro modo, recibe una petición a través
de un controlador remoto y, en el caso donde haya un programa que corresponda al suceso de usuario, ejecuta el programa.
La unidad 207 de procesamiento de información de gestión recibe una instrucción de la unidad 206 de procesamiento de programa, analiza las listas de reproducción y la información de gestión de los VOB quecorresponden a las listas de reproducción, e instruye a la unidad 208 de procesamiento de presentación para reproducir los datos de VA deseados. Igualmente, la unidad 207 de procesamiento de información de gestión recibela información de tiempo estándar desde la unidad 208 de procesamiento de presentación, instruye a la unidad 208de procesamiento de presentación para detener la reproducción de los datos de VA basándose en la información detiempo. Igualmente, la unidad 207 de procesamiento de información de gestión genera un suceso para notificar a launidad 206 de procesamiento de programas la programación de la ejecución del programa.
La unidad 208 de procesamiento de presentación tiene un descodificador que puede procesar vídeo, audio ysubtítulos / imágenes (imágenes fijas), respectivamente. Descodifica y emite los datos de VA según una instrucciónde la unidad 207 de procesamiento de información de gestión. En el caso de datos de vídeo, y subtítulos / imágenes,se descodifican y a continuación se representan en los planos exclusivos respectivos, es decir, el plano 210 de vídeoy el plano 209 de imagen. Después de esto, la unidad 211 de procesamiento de síntesis lleva a cabo el procesamiento de síntesis sobre el vídeo, y emite el vídeo hacia un dispositivo de visualización tal como un televisor.
En el momento de la reproducción trucada, tal como la reproducción a saltos, la reproducción a velocidad variable yla reproducción inversa, la unidad 208 de procesamiento de presentación interpreta la operación de reproduccióntrucada solicitada por el usuario, y notifica a la unidad 207 de procesamiento de información de gestión sobre lainformación tal como la velocidad de reproducción. La unidad 207 de procesamiento de información de gestiónanaliza la información de reproducción trucada almacenada en la AU superior de la VOBU y determina las AU adescodificar y visualizar de manera que la operación de reproducción trucada especificada por el usuario se puedarealizar de manera segura. Obsérvese que la unidad 207 de procesamiento de información de gestión puedeobtener la información de reproducción trucada, emitirla hacia la unidad 208 de procesamiento de presentación ydeterminar las AU a descodificar y las AU a visualizar en la unidad 208 de procesamiento de presentación.
Obsérvese que un sistema informático autónomo puede ejecutar fácilmente el procesamiento mostrado en estarealización, grabando el programa para realizar el procedimiento de codificación de imágenes en movimiento y elprocedimiento de descodificación de imágenes en movimiento mostrados en esta realización en un medio degrabación tal como un disco flexible.
Las FIG. 40A a 40C son ilustraciones del modo en que el sistema informático ejecuta el procedimiento decodificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento de estarealización usando un programa grabado en un medio de grabación tal como un disco flexible.
La FIG. 40A muestra un ejemplo de un formato físico de un disco flexible como un medio de grabación. La FIG. 40Bmuestra un disco flexible y la vista frontal y la vista en sección transversal del aspecto del disco flexible. Un discoflexible (FD) va contenido en una carcasa F, una pluralidad de pistas (Tr) se forman concéntricamente sobre la superficie del disco desde el radio exterior hacia el radio interior del disco, y cada pista se divide en 16 sectores (Se)en la dirección angular. Por lo tanto, en el caso del disco flexible que almacena el programa anteriormente descrito,el programa se graba en un área asignada al mismo sobre el disco flexible (FD).
Igualmente, la FIG. 40C muestra la estructura para grabar y reproducir el programa sobre el disco flexible. En el casode grabar el programa anterior para realizar el procedimiento de codificación de imágenes en movimiento y elprocedimiento de descodificación de imágenes en movimiento sobre el disco flexible FD, un sistema informático Csescribe el programa sobre el disco flexible a través de una unidad de disco flexible. Igualmente, en el caso deconstruir el anterior aparato de codificación de imágenes en movimiento y el anterior aparato de descodificación deimágenes en movimiento para realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento usando el programa en el disco flexible, el programa se lee desde el disco flexible a través de la unidad de disco flexible, y se transmite al sistema informático.
Obsérvese que la anterior descripción se ha realizado usando un disco flexible como medio de grabación, pero elprograma se puede grabar sobre un disco óptico. Igualmente, un soporte de grabación no se limita a esto, y sepuede usar otro medio de grabación tal como una tarjeta IC o un casete de memoria ROM, mientras pueda grabar el programa.
Hasta este punto, el aparato de generación de un flujo de imágenes en movimiento, el aparato de codificación deimágenes en movimiento, el aparato de multiplexado de imágenes en movimiento y el aparato de descodificación deimágenes en movimiento de la presente invención se han descrito basándose en la realización, pero la presente invención no se limita a esta realización.
Por ejemplo, la presente invención incluye lo siguiente en esta realización: (i) un aparato de generación de un flujo de imágenes en movimiento; un aparato de grabación de disco óptico que tiene uno entre un aparato de codificaciónde imágenes en movimiento y un aparato de descodificación de imágenes en movimiento; un aparato de envío deimágenes en movimiento; un aparato de transmisión por difusión de televisión digital; un servidor de la Web; unaparato de comunicación; un terminal de información móvil; y similares; y (ii) un aparato de recepción de imágenesen movimiento que tiene un aparato de descodificación de imágenes en movimiento; un aparato de recepción dedifusión de televisión digital; un aparato de comunicación; un terminal de información móvil; y similares.
Obsérvese que los bloques funcionales respectivos mostrados en las FIG. 21, 23, 27 y 39 se realizan típicamentecomo un LSI, es decir, un circuito de integración a gran escala. Cada uno de los bloques funcionales se puedefabricar en un único chip, o bien una parte de, o todos, los bloques funcionales puede(n) integrarse en un único chip(por ejemplo, los bloques funcionales, salvo una memoria, se pueden fabricar en un solo chip). El circuito integrado
se denomina LSI aquí, pero se puede denominar IC, sistema LSI, super LSI o ultra LSI, según el nivel de integración.Igualmente, el procedimiento de fabricación de los mismos en un circuito integrado no se limita al procedimiento desu fabricación en un LSI; se puede realizar mediante un circuito exclusivo o un procesador genérico. Igualmente, esposible usar (i) un procesador reconfigurable donde la conexión, o la configuración, de células de circuitos se puedereconfigurar o (ii) una FPGA programable (Formación de compuertas programables en el terreno), después de fabricarlos en un LSI. Además, en el caso donde la técnica de su fabricación en un circuito integrado, en lugar de sufabricación en un LSI, aparezca cuando se desarrolla adicionalmente la técnica de semiconductores o aparezcacualquier técnica derivada, a su debido tiempo se pueden fabricar bloques funcionales en un circuito integrado queuse tal nueva técnica. La aplicación de biotécnica es probable. Igualmente, entre los bloques funcionalesrespectivos, una unidad de almacenamiento (una memoria de imagen), en la cual se almacenen los datos de imagen a codificar o descodificar, se puede configurar por separado en lugar de incluirse en un único chip.
Aplicabilidad Industrial
La presente invención se puede aplicar como: un aparato de generación de flujo de imágenes en movimiento quegenera una imagen en movimiento a reproducir en reproducción trucada; un aparato de codificación de imágenes enmovimiento que genera, por codificación, una imagen en movimiento a reproducir en “reproducción trucada”; un aparato de multiplexado de imágenes en movimiento que genera, por multiplexado en paquetes, una imagen enmovimiento a reproducir en reproducción trucada; y un aparato de descodificación de imágenes en movimiento quereproduce la imagen en movimiento en reproducción trucada; y, especialmente, como un aparato para construir elsistema para reproducir un flujo AVC de MPEG-4, usando una modalidad de reproducción trucada, tal como lareproducción a velocidad variable y la reproducción inversa, siendo tal aparato, por ejemplo, un aparato relacionado con un disco óptico sobre el cual se enfoca generalmente la función de reproducción trucada.
Sigue una lista de realizaciones adicionales.
Realización 1. Un aparato de generación de flujos de imágenes en movimiento para generar un flujo que incluyeimágenes que constituyen una imagen en movimiento, comprendiendo dicho aparato: una unidad de generación deinformación suplementaria, operable para generar, para cada unidad de acceso aleatorio, información suplementaria a la que hacer referencia en el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cadaunidad de acceso aleatorio una o más imágenes; y una unidad de generación de flujos, operable para generar unflujo que incluye la información suplementaria generada y las imágenes, añadiendo la información suplementaria acada correspondiente unidad de acceso aleatorio, en el cual, en un extremo superior de cada unidad de accesoaleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificar imágenes a descodificar en el momento en que lasimágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 2. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 1, en el cual la reproducción trucada incluye al menos una entre: reproducción a saltos; reproducción avelocidad variable; y reproducción inversa.
Realización 3. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 2, en el cual cada una de las imágenes está compuesta de unidades de subimagen, y dicha unidad degeneración de flujos es operable para almacenar la información suplementaria en una primera unidad de subimagen, distinta a una segunda unidad de subimagen, para almacenar un valor de píxel de cada una de las imágenes.
Realización 4. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 3, en el cual cada unidad de acceso aleatorio tiene una o más imágenes, y dicha unidad de generaciónde flujos es operable para almacenar la información suplementaria en una imagen superior incluida en cada unidadde acceso aleatorio.
Realización 5. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 4, en el cual la información suplementaria incluye información para especificar imágenes a descodificar en el momento de la reproducción de cada unidad de acceso aleatorio a una velocidad especificada.
Realización 6. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 4, en el cual la información suplementaria incluye información que indica prioridades de imágenes, enbase a las cuales se reproduce cada unidad de acceso aleatorio.
Realización 7. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 4, en el cual la información suplementaria incluye fragmentos de información que indican tipos de imagende todas las imágenes incluidas en cada unidad de acceso aleatorio, estando colocados los fragmentos de información en un orden que corresponde a un orden de descodificación de las imágenes.
Realización 8. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 7, en el cual los tipos de imagen incluyen: una imagen I sobre la cual se lleva a cabo la intra-codificación; una imagen P sobre la cual se lleva a cabo la inter-codificación, con referencia a una imagen por bloque, siendo elbloque una unidad básica en la codificación; una imagen B de referencia sobre la cual se lleva a cabo la intercodificación con referencia a dos imágenes por bloque, siendo el bloque una unidad básica en la codificación, ysiendo la imagen B de referencia una imagen que es objeto de referencia por parte de otra imagen; y una imagen Bde no-referencia sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, siendoel bloque una unidad básica en la codificación, y siendo la imagen B de no-referencia una imagen que no es objetode referencia por parte de otra imagen.
Realización 9. El aparato de generación de flujos de imágenes en movimiento con las características de la realización 4, en el cual la información suplementaria incluye fragmentos de información que indican tipos de
estructuras de imagen de todas las imágenes incluidas en cada unidad de acceso aleatorio, estando colocados losfragmentos de información en un orden que corresponde a un orden de descodificación de las imágenes.
Realización 10. El aparato de generación de flujos de imágenes en movimiento con las características de larealización 9, en el cual los tipos de estructuras de imagen incluyen al menos: una estructura de campos; y unaestructura de tramas.
Realización 11. El aparato de generación de flujos de imágenes en movimiento con las características de larealización 10, en el cual los tipos de estructuras de imagen incluyen adicionalmente una estructura de tramas coninformación que indica si una imagen tiene un campo de visualización equivalente a dos imágenes, o si la imagentiene un campo de visualización equivalente a tres imágenes, en el caso en que la imagen tenga una estructura de tramas.
Realización 12. El aparato de generación de flujos de imágenes en movimiento con las características de larealización 1, comprendiendo adicionalmente dicho aparato una unidad de adición de conjuntos de parámetros desecuencia, operable para añadir, a cada unidad de acceso aleatorio, un conjunto de parámetros de secuencia, esdecir, un grupo de parámetros con respecto a una o más imágenes, en el que la secuencia está compuesta deimágenes que se inician con una imagen especial en la cual se reinician todos los estados necesarios para la descodificación, y que terminan con una imagen que se coloca inmediatamente antes de una próxima imagen especial.
Realización 13. El aparato de generación de flujos de imágenes en movimiento con las características de larealización 12, en el cual cada unidad de acceso aleatorio consiste en una o más imágenes, y dicha unidad deadición de conjuntos de parámetros de secuencia es operable para almacenar un conjunto de parámetros de secuencia que es objeto de referencia por cada imagen en la unidad de acceso aleatorio, solamente en una imagensuperior incluida en cada unidad de acceso aleatorio.
Realización 14. Un aparato de generación de flujos de imágenes en movimiento, para generar un flujo que incluyeimágenes que constituyen una imagen en movimiento, comprendiendo dicho aparato una unidad de adición deconjuntos de parámetros de secuencia, operable para generar un flujo de imágenes en movimiento que incluye conjuntos de parámetros de secuencia, añadiendo los conjuntos de parámetros de secuencia, para cada unidad deacceso aleatorio, siendo cada uno de los conjuntos de parámetros de secuencia un grupo de parámetros conrespecto a una o más imágenes, en el cual la secuencia está compuesta de imágenes que se inician con unaimagen especial en la cual se reinician todos los estados necesarios para la descodificación, y que terminan con unaimagen que se coloca inmediatamente antes de una próxima imagen especial.
Realización 15. El aparato de generación de flujos de imágenes en movimiento con las características de larealización 14, en el cual cada unidad de acceso aleatorio consiste en una o más imágenes, y dicha unidad deadición de conjuntos de parámetros de secuencia es operable para almacenar un conjunto de parámetros desecuencia, que sea objeto de referencia por cada imagen en la unidad de acceso aleatorio, solamente en unaimagen superior incluida en cada unidad de acceso aleatorio.
Realización 16. Un procedimiento de generación de flujos de imágenes en movimiento para generar un flujo queincluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho procedimiento: generar, paracada unidad de acceso aleatorio, información suplementaria a la que hacer referencia en el momento de lareproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes;y generar un flujo que incluye la información suplementaria generada y las imágenes, añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio, en el cual, en un extremo superior de cadaunidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender deninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar enel momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproduccióntrucada.
Realización 17. Un programa para su uso con un aparato de generación de flujos de imágenes en movimiento, paragenerar un flujo que incluye imágenes que constituyen una imagen en movimiento, haciendo el programa que unordenador ejecute un procedimiento de generación de flujos de imágenes en movimiento, que incluye: generar, paracada unidad de acceso aleatorio, información suplementaria a la que hacer referencia en el momento de lareproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; y generar un flujo que incluye la información suplementaria generada y las imágenes, añadiendo la informaciónsuplementaria a cada correspondiente unidad de acceso aleatorio, en la cual, en un extremo superior de cadaunidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender deninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar enel momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 18. Un aparato de codificación de imágenes en movimiento, para codificar imágenes que constituyenuna imagen en movimiento, comprendiendo dicho aparato: una unidad de generación de información suplementaria,operable para generar, para cada unidad de acceso aleatorio, información suplementaria a la que hacer referenciaen el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; y una unidad de codificación operable para codificar la información suplementaria generada ylas imágenes, y operable para generar un flujo que incluya la información suplementaria codificada y las imágenes,añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio, en la cual, en unextremo superior de cada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de acceso aleatorio sereproduzcan con reproducción trucada.
Realización 19. Un procedimiento de codificación de imágenes en movimiento, para codificar imágenes queconstituyen una imagen en movimiento, comprendiendo dicho procedimiento: generar, para cada unidad de accesoaleatorio, información suplementaria a la que hacer referencia en el momento de la reproducción de cada unidad deacceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; y codificar la informaciónsuplementaria generada y las imágenes, y generar un flujo que incluye la información suplementaria codificada y las imágenes, añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio, en la cual,en un extremo superior de cada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificarlas imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de acceso aleatorio sereproduzcan con reproducción trucada.
Realización 20. Un programa para un aparato de codificación de imágenes en movimiento, para codificar imágenesque constituyen una imagen en movimiento, haciendo el programa que un ordenador ejecute un procedimiento decodificación de imágenes en movimiento que incluye: generar, para cada unidad de acceso aleatorio, informaciónsuplementaria a la que hacer referencia en el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; y codificar la información suplementaria generada y las imágenes, y generar un flujo que incluya la información suplementaria codificada y las imágenes, añadiendo lainformación suplementaria a cada correspondiente unidad de acceso aleatorio, en la cual, en un extremo superior decada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin dependerde ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificaren el momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 21. Un aparato multiplexador de imágenes en movimiento, para codificar imágenes que constituyen unaimagen en movimiento, comprendiendo dicho aparato: una unidad de generación de información suplementaria,operable para generar, para cada unidad de acceso aleatorio, información suplementaria a la que hacer referenciaen el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; una unidad de codificación operable para codificar la información suplementaria generada ylas imágenes, y operable para generar un flujo que incluye la información suplementaria codificada y las imágenes,añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio, una unidad de paquetización operable para paquetizar el flujo codificado generado, y una unidad multiplexadora operable paragenerar información de gestión, almacenando al menos una entre las siguientes: información de tiempo de reproducción de imágenes en el flujo codificado y paquetizado; información de tamaño de las imágenes; e información de dirección de inicio de cada unidad de acceso aleatorio; y operable para multiplexar la información degestión y el flujo codificado y paquetizado en distintas áreas, en el cual, en un extremo superior de cada unidad deacceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ningunaimagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproduccióntrucada.
Realización 22. Un procedimiento multiplexador de imágenes en movimiento, para codificar imágenes queconstituyen una imagen en movimiento, comprendiendo dicho procedimiento: generar, para cada unidad de accesoaleatorio, información suplementaria a la que hacer referencia en el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; codificar la información suplementaria generada y las imágenes, y generar un flujo que incluya la información suplementaria codificada y las imágenes, añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio; paquetizar elflujo codificado generado; y generar información de gestión almacenando al menos una de las siguientes:información de tiempo de reproducción de imágenes en el flujo codificado y paquetizado; información de tamaño de las imágenes; e información de dirección de inicio de cada unidad de acceso aleatorio; y operable para multiplexar lainformación de gestión y el flujo codificado y paquetizado en distintas áreas, en el cual, en un extremo superior decada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin dependerde ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificaren el momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 23. Un programa para un aparato multiplexador de imágenes en movimiento, para codificar imágenesque constituyen una imagen en movimiento, haciendo el programa que un ordenador ejecute un procedimientomultiplexador de imágenes en movimiento que incluye: generar, para cada unidad de acceso aleatorio, informaciónsuplementaria a la que hacer referencia en el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; codificar la información suplementaria generada ylas imágenes, y generar un flujo que incluye la información suplementaria codificada y las imágenes, añadiendo lainformación suplementaria a cada correspondiente unidad de acceso aleatorio; paquetizar el flujo codificado generado; y generar información de gestión, almacenando al menos una entre las siguientes: información de tiempode reproducción de imágenes en el flujo codificado y paquetizado; información de tamaño de las imágenes; e información de la dirección de inicio de cada unidad de acceso aleatorio; y operable para multiplexar la informaciónde gestión y el flujo codificado y paquetizado en distintas áreas, en el cual, en un extremo superior de cada unidadde acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ningunaimagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en elmomento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 24. Un aparato descodificador de imágenes en movimiento, para descodificar y reproducir un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho aparato: una unidad de obtención de instrucciones, operable para obtener una instrucción que indique que debería llevarse a cabo lareproducción trucada; una unidad de análisis, operable para analizar, por demultiplexado, información suplementaria para cada unidad de acceso aleatorio, donde cada unidad de acceso aleatorio constituye el flujo; una unidad de
especificación de imágenes a reproducir, operable para especificar las imágenes, entre las imágenes incluidas encada unidad de acceso aleatorio, que se necesitan para la reproducción trucada indicada por la instrucción obtenidapor dicha unidad de obtención de instrucciones, en base a un resultado de análisis obtenido por dicha unidad deanálisis; y una unidad de descodificación operable para descodificar y reproducir las imágenes especificadas pordicha unidad de especificación de imágenes a reproducir, en el cual, en un extremo superior de cada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ningunaimagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en elmomento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproduccióntrucada.
Realización 25. El aparato descodificador de imágenes en movimiento con las características de la realización 24, enel cual dicha unidad de especificación de imágenes a reproducir es operable para especificar las imágenesnecesarias para la reproducción trucada, en base a una regla predeterminada, en el caso en que dicha unidad deanálisis analice una unidad de acceso aleatorio y obtenga como resultado que la unidad de acceso aleatorio noincluye información suplementaria.
Realización 26. El aparato descodificador de imágenes en movimiento con las características de la realización 24, comprendiendo adicionalmente dicho aparato una unidad de especificación de unidades de acceso aleatorio, operable para extraer, desde el flujo, un conjunto de parámetros de secuencia, es decir, un grupo de parámetros conrespecto a una o más imágenes, y operable para especificar una unidad de acceso aleatorio que incluya unaimagen, como una imagen superior, en la cual se incluya el conjunto de parámetros de secuencia extraído; en elcual dicha unidad de especificación de imágenes a reproducir es operable para especificar la imagen superiorincluida en la unidad de acceso aleatorio especificada por dicha unidad de especificación de unidades de accesoaleatorio, y la secuencia comienza con una imagen especial en la cual se reinician todos los estados necesariospara la descodificación, y la secuencia está compuesta por imágenes que se inician con una imagen especial yterminan con una imagen que se coloca inmediatamente antes de una próxima imagen especial.
Realización 27. Un procedimiento descodificador de imágenes en movimiento, para descodificar y reproducir un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho procedimiento: obtener unainstrucción que indica que debería llevarse a cabo la reproducción trucada; analizar, por demultiplexado, informaciónsuplementaria para cada unidad de acceso aleatorio, constituyendo el flujo cada unidad de acceso aleatorio; especificar las imágenes, entre las imágenes incluidas en cada unidad de acceso aleatorio, que se necesitan para lareproducción trucada indicada por la instrucción obtenida en dicha obtención, en base a un resultado de análisisobtenido por dicho análisis; y descodificar y reproducir las imágenes especificadas por dicha especificación, en elcual, en un extremo superior de cada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información paraespecificar las imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de accesoaleatorio se reproduzcan con reproducción trucada.
Realización 28. Un programa para un aparato descodificador de imágenes en movimiento, para descodificar yreproducir un flujo que incluye imágenes codificadas que constituyen una imagen en movimiento, haciendo elprograma que un ordenador ejecute un procedimiento descodificador de imágenes en movimiento que incluye:obtener una instrucción que indica que debería llevarse a cabo la reproducción trucada; analizar, por demultiplexado,información suplementaria para cada unidad de acceso aleatorio, constituyendo el flujo cada unidad de accesoaleatorio; especificar las imágenes, entre las imágenes incluidas en cada unidad de acceso aleatorio, que senecesitan para la reproducción trucada indicada por la instrucción obtenida en dicha obtención, en base a unresultado de análisis obtenido por dicho análisis; y descodificar y reproducir las imágenes especificadas por dichaespecificación; en el cual, en un extremo superior de cada unidad de acceso aleatorio, se coloca una imagen intracodificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en el momento en que las imágenes incluidas en cadaunidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 29. Un flujo que comprende imágenes que constituyen una imagen en movimiento, en el cual cadaunidad de acceso aleatorio incluye una información suplementaria a la que hacer referencia en el momento de lareproducción de la unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes, enun extremo superior de cada unidad de acceso aleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificarlas imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de acceso aleatorio sereproduzcan con reproducción trucada.
Realización 30. Un medio de grabación legible por ordenador que comprende un flujo que incluye imágenes que constituyen una imagen en movimiento, en el cual cada unidad de acceso aleatorio incluye la información suplementaria a la que hacer referencia en el momento de la reproducción de la unidad de acceso aleatorio,incluyendo cada unidad de acceso aleatorio una o más imágenes, en un extremo de cada unidad de accesoaleatorio, se coloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en el momento en quelas imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.
Realización 31. Un circuito integrado para generar un flujo que incluye imágenes que constituyen una imagen enmovimiento, comprendiendo dicho circuito integrado: una unidad de generación de información suplementaria,operable para generar, para cada unidad de acceso aleatorio, información suplementaria a la que hacer referenciaen el momento de la reproducción de cada unidad de acceso aleatorio, incluyendo cada unidad de acceso aleatorio una o más imágenes; y una unidad de circuitos de generación de flujos, operable para generar un flujo que incluye la información suplementaria generada y las imágenes, añadiendo la información suplementaria a cada correspondiente unidad de acceso aleatorio, en el cual, en un extremo de cada unidad de acceso aleatorio, secoloca una imagen intra-codificada que puede ser descodificada sin depender de ninguna imagen, y la información suplementaria incluye información para especificar las imágenes a descodificar en el momento en que las imágenes incluidas en cada unidad de acceso aleatorio se reproduzcan con reproducción trucada.

Claims (7)

  1. REIVINDICACIONES
    1. Un aparato de generación de un flujo de imágenes en movimiento que genera un flujo que incluye imágenes queconstituyen una imagen en movimiento, comprendiendo dicho aparato de generación de un flujo de imágenes enmovimiento:
    una primera unidad de codificación operable para codificar una primera información suplementaria incluida en una unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primeraimagen es una imagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos de imagen, que indica tipos de todas las imágenes incluidas en el grupo, y (ii)utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes, y los fragmentos plurales de informaciónde tipos de imagen incluyen al menos: una imagen I sobre la cual se lleva a cabo la intra-codificación; unaimagen P sobre la cual se lleva a cabo la inter-codificación con referencia a una imagen por bloque, que esuna unidad básica en la codificación; una primera imagen B sobre la cual se lleva a cabo la inter-codificacióncon referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que puede ser objeto de referencia de una imagen; y una segunda imagen B sobre la cual se lleva a cabo la intercodificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que nopuede ser objeto de referencia de ninguna otra imagen;
    una segunda unidad de codificación operable para codificar una segunda información suplementaria incluidaen la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de información de estructuras de imagen, que indica estructuras de todas las imágenes incluidas en el grupo, y
    (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen enreproducción trucada, estando los fragmentos plurales de información de estructuras de imagen colocados enel orden que corresponde al orden de descodificación del grupo de imágenes; y los fragmentos plurales deinformación de tipos de imagen incluyen al menos información que indica si la estructura de imagen de cada imagen es una estructura de campos, una primera estructura de tramas para visualizar la imagen usando doscampos de visualización, o una segunda estructura de tramas para visualizar la imagen, usando tres camposde visualización, mediante la visualización repetida de un primer campo de visualización en un momento deuso del avance descendente 3-2.
    una unidad de generación operable para generar un flujo de imágenes en movimiento, añadiendo la información suplementaria codificada primera y segunda a una imagen codificada correspondiente a laprimera imagen I que sea una imagen inicial de la unidad de acceso aleatorio.
  2. 2. Un procedimiento de generación de un flujo de imágenes en movimiento para generar un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho procedimiento de generación de unflujo de imágenes en movimiento:
    una primera etapa de codificación de la primera información suplementaria incluida en una unidad de accesoaleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es unaimagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos deimagen, que indica los tipos de todas las imágenes incluidas en el grupo, y (ii) utilizándose cuando lasimágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un ordende descodificación del grupo de imágenes, y los fragmentos plurales de información de tipos de imagenincluyen al menos: una imagen I sobre la cual se lleva a cabo la intra-codificación; una imagen P sobre la cualse lleva a cabo la inter-codificación con referencia a una imagen por bloque, que es una unidad básica en lacodificación; una primera imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que puede ser objeto de referencia deuna imagen; y una segunda imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que no puede ser objeto de referenciade ninguna otra imagen;
    una segunda etapa de codificación para codificar la segunda información suplementaria incluida en la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de informaciónde estructuras de imagen, que indica las estructuras de todas las imágenes incluidas en el grupo, y (ii)utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, estando los fragmentos plurales de información de estructuras de imagen colocados en el orden quecorresponde al orden de descodificación del grupo de imágenes; e incluyendo los fragmentos plurales de información de estructuras de imagen al menos información que indica si la estructura de imagen de cadaimagen es una estructura de campos, una primera estructura de tramas para visualizar la imagen usando doscampos de visualización, o una segunda estructura de tramas para visualizar la imagen usando tres camposde visualización, mediante la visualización repetida de un primer campo de visualización en un momento deuso del avance descendente 3-2; y
    una etapa de generación para generar un flujo de imágenes en movimiento añadiendo la información suplementaria codificada primera y segunda a una imagen codificada correspondiente a la primera imagen I,que es una imagen inicial de la unidad de acceso aleatorio,
  3. 3. Un aparato de descodificación de imágenes en movimiento que descodifica un flujo que incluye imágenescodificadas que constituyen una imagen en movimiento y reproduce el flujo descodificado, comprendiendo dicho aparato de descodificación de imágenes en movimiento:
    una unidad de obtención de instrucciones operable para obtener una instrucción que indica que se deberíallevar a cabo la reproducción trucada;
    una unidad de análisis operable para analizar una primera información suplementaria y una segunda información suplementaria para la unidad de acceso aleatorio, demultiplexando la información suplementariaprimera y segunda de una primera imagen I, efectuándose el análisis para cada unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I;
    una unidad de especificación de imágenes de reproducción operable para especificar imágenes, entre lasimágenes incluidas en la unidad de acceso aleatorio, que son necesarias para la reproducción trucadaindicada por la instrucción obtenida por dicha unidad de obtención de instrucciones, en base a un resultadodel análisis realizado por dicha unidad de análisis; y
    una unidad de descodificación operable para descodificar las imágenes especificadas por dicha unidad deespecificación de imágenes de reproducción y reproducir las imágenes descodificadas,
    en el cual la primera información suplementaria incluida en la unidad de acceso aleatorio son fragmentosplurales de información de tipos de imágenes, que indican tipos de todas las imágenes incluidas en la unidadde acceso aleatorio, y que están colocadas en un orden que corresponde a un orden de descodificación del grupo de imágenes; incluyendo los fragmentos plurales de información de tipos de imagen al menos: unaimagen I sobre la cual se lleva a cabo la intra-codificación; una imagen P sobre la cual se lleva a cabo la intercodificación con referencia a una imagen por bloque, que es una unidad básica en la codificación; unaprimera imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes porbloque, que es una unidad básica en la codificación, y que puede ser objeto de referencia de una imagen; y una segunda imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes porbloque, que es una unidad básica en la codificación, y que no puede ser objeto de referencia de ninguna otra imagen; la segunda información suplementaria incluida en la unidad de acceso aleatorio son fragmentosplurales de información de estructuras de imágenes que indican estructuras de todas las imágenes incluidasen la unidad de acceso aleatorio, y que están colocadas en el orden que corresponde al orden de descodificación del grupo de imágenes, incluyendo los fragmentos plurales de información de estructuras de imagen al menos información que indica si la estructura de imagen de cada imagen es una estructura decampos, o una primera estructura de tramas para visualizar la imagen usando tres campos de visualización,mediante la visualización repetida de un primer campo de visualización en un momento de uso del avancedescendente 3-2, y
    la información suplementaria primera y segunda se añaden a una imagen codificada correspondiente a laprimera imagen I que es la imagen inicial de la unidad de acceso aleatorio, y se utilizan cuando las imágenesincluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada.
  4. 4. Un procedimiento de descodificación de imágenes en movimiento para descodificar un flujo que incluye imágenescodificadas que constituyen una imagen en movimiento y reproducir el flujo descodificado, comprendiendo dicho procedimiento de descodificación de imágenes en movimiento:
    una etapa de obtención de instrucciones para obtener una instrucción que indica que se debería llevar a cabola reproducción trucada;
    una etapa de análisis para analizar una primera información suplementaria y una segunda informaciónsuplementaria para la unidad de acceso aleatorio, demultiplexando la información suplementaria primera y segunda de una primera imagen I, efectuándose el análisis para cada unidad de acceso aleatorio, incluyendola unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen;
    una etapa de especificación de imágenes de reproducción, para especificar imágenes, entre las imágenesincluidas en la unidad de acceso aleatorio, que son necesarias para la reproducción trucada indicada por lainstrucción obtenida en dicha etapa de obtención de instrucciones, en base a un resultado del análisis realizado en dicha etapa de análisis; y
    una etapa de descodificación para descodificar las imágenes especificadas en dicha etapa de especificaciónde imágenes de reproducción y reproducir las imágenes descodificadas,
    en el cual la primera información suplementaria incluida en la unidad de acceso aleatorio son fragmentosplurales de información de tipos de imágenes, que indican tipos de todas las imágenes incluidas en la unidad de acceso aleatorio, y que están colocadas en un orden que corresponde a un orden de descodificación del grupo de imágenes, incluyendo los fragmentos plurales de información de tipos de imagen al menos: unaimagen I sobre la cual se lleva a cabo la intra-codificación; una imagen P sobre la cual se lleva a cabo la intercodificación con referencia a una imagen por bloque, que es una unidad básica en la codificación; unaprimera imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, y que puede ser objeto de referencia de una imagen; yuna segunda imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes porbloque, que es una unidad básica en la codificación, y que no puede ser objeto de referencia de ninguna otra imagen;
    la segunda información suplementaria incluida en la unidad de acceso aleatorio son fragmentos plurales de información de estructuras de imágenes que indican estructuras de todas las imágenes incluidas en la unidadde acceso aleatorio, y que están colocadas en el orden que corresponde al orden de descodificación del grupo de imágenes, incluyendo los fragmentos plurales de información de estructuras de imagen al menosinformación que indica si la estructura de imagen de cada imagen es una estructura de campos, o una
    primera estructura de tramas para visualizar la imagen usando dos campos de visualización, o una segundaestructura de trama para visualizar la imagen usando tres campos de visualización, mediante la visualizaciónrepetida del primer campo de visualización en un momento de uso del avance descendente 3-2; y lainformación suplementaria primera y segunda se añaden a una imagen codificada correspondiente a laprimera imagen I que es la imagen inicial de la unidad de acceso aleatorio, y se utilizan cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada.
  5. 5. Un medio de grabación legible por ordenador sobre el cual se graba un flujo, incluyendo el flujo imágenes einformación suplementaria primera y segunda,
    en el cual el flujo está estructurado de manera que la primera información suplementaria y la segunda informaciónsuplementaria se añadan a una imagen codificada correspondiente a una primera imagen I, que es una primera imagen de una unidad de acceso aleatorio, y se utilicen cuando las imágenes incluidas en cada unidad de accesoaleatorio se reproduzcan en reproducción trucada, incluyendo la unidad de acceso aleatorio un grupo de imágenescuya primera imagen es una imagen I, siendo la primera información suplementaria incluida en la unidad de accesoaleatorio fragmentos plurales de información de tipos de imagen de todas las imágenes incluidas en la unidad deacceso aleatorio, y que están colocadas en un orden que corresponde a un orden de descodificación del grupo de imágenes, incluyendo los fragmentos plurales de información de tipos de imagen al menos: una imagen I sobre lacual se lleva a cabo la intra-codificación; una imagen P sobre la cual se lleva a cabo la inter-codificación conreferencia a una imagen por bloque, que es una unidad básica en la codificación; una primera imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, que es una unidad básica en lacodificación, y que puede ser objeto de referencia de una imagen; y una segunda imagen B sobre la cual se lleva a cabo la inter-codificación con referencia a dos imágenes por bloque, que es una unidad básica en la codificación, yque no puede ser objeto de referencia de ninguna otra imagen; y
    la segunda información suplementaria incluida en la unidad de acceso aleatorio son fragmentos plurales de información de estructuras de imagen, que indican estructuras de todas las imágenes incluidas en la unidad deacceso aleatorio, y que están colocadas en el orden que corresponde al orden de descodificación del grupo de imágenes, incluyendo los fragmentos plurales de información de estructuras de imagen al menos información queindica si la estructura de imagen de cada imagen es una estructura de campos, una primera estructura de tramaspara visualizar la imagen usando dos campos de visualización, o una segunda estructura de tramas para visualizar la imagen usando tres campos de visualización, mediante la visualización repetida del primer campo de visualizaciónen el momento de uso del avance descendente 3-2.
  6. 6.
    Un procedimiento de grabación para grabar un flujo que incluye imágenes que constituyen una imagen enmovimiento sobre un medio de grabación legible por ordenador, comprendiendo dicho procedimiento de grabaciónuna etapa de grabación para grabar el flujo generado usando el procedimiento de generación de un flujo deimágenes en movimiento según la Reivindicación 2.
  7. 7.
    Un sistema de descodificación de imágenes en movimiento que comprende:
    el medio de grabación según la Reivindicación 5; y el aparato de descodificación de imágenes en movimientosegún la Reivindicación 3, que lee un flujo que incluye imágenes codificadas que constituyen una imagen en movimiento desde el medio de grabación, descodifica y reproduce el flujo.
ES10159160T 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento Active ES2383656T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004134212 2004-04-28
JP2004134212 2004-04-28
JP2004165005 2004-06-02
JP2004165005 2004-06-02
JP2004251871 2004-08-31
JP2004251871 2004-08-31

Publications (1)

Publication Number Publication Date
ES2383656T3 true ES2383656T3 (es) 2012-06-25

Family

ID=34971443

Family Applications (7)

Application Number Title Priority Date Filing Date
ES10159158T Active ES2388397T3 (es) 2004-04-28 2005-04-25 Aparato de generación de un flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10159159T Active ES2383655T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES05736693T Active ES2330864T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparado de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10151443T Active ES2383654T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificaicón de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES08158372T Active ES2347385T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10151438T Active ES2383652T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10159160T Active ES2383656T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento

Family Applications Before (6)

Application Number Title Priority Date Filing Date
ES10159158T Active ES2388397T3 (es) 2004-04-28 2005-04-25 Aparato de generación de un flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10159159T Active ES2383655T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES05736693T Active ES2330864T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparado de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10151443T Active ES2383654T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificaicón de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES08158372T Active ES2347385T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10151438T Active ES2383652T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento

Country Status (13)

Country Link
US (5) US7843994B2 (es)
EP (8) EP2182521A1 (es)
JP (5) JP4071811B2 (es)
KR (1) KR101148765B1 (es)
CN (5) CN101778235B (es)
AT (7) ATE555476T1 (es)
CA (2) CA2542266C (es)
DE (2) DE602005021926D1 (es)
ES (7) ES2388397T3 (es)
MY (2) MY145551A (es)
PL (6) PL2207181T3 (es)
TW (2) TWI324338B (es)
WO (1) WO2005106875A1 (es)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4002878B2 (ja) * 2003-01-17 2007-11-07 松下電器産業株式会社 画像符号化方法
ES2400955T3 (es) * 2004-10-07 2013-04-15 Panasonic Corporation Aparato de codificación de imágenes y aparato de decodificación de imágenes
US9497483B2 (en) * 2005-01-10 2016-11-15 Panasonic Corporation Method for generating and decoding a coded picture signal, an apparatus for generating and decoding a coded picture signal, a program for generating and decoding a coding picture signal, and an integrated circuit for generating and decoding a coded picture signal
JP2006211274A (ja) * 2005-01-27 2006-08-10 Toshiba Corp 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法
KR100770704B1 (ko) 2005-08-04 2007-10-29 삼성전자주식회사 픽쳐 스킵 방법 및 장치
NZ566935A (en) 2005-09-27 2010-02-26 Qualcomm Inc Methods and apparatus for service acquisition
US8229983B2 (en) 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
EP1952627A1 (en) * 2005-11-03 2008-08-06 Thomson Licensing Digital video recording device and method
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
US9516326B1 (en) * 2005-12-09 2016-12-06 Nvidia Corporation Method for rotating macro-blocks of a frame of a video stream
FR2894739A1 (fr) * 2005-12-12 2007-06-15 Thomson Licensing Sa Procede de codage, procede de decodage, dispositif de codage et dispositif de decodage de donnees video
JP4736918B2 (ja) * 2006-04-11 2011-07-27 パナソニック株式会社 デジタル再生装置または再生プログラム
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
US20080068993A1 (en) * 2006-09-08 2008-03-20 Edgeware Ab Method and an apparatus for data streaming
US20080062869A1 (en) * 2006-09-08 2008-03-13 Edgeware Ab Method and an apparatus for data streaming
US8826345B2 (en) * 2006-09-08 2014-09-02 Edgeware Ab Method and an apparatus for data streaming
JP4947349B2 (ja) * 2006-11-10 2012-06-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
KR101089072B1 (ko) * 2006-11-14 2011-12-09 퀄컴 인코포레이티드 채널 전환용 시스템 및 방법
WO2008061211A2 (en) 2006-11-15 2008-05-22 Qualcomm Incorporated Systems and methods for applications using channel switch frames
EP3182709B1 (en) 2007-01-18 2021-05-12 Nokia Technologies Oy Carriage of sei message in rtp payload format
KR101396364B1 (ko) * 2007-01-24 2014-05-19 삼성전자주식회사 컨텐츠를 저장한 정보저장매체, 재생 방법 및 장치
US7995640B2 (en) * 2007-04-30 2011-08-09 Texas Instruments Incorporated Dynamic interpolation location
JP2008294638A (ja) * 2007-05-23 2008-12-04 Sony Corp 伝送システム、記録装置、伝送方法、記録方法、およびプログラム
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
KR100951008B1 (ko) * 2007-12-17 2010-04-02 한국전자통신연구원 인터레이스 부호화에서의 실시간 비트율 제어 방법 및시스템
JP5170708B2 (ja) * 2008-01-24 2013-03-27 日本電気株式会社 動画像ストリーム加工方法及び装置、それを用いた動画像再生装置並びに動画像配信装置
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
JP4577409B2 (ja) * 2008-06-10 2010-11-10 ソニー株式会社 再生装置、再生方法、プログラム、及び、データ構造
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
EP2297964A4 (en) * 2008-06-25 2017-01-18 Cisco Technology, Inc. Support for blocking trick mode operations
EP2356812B1 (en) 2008-11-12 2015-06-10 Cisco Technology, Inc. Processing of a video program having plural processed representations of a single video signal for reconstruction and output
FR2940737A1 (fr) * 2008-12-31 2010-07-02 Thomson Licensing Generation de flux de paquets de donnees video contenant des informations d'acceleration pour le decodage
MY155999A (en) * 2009-01-19 2015-12-31 Panasonic Ip Corp America Coding method,decoding method,coding apparatus,decoding apparatus,program, and integrated circuit
US8326131B2 (en) 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US9300969B2 (en) 2009-09-09 2016-03-29 Apple Inc. Video storage
WO2011068807A1 (en) * 2009-12-01 2011-06-09 Divx, Llc System and method for determining bit stream compatibility
TWI410135B (zh) * 2009-12-08 2013-09-21 Alticast Corp 在數位廣播系統中傳送/接收傳輸流的裝置與方法
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
US8254453B2 (en) * 2010-01-20 2012-08-28 Himax Media Solutions, Inc. Multi-format video decoder and related decoding method
JP5387430B2 (ja) * 2010-01-28 2014-01-15 株式会社Jvcケンウッド 動画像再生装置、動画像再生方法、及び、プログラム
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
US8259808B2 (en) * 2010-03-25 2012-09-04 Mediatek Inc. Low complexity video decoder
KR101556821B1 (ko) 2010-04-13 2015-10-01 지이 비디오 컴프레션, 엘엘씨 샘플 배열 멀티트리 세부분할에서 계승
PT2559246T (pt) 2010-04-13 2016-09-14 Ge Video Compression Llc Regiões de fusão de amostras
KR102080450B1 (ko) 2010-04-13 2020-02-21 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
PT3703377T (pt) 2010-04-13 2022-01-28 Ge Video Compression Llc Codificação de vídeo utilizando subdivisões multi-árvore de imagens
JP5805991B2 (ja) * 2010-05-07 2015-11-10 トムソン ライセンシングThomson Licensing ピクチャ・シーケンスを符号化する方法、それに対応する再構築方法、および当該シーケンスを表す符号化データのストリーム
JP2011259110A (ja) * 2010-06-07 2011-12-22 Panasonic Corp 動画再生方法および動画再生装置
JP2012018727A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5589654B2 (ja) * 2010-08-04 2014-09-17 三菱電機株式会社 映像音声再生装置、および映像音声再生方法
TWI523499B (zh) 2011-02-22 2016-02-21 Panasonic Ip Corp America An image coding method, an image decoding method, an image coding apparatus, an image decoding apparatus, and an image coding / decoding apparatus
MX2013000093A (es) 2011-02-22 2013-02-27 Panasonic Corp Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica.
US9516379B2 (en) 2011-03-08 2016-12-06 Qualcomm Incorporated Buffer management in video codecs
KR101803970B1 (ko) * 2011-03-16 2017-12-28 삼성전자주식회사 컨텐트를 구성하는 장치 및 방법
JP5341952B2 (ja) 2011-05-30 2013-11-13 株式会社東芝 ビデオサーバ及びデータ収録再生方法
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
MY165357A (en) 2011-06-23 2018-03-21 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
EP3407610B1 (en) 2011-06-24 2019-09-04 Sun Patent Trust Coding method and coding apparatus
CA2830046C (en) * 2011-06-24 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN106878715B (zh) 2011-06-27 2019-05-28 太阳专利托管公司 编码方法及编码装置
RU2602671C2 (ru) 2011-06-28 2016-11-20 Сан Пэтент Траст Способ декодирования изображений, способ кодирования изображений, устройство декодирования изображений, устройство кодирования изображений и устройство кодирования и декодирования изображений
KR102006032B1 (ko) 2011-06-29 2019-07-31 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
EP2728869B1 (en) 2011-06-30 2021-11-10 Sun Patent Trust Image decoding method
AU2012277219A1 (en) 2011-06-30 2013-09-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
TWI604720B (zh) * 2011-07-02 2017-11-01 三星電子股份有限公司 視訊解碼裝置
US8767824B2 (en) * 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
RU2714371C2 (ru) 2011-07-11 2020-02-14 Сан Пэтент Траст Способ декодирования изображений, способ кодирования изображений, устройство декодирования изображений, устройство кодирования изображений и устройство кодирования и декодирования изображений
PL3661201T3 (pl) 2011-07-19 2021-10-25 Tagivan Ii Llc Sposób filtrowania, sposób dekodowania filmu, sposób kodowania filmu, aparat do dekodowania filmu, aparat do kodowania filmu i aparat do kodowania/dekodowania filmu
CN103369314B (zh) * 2012-04-01 2018-02-16 中兴通讯股份有限公司 帧场信息的编码方法及解码方法、编码器和解码器
US20150063463A1 (en) * 2012-04-15 2015-03-05 Samsung Electronics Co., Ltd. Method and device for coding multi-layer video, and method and device for decoding multi-layer video
US9979958B2 (en) 2012-04-20 2018-05-22 Qualcomm Incorporated Decoded picture buffer processing for random access point pictures in video sequences
KR102444264B1 (ko) * 2012-09-13 2022-09-16 엘지전자 주식회사 영상 부호화/복호화 방법 및 장치
US8989508B2 (en) * 2012-09-28 2015-03-24 Sharp Kabushiki Kaisha Electronic device for signaling a sub-picture buffer parameter
US10187646B2 (en) * 2013-08-22 2019-01-22 Sony Corporation Encoding device, encoding method, transmission device, decoding device, decoding method, and reception device
JP6474815B2 (ja) * 2013-12-16 2019-02-27 エルジー エレクトロニクス インコーポレイティド トリックプレイサービス提供のための信号送受信装置及び信号送受信方法
JP6224522B2 (ja) * 2014-05-22 2017-11-01 日本電信電話株式会社 映像配信装置、映像配信方法及び映像配信プログラム
US9729887B2 (en) 2014-06-25 2017-08-08 Qualcomm Incorporated Multi-layer video coding
KR101528269B1 (ko) * 2014-09-04 2015-06-16 (주)브레인키즈 동영상 재생 방법
CN106105221B (zh) * 2015-01-09 2021-05-04 索尼公司 图像处理设备、图像处理方法以及记录介质
KR101868203B1 (ko) * 2015-01-28 2018-07-20 한국전자통신연구원 스트림 처리 방법 및 장치
WO2017047399A1 (ja) * 2015-09-15 2017-03-23 ソニー株式会社 受信装置および方法、送信装置および方法
CN106792078A (zh) * 2016-07-12 2017-05-31 乐视控股(北京)有限公司 视频处理方法及装置
US10412383B2 (en) * 2017-08-15 2019-09-10 Google Llc Compressing groups of video frames using reversed ordering
TWI659647B (zh) * 2017-11-21 2019-05-11 晶睿通訊股份有限公司 影像播放設備及其影像播放方法
TWI665663B (zh) * 2018-08-22 2019-07-11 張維中 影音倒轉播放裝置與系統及其方法
CN109618186B (zh) * 2018-11-15 2021-01-01 中国航空工业集团公司洛阳电光设备研究所 一种采用fpga实现的h264/avc视频辅助增强信息封装电路
KR20220100710A (ko) * 2019-12-23 2022-07-15 엘지전자 주식회사 Nal 유닛 타입 기반 영상 또는 비디오 코딩
US11792432B2 (en) * 2020-02-24 2023-10-17 Tencent America LLC Techniques for signaling and identifying access unit boundaries
KR20220156830A (ko) * 2020-03-20 2022-11-28 바이트댄스 아이엔씨 서브픽처 사이의 순서 관계
JP2023522224A (ja) 2020-04-20 2023-05-29 バイトダンス インコーポレイテッド 参照ピクチャリスト上の制約
WO2021252525A1 (en) * 2020-06-08 2021-12-16 Bytedance Inc. Constraints of slice count in a coded video picture

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1147854C (zh) 1994-02-28 2004-04-28 索尼公司 数据记录方法和设备、数据记录介质,以及数据再生方法和设备
JP3365109B2 (ja) * 1994-12-28 2003-01-08 ソニー株式会社 データ再生装置及びデータ再生方法
JP3604186B2 (ja) 1995-02-16 2004-12-22 三菱電機株式会社 記録媒体の記録方法及び再生方法
JP3329979B2 (ja) * 1995-02-24 2002-09-30 株式会社日立製作所 光ディスク及び光ディスク再生装置
JPH08280009A (ja) 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JP3146937B2 (ja) * 1995-07-13 2001-03-19 日本ビクター株式会社 高能率符号化された動画像情報から早送り,早戻し画像を再生する再生方法
JP3484834B2 (ja) 1995-07-28 2004-01-06 ソニー株式会社 データ符号化/復号化方法および装置
US5757435A (en) * 1995-12-08 1998-05-26 C-Cube Microsystems, Inc. MPEG-2 inverse telecine circuit
JP4434326B2 (ja) 1997-03-19 2010-03-17 ソニー株式会社 映像再生方法及び映像再生装置
TW408310B (en) 1997-08-21 2000-10-11 Sony Corp Disk recording method and device, disk reproducing method and device and recording media
CA2289958C (en) * 1998-11-19 2003-01-21 Tomoyuki Okada Information recording medium, apparatus and method for recording or reproducing data thereof
JP2000354224A (ja) * 1999-01-01 2000-12-19 Hitachi Ltd 画像データ記録方法および光ディスク再生方法
JP3805985B2 (ja) * 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
EP1148727A1 (en) * 2000-04-05 2001-10-24 THOMSON multimedia Method and device for decoding a digital video stream in a digital video system using dummy header insertion
JP2003511918A (ja) * 1999-10-07 2003-03-25 トムソン ライセンシング ソシエテ アノニム デジタル・ビデオ・システムにおけるトリックモード生成のための方法および装置
JP3820155B2 (ja) 2001-01-16 2006-09-13 松下電器産業株式会社 情報記録装置および方法、情報記録プログラム、および情報記録プログラムを記録した記録媒体
KR100878927B1 (ko) * 2001-01-16 2009-01-19 파나소닉 주식회사 정보기록장치, 정보기록방법 및 기록매체
JP2003009085A (ja) * 2001-06-20 2003-01-10 Mitsubishi Electric Corp デジタル信号記録装置および方法、デジタル信号再生装置および方法
US7218635B2 (en) * 2001-08-31 2007-05-15 Stmicroelectronics, Inc. Apparatus and method for indexing MPEG video data to perform special mode playback in a digital video recorder and indexed signal associated therewith
US20030044166A1 (en) * 2001-08-31 2003-03-06 Stmicroelectronics, Inc. System for multiplexing video data streams in a digital video recorder and method of operating the same
US6707984B2 (en) 2001-10-31 2004-03-16 Thomson Licensing S.A. Changing a playback speed for video presentation recorded in a modified film format
WO2003083868A1 (fr) * 2002-04-02 2003-10-09 Sony Corporation Dispositif et procede d'enregistrement de donnees, dispositif et procede de lecture de donnees, support d'enregistrement d'informations, support de programme et programme
US8406301B2 (en) * 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
US7376186B2 (en) 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
US7903742B2 (en) * 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
JP4477295B2 (ja) 2002-10-10 2010-06-09 古河電気工業株式会社 自動車ワイヤハーネス用アルミ電線
JP3975889B2 (ja) 2002-11-13 2007-09-12 松下電器産業株式会社 照光つまみ及びその製造方法
JP3718499B2 (ja) * 2002-11-29 2005-11-24 シャープ株式会社 動画像記録方法
JP4318478B2 (ja) 2002-12-27 2009-08-26 原子燃料工業株式会社 沸騰水型軽水炉用燃料集合体
WO2004066635A1 (ja) * 2003-01-17 2004-08-05 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
JP2003303476A (ja) 2003-03-03 2003-10-24 Pioneer Electronic Corp 情報記録媒体、その記録装置及び記録方法並びにその再生装置及び再生方法
WO2005074295A1 (en) * 2004-01-16 2005-08-11 General Instrument Corporation Method, protocol, and apparatus for transporting advanced video coding content
US8391672B2 (en) * 2004-02-06 2013-03-05 Panasonic Corporation Recording medium, reproduction device, program, and reproduction method
TW200952462A (en) * 2004-06-02 2009-12-16 Panasonic Corp Seamless switching between random access units multiplexed in a multi angle view multimedia stream

Also Published As

Publication number Publication date
EP2207181B1 (en) 2012-04-25
ATE555473T1 (de) 2012-05-15
TWI395207B (zh) 2013-05-01
CN101697576B (zh) 2012-07-11
US8130843B2 (en) 2012-03-06
JP4763824B2 (ja) 2011-08-31
EP2207183B1 (en) 2012-04-25
ATE555476T1 (de) 2012-05-15
WO2005106875A1 (en) 2005-11-10
CN101697576A (zh) 2010-04-21
ES2383652T3 (es) 2012-06-25
EP1968063A1 (en) 2008-09-10
US8254446B2 (en) 2012-08-28
US20080219393A1 (en) 2008-09-11
PL2182520T3 (pl) 2012-09-28
PL1743338T3 (pl) 2010-04-30
JP4614991B2 (ja) 2011-01-19
US7809060B2 (en) 2010-10-05
CN101778235A (zh) 2010-07-14
EP2207183A1 (en) 2010-07-14
EP2182519B1 (en) 2012-04-25
ES2330864T3 (es) 2009-12-16
CN101697575A (zh) 2010-04-21
JP2011019270A (ja) 2011-01-27
DE602005016663D1 (de) 2009-10-29
PL2182519T3 (pl) 2012-09-28
JP4910065B2 (ja) 2012-04-04
EP1968063B1 (en) 2010-06-16
ES2388397T3 (es) 2012-10-15
KR101148765B1 (ko) 2012-05-25
ATE471562T1 (de) 2010-07-15
CA2811897A1 (en) 2005-11-10
ES2347385T3 (es) 2010-10-28
CN101778235B (zh) 2013-06-19
CA2542266C (en) 2012-07-17
ATE555477T1 (de) 2012-05-15
CN1950907B (zh) 2011-04-13
TWI324338B (en) 2010-05-01
EP1743338B1 (en) 2009-09-16
EP2182519A1 (en) 2010-05-05
EP2207182B1 (en) 2012-04-25
MY144441A (en) 2011-09-15
JP2008295055A (ja) 2008-12-04
TW200949824A (en) 2009-12-01
EP1743338A1 (en) 2007-01-17
PL2207181T3 (pl) 2012-09-28
ATE555475T1 (de) 2012-05-15
US8254447B2 (en) 2012-08-28
JP4071811B2 (ja) 2008-04-02
CN1950907A (zh) 2007-04-18
US20080117988A1 (en) 2008-05-22
US20080131079A1 (en) 2008-06-05
CN101697575B (zh) 2012-05-30
TW200601281A (en) 2006-01-01
PL2207182T3 (pl) 2012-09-28
US7843994B2 (en) 2010-11-30
EP2182520A1 (en) 2010-05-05
EP2207183B8 (en) 2012-08-08
US20080118224A1 (en) 2008-05-22
PL2207183T3 (pl) 2012-09-28
DE602005021926D1 (de) 2010-07-29
ATE555474T1 (de) 2012-05-15
CA2542266A1 (en) 2005-11-10
JP2010028860A (ja) 2010-02-04
EP2182521A1 (en) 2010-05-05
ES2383654T3 (es) 2012-06-25
CA2811897C (en) 2014-06-03
ATE443327T1 (de) 2009-10-15
EP2207181A1 (en) 2010-07-14
JP2007325289A (ja) 2007-12-13
EP2182520B1 (en) 2012-04-25
KR20070007028A (ko) 2007-01-12
MY145551A (en) 2012-02-29
EP2207182A1 (en) 2010-07-14
JP2007535187A (ja) 2007-11-29
JP4185567B1 (ja) 2008-11-26
CN101707723A (zh) 2010-05-12
ES2383655T3 (es) 2012-06-25
US20080118218A1 (en) 2008-05-22

Similar Documents

Publication Publication Date Title
ES2383656T3 (es) Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES2356745T3 (es) Aparato de codificación de imagen y aparato de decodificación de imagen.
KR100891397B1 (ko) 스트림 생성 장치, 스트림 생성 방법, 및 기록 매체
US8660189B2 (en) Generation apparatus generating a stream including a flag, mode information and an encoded picture, and a generation method performing the same
KR20060136399A (ko) 스트림 생성 장치, 스트림 생성 방법, 코딩 장치, 코딩방법, 기록 매체 및 그 프로그램