ES2866201T3 - Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento - Google Patents

Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento Download PDF

Info

Publication number
ES2866201T3
ES2866201T3 ES20153370T ES20153370T ES2866201T3 ES 2866201 T3 ES2866201 T3 ES 2866201T3 ES 20153370 T ES20153370 T ES 20153370T ES 20153370 T ES20153370 T ES 20153370T ES 2866201 T3 ES2866201 T3 ES 2866201T3
Authority
ES
Spain
Prior art keywords
block
filtering
unit
ipcm
quantization parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20153370T
Other languages
English (en)
Inventor
Chong Soon Lim
Viktor Wahadaniah
Sue Mon Thet Naing
Hisao Sasai
Takahiro Nishi
Youji Shibahara
Toshiyasu Sugio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tagivan II LLC
Original Assignee
Tagivan II LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tagivan II LLC filed Critical Tagivan II LLC
Application granted granted Critical
Publication of ES2866201T3 publication Critical patent/ES2866201T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/04Colour television systems using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un método para decodificar una imagen bloque por bloque a partir de un flujo de bits codificado, comprendiendo dicho método analizar el flujo de bits codificado para obtener información de diferencia que indica que una diferencia entre un parámetro de cuantificación para un bloque actual y un parámetro de cuantificación para un bloque anterior ubicado inmediatamente antes del bloque actual en el orden de procesamiento, en el que se asigna un valor de cero a dicha información de diferencia cuando el bloque actual es un bloque de modulación por impulsos intracodificados (IPCM); determinar un parámetro de cuantificación para el bloque actual, usando el parámetro de cuantificación para el bloque anterior y la información de diferencia, independientemente de si el bloque actual es un bloque de IPCM o un bloque distinto de modulación por impulsos intracodificados, distinto de IPCM; determinar una intensidad de filtrado del filtrado por desbloqueo usando un valor promedio del parámetro de cuantificación para el bloque actual y el parámetro de cuantificación para el bloque anterior, determinándose la intensidad de filtrado de modo que aumente con el valor promedio creciente del parámetro de cuantificación para absorber un error de cuantificación; y realizar el filtrado por desbloqueo en un límite entre el bloque anterior y el bloque actual usando la intensidad de filtrado determinada del filtrado por desbloqueo, en el que realizar el filtrado por desbloqueo comprende determinar si al menos uno cualquiera del bloque anterior y el bloque actual es un bloque de IPCM y aplicar el filtrado por desbloqueo sólo a píxeles de los bloques distintos de IPCM.

Description

DESCRIPCIÓN
Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento
[Campo técnico]
La presente invención se refiere en general a un método de filtrado, a un método de decodificación de imágenes en movimiento, a un método de codificación de imágenes en movimiento, a un aparato de decodificación de imágenes en movimiento, a un aparato de codificación de imágenes en movimiento y a un aparato de codificación y decodificación de imágenes en movimiento.
[Técnica anterior]
Los bloques de modulación por impulsos intracodificados (Intra Pulse Code Modulation, IPCM) son bloques de muestras de imagen o vídeo sin comprimir en los que se codifican muestras de luma y croma en el flujo codificado. Estos bloques se usan en el caso en que la unidad de codificación entrópica produce más bits en lugar de reducir bits al codificar los bloques de muestras de imagen. Dicho de otro modo, los valores de píxel de los bloques de IPCM no se comprimen y, por tanto, se usan los valores de píxel sin procesar de la imagen original. El bloque de IPCM se introduce en la norma de compresión de vídeo H.264/AVC.
Un método de filtrado en H.264 (el método de filtrado descrito en la sección 8.7 de la norma H.264) define que la intensidad de filtrado para un límite (boundary) entre dos bloques se determina normalmente en función del valor promedio de un valor aPp derivado de un parámetro de cuantificación QPp de un primer macrobloque y un parámetro de cuantificación QPq de un segundo macrobloque. No se realiza decodificación para estos bloques. Sin embargo, el procesamiento posterior a la decodificación (incluido el filtrado, tal como filtrado por desbloqueo) todavía se realiza en los límites de bloque, lo que tiende a provocar un deterioro de la calidad de imagen (por ejemplo, véase la norma ISO/IEC 14496-10 “MPEG-4 Part 10 Advanced Video Coding”).
La contribución “Proposal of enhaced PCM coding in HEVC” de Keiichi Chrono et al. (96. REUNIÓN DE MPEG; 21.3.2011 - 25.3.2011; GINEBRA) trata problemas de la codificación PCM en HEVC y sugiere una sintaxis de alto nivel que permite que los codificadores se salten procesos de desbloqueo en píxeles del bloque de IPCM.
[Sumario de la invención]
[Problema técnico]
Hay demandas para realizar un filtrado más apropiado en el límite entre dicho bloque de IPCM y un bloque distinto de IPCM.
En vista de esto, la presente invención proporciona un método de filtrado para permitir un filtrado más apropiado en el límite entre un bloque de IPCM de ese tipo y un bloque distinto de IPCM.
La invención está definida por las reivindicaciones adjuntas. Ha de entenderse cualquier referencia a realizaciones que no se encuentran dentro del alcance de las reivindicaciones como ejemplos útiles para entender la invención.
[Solución al problema]
Para hacer frente al problema mencionado anteriormente, un método de filtrado según un aspecto de la presente invención es un método de filtrado para realizar filtrado por desbloqueo en un límite entre un bloque de modulación por impulsos intracodificados (IPCM) y un bloque distinto de IPCM que son adyacentes entre sí en una imagen, y este método de filtrado incluye: determinar un primer parámetro de cuantificación para el bloque distinto de IPCM; determinar un segundo parámetro de cuantificación para el bloque de IPCM y para determinar una intensidad de filtrado, usando el primer parámetro de cuantificación; determinar la intensidad de filtrado, usando el primer parámetro de cuantificación y el segundo parámetro de cuantificación; y realizar el filtrado por desbloqueo en el límite, usando la intensidad de filtrado determinada.
[Efectos ventajosos de la invención]
Con esto, la presente invención proporciona un método de filtrado para habilitar un filtrado más apropiado en el límite entre un bloque de IPCM y un bloque distinto de IPCM.
[Breve descripción de los dibujos]
[FIG. 1]
La figura 1 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la sección 8.7 “Proceso de filtrado por desbloqueo” en la norma H.264;
[FIG. 2]
la figura 2 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la sección 8.7 “Proceso de filtrado por desbloqueo” en la norma H.264;
[FIG. 3]
la figura 3 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la sección 8.7 “Proceso de filtrado por desbloqueo” en la norma H.264;
[FIG. 4]
la figura 4 es una ilustración de una intensidad de filtrado en un método de filtrado según la realización 1 de la presente invención;
[FIG. 5]
la figura 5 es un diagrama de flujo de un método de filtrado según la realización 1 de la presente invención;
[FIG. 6]
la figura 6 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento según la realización 1 de la presente invención;
[FIG. 7A]
la figura 7A es una ilustración de un ejemplo de un límite de bloque según la realización 1 de la presente invención;
[FIG. 7B]
la figura 7B es una ilustración de un ejemplo de un límite de bloque según la realización 1 de la presente invención;
[FIG. 8A]
la figura 8A es una ilustración de operaciones realizadas por una unidad de filtrado según la realización 1 de la presente invención;
[FIG. 8B]
la figura 8B es una ilustración de operaciones realizadas por una unidad de filtrado según la realización 1 de la presente invención;
[FIG. 9]
la figura 9 es un diagrama de bloques de un aparato de decodificación de imágenes según la realización 1 de la presente invención;
[FIG. 10A]
la figura 10A es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención;
[FIG. 10B]
la figura 10B es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención;
[FIG. 10C]
la figura 10C es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención;
[FIG. 10D]
la figura 10D es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención;
[FIG. 10E]
la figura 10E es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención;
[FIG. 10F]
la figura 10F es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención;
[FIG. 10G]
la figura 10G es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención;
[FIG. 10H]
la figura 10H es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención;
[FIG. 11]
la figura 11 es un diagrama de flujo de un método de filtrado según la realización 1 de la presente invención;
[FIG. 12]
la figura 12 es un diagrama de flujo de un método de filtrado según la realización 1 de la presente invención;
[FIG. 13]
la figura 13 es una ilustración de intensidades de filtrado y unidades de bloque según la realización 1 de la presente invención;
[FIG. 14A]
la figura 14A es una ilustración de un intervalo de aplicación de una bandera cuando un filtro está ACTIVADO (“ON”) según un ejemplo de comparación de la presente invención;
[FIG. 14B]
la figura 14B es una ilustración de un intervalo de aplicación de una bandera cuando un filtro está ACTIVADO según la realización 1 de la presente invención;
[FIG. 15]
la figura 15 es un diagrama de flujo de un método de codificación de imágenes en movimiento según una variación de la realización 1 de la presente invención;
[FIG. 16]
la figura 16 es un diagrama de flujo de un método de decodificación de imágenes en movimiento según una variación de la realización 1 de la presente invención;
[FIG. 17]
la figura 17 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento según la realización 2 de la presente invención;
[FIG. 18]
la figura 18 es un diagrama de bloques de un aparato de decodificación de imágenes según la realización 2 de la presente invención;
[FIG. 19]
la figura 19 es un diagrama de flujo de un método de filtrado según la realización 2 de la presente invención;
[FIG. 20]
la figura 20 es un diagrama de flujo de ejemplos específicos de un método de filtrado según la realización 2 de la presente invención;
[FIG. 21]
la figura 21 es un diagrama de flujo de un método de codificación de imágenes en movimiento según una variación de la realización 2 de la presente invención;
[FIG. 22]
la figura 22 es un diagrama de flujo de un método de decodificación de imágenes en movimiento según una variación de la realización 2 de la presente invención;
[FIG. 23]
la figura 23 muestra una configuración global de un sistema de provisión de contenido para implementar servicios de distribución de contenido;
[FIG. 24]
la figura 24 muestra una configuración global de un sistema de radiodifusión digital;
[FIG. 25]
la figura 25 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de un televisor;
[FIG. 26]
la figura 26 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde y en un medio de grabación que es un disco óptico;
[FIG. 27]
la figura 27 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico;
[FIG. 28A]
la figura 28A muestra un ejemplo de un teléfono celular;
[FIG. 28B]
la figura 28B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular; [FIG. 29]
la figura 29 ilustra una estructura de datos multiplexados;
[FIG. 30]
la figura 30 muestra esquemáticamente cómo se multiplexa cada flujo en datos multiplexados;
[FIG. 31]
la figura 31 muestra cómo se almacena un flujo de vídeo en un flujo de paquetes PES con más detalle;
[FIG. 32]
la figura 32 muestra una estructura de paquetes TS y paquetes fuente en los datos multiplexados;
[FIG. 33]
la figura 33 muestra una estructura de datos de una PMT;
[FIG. 34]
la figura 34 muestra una estructura interna de información de datos multiplexados;
[FIG. 35]
la figura 35 muestra una estructura interna de información de atributos de flujo;
[FIG. 36]
la figura 36 muestra etapas para identificar datos de vídeo;
[FIG. 37]
la figura 37 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento según cada una de las realizaciones;
[FIG. 38]
la figura 38 muestra una configuración para cambiar entre frecuencias de excitación;
[FIG. 39]
la figura 39 muestra las etapas para identificar datos de vídeo y cambiar entre frecuencias de excitación;
[FIG. 40]
la figura 40 muestra un ejemplo de una tabla de consulta en la que las normas de datos de vídeo se asocian con frecuencias de excitación;
[FIG. 41A]
la figura 41A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señales; y
[FIG. 41B]
la figura 41B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señales.
[Descripción de realizaciones]
(Conocimiento subyacente que forma la base de la presente divulgación)
Los inventores han encontrado el problema indicado a continuación.
Antes de proporcionar descripciones de realizaciones de la presente invención, se facilita una descripción del filtrado entre píxeles (filtrado por desbloqueo) en un límite entre un bloque de IPCM y un bloque distinto de IPCM en la codificación y decodificación en H.264.
La figura 1 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la sección 8.7 “Proceso de filtrado por desbloqueo” en la norma H.264.
La figura 1 muestra esquemáticamente el límite entre los dos macrobloques, uno de los cuales es el macrobloque distinto de IPCM (el lado izquierdo en la ilustración) y el otro es el macrobloque de IPCM (el lado derecho en la ilustración). Tres círculos colocados en el lado izquierdo en la figura 1 muestran tres píxeles (normalmente, indicados como p0, p1 y p2 secuencialmente desde el límite). Estos tres píxeles de lado izquierdo pertenecen a un primer bloque (bloque p) en una primera unidad (un bloque de unidad codificado, denominado más adelante en el presente documento bloque CU). Estos tres píxeles también pertenecen a un primer macrobloque de un tipo distinto de IPCM en un bloque de unidad de macrobloque (denominado más adelante en el presente documento MB) que es una unidad mayor que la primera unidad.
Asimismo, tres círculos colocados en el lado derecho en la figura 1 muestran tres píxeles (normalmente, indicados como q0, q1 y q2 secuencialmente desde el límite). Estos tres píxeles pertenecen a un segundo bloque (un bloque q) en la primera unidad. Estos tres píxeles también pertenecen a un segundo macrobloque de tipo IPCM en un MB. Más adelante en el presente documento, un bloque CU que pertenece a un macrobloque de un tipo IPCM se denomina bloque de IPCM, y un bloque CU que pertenece a un macrobloque de un bloque distinto de IPCM se denomina bloque distinto de IPCM. Dicho de otro modo, un bloque distinto de IPCM significa un bloque distinto de un bloque de IPCM.
Más adelante en el presente documento, se facilita una descripción de un método de determinación de la intensidad de filtrado que se aplica a los píxeles q0, q1, p0 y p1 a través del límite de bloque (o un límite entre unidades de bloque mayores que la unidad de codificación).
Un método de filtrado en H.264 (el método de filtrado descrito en la sección 8.7 de la norma H.264) define que la intensidad de filtrado para un límite entre dos bloques se determina normalmente en función del valor promedio de un valor aPp derivado de un parámetro de cuantificación QPp de un primer macrobloque y un parámetro de cuantificación QPq de un segundo macrobloque.
QPav = (QPp QPq 1) >> 1 = > (QPp 1) >> 1 (Expresión 1)
Esta (expresión 1) muestra el siguiente cálculo. Las intensidades de filtrado están diseñadas de tal manera que se aplica un filtro más intenso (en cuanto a alisado) a medida que el valor de un parámetro de cuantificación es mayor, con el objetivo de, por ejemplo, absorber un error de cuantificación.
En la ilustración, un parámetro de cuantificación de lado izquierdo QPp es un parámetro de cuantificación que se codifica para el primer macrobloque (bloque de lado p). Por conveniencia, QP usado en este caso es equivalente en cuanto a significado a un valor qP que se usa con el propósito de filtrar. Además, un parámetro de cuantificación de lado derecho QPq es un parámetro de cuantificación que debe aplicarse al segundo macrobloque (bloque de lado q). En este caso, tal como se describe en la sección 8.7.2 de la norma H.264, el valor del parámetro de cuantificación qPq (QPq en la ilustración) del bloque de IPCM se establece en 0. Dicho de otro modo, se realiza “se filtran ambos lados con intensidad débil”. Esto significa que, en cuanto a un límite entre dos bloques, se aplica un filtro que tiene una intensidad de filtrado a ambos bloques. Esto también significa que es imposible diferenciar las intensidades de filtrado para los dos bloques respectivos. Dicho de otro modo, el filtrado con la misma intensidad de filtrado se ejecuta en ambos bloques a través del límite entre un bloque de IPCM y un bloque distinto de IPCM.
La figura 2 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la sección 8.7 “Proceso de filtrado por desbloqueo” en la norma H.264.
Este diagrama de flujo explica aproximadamente los siguientes tres puntos con respecto a un filtro H.264.
(1) Orden de determinación de la intensidad de filtrado (bS) en la cláusula 8.7.2.1
La etapa S101 corresponde al proceso de “Proceso de desviación para la intensidad de filtrado de límite dependiente del contenido de luma” descrito en la sección 8.7.2.1. Este proceso determina la intensidad de filtrado en el filtrado en un límite de bloque según el tipo de bloque y similares. En este caso, la intensidad de filtrado se clasifica en un nivel entre niveles que oscilan entre un filtrado intenso (bS = 4) y ausencia de filtrado (bS = 0). Este punto se describe con referencia a la figura 3.
(2) Proceso de configuración del parámetro de cuantificación qPz = 0 para el bloque de IPCM
Las etapas S102 a S107 son procesos para establecer un valor de un parámetro de cuantificación qP para determinar la intensidad de filtrado tal como se describe con referencia a la figura 1. Como para los bloques normales distintos de IPCM (No en la etapa S102 o S105), el parámetro de cuantificación QP [i] (i indica 0 o 1) de un macrobloque al que pertenece el bloque distinto de IPCM se establece como parámetro de cuantificación qP [i] para determinar la intensidad de filtrado (etapas S103 y S106). Por otro lado, cuando un bloque actual es un bloque de IPCM (Sí en S102 o S105), el parámetro de cuantificación qP del bloque de IPCM se establece en 0 (etapas S104 y S107).
A continuación, en la etapa S108, se calcula qPav según la (expresión 1).
(3) Ambos bloques comparten un bS (o filterSampleFlag (bandera de muestra de filtro))
Más adelante en el presente documento, se facilita una descripción de la aplicación de una intensidad de filtrado determinada (un valor) (o una bandera de determinación que especifica si se realiza o no el filtrado) en común a dos bloques a través de un límite.
En primer lugar, después de la etapa S108, se realiza el cálculo usando las expresiones de 8-462 a 8-467 en la norma. Más específicamente, se realiza (1) derivación de un índice para un ligero ajuste de la intensidad de filtrado que se establece en la etapa S101 y (2) derivación de un valor umbral para la determinación de borde.
Luego, la intensidad de filtrado determinada a través de estos procesos se establece en ambos bloques (S109). Más específicamente, incluso cuando la intensidad de filtrado bS es uno cualquiera de 1 a 4, el valor derivado usando el método de derivación de bS común se aplica a los dos bloques. Por ejemplo, cuando se satisface la intensidad de filtrado bS = 4, el valor del píxel p del primer bloque se deriva usando las expresiones (8-486 y 8-487) en la norma. Además, el valor del píxel q incluido en el segundo bloque se deriva usando la misma intensidad de filtrado que la intensidad de filtrado usada en la derivación del valor del píxel p. Además, se realiza una determinación sobre si debe realizarse el filtrado (derivación del valor de filterSamplesFlag (también denominada bandera de ejecución de filtrado)) en la preparación, por ejemplo, para un caso en el que finalmente se encuentra que un límite de bloque es un borde real. Más específicamente, esta determinación se realiza mediante la comparación entre dos valores umbral (two_threths (a , p)) derivados en la etapa S109 y los valores de píxel reales de p y q (véase la expresión (8­ 468) en la norma). Sin embargo, tal como se describió anteriormente, es imposible establecer diferentes valores (o la ejecución o no ejecución) como las intensidades de filtrado bS o las banderas de ejecución de filtrado para los dos bloques respectivos.
Dicho de otro modo, en H.264, es imposible realizar un procesamiento adecuado para IPCM cuando se considera dentro de un proceso de filtrado.
La figura 3 es un diagrama de flujo que indica el orden de decisión (orden de determinación) de una intensidad de filtrado (bS) que se aplica a píxeles ubicados a través de un límite entre dos macrobloques, tal como se describe en la cláusula 8.7.2.1 de la norma. Este diagrama de flujo ilustra el orden de determinación en la etapa S101 mostrado en la figura 2, y es conforme al flujo de determinación en la cláusula 8.7.2.1 de la norma.
En primer lugar, se realiza una determinación de si el límite definido por el píxel p0 en el primer bloque y el píxel q0 en el segundo bloque también corresponde a un límite entre macrobloques o no (S121). Dicho de otro modo, se realiza una determinación de si p0 y q0 están ubicados a través del límite de macrobloque.
Cuando el límite de bloque entre los objetivos de procesamiento no es un límite de macrobloque (No en S121), se determina que la intensidad de filtrado (bS) es una cualquiera de 3, 2, 1 y 0 que es menor que N (= 4) (S124).
Por otro lado, cuando el límite de bloque entre los objetivos de procesamiento es un límite de macrobloque (Sí en 5121) , se realiza una determinación de si uno (o ambos) de p0 y q0 pertenece a un macrobloque codificado usando el modo de intra-predicción (S122).
Cuando ambos bloques no pertenecen a un macrobloque codificado usando el modo de intra-predicción (No en 5122) , se ejecuta una determinación basada en otro factor de determinación (S125).
Por otro lado, cuando al menos uno de los bloques pertenece a un macrobloque codificado usando el modo de intrapredicción (Sí en S122), la intensidad de filtrado se establece (siempre) en bS = 4, lo que significa la mayor intensidad sin considerar ningún otro factor de determinación (S123).
De esta manera, el método de filtrado convencional no hace que sea posible ejecutar procesos de filtrado interno para tales dos bloques que están ubicados a través del límite de diferentes maneras (en términos de la intensidad de filtrado y la aplicación o no aplicación de un filtro). Además, la norma considera procesos hasta la determinación de una intensidad de filtrado que se centra en IPCM, pero no hace que sea posible realizar un control para emitir valores de píxel sin procesar de un bloque de IPCM cuando uno de los bloques es un bloque de IPCM y el otro es un bloque distinto de IPCM.
Un bloque de IPCM es un bloque que incluye valores de píxel que muestran fielmente “la imagen original” sin una pérdida de codificación. Por consiguiente, en el proceso de filtrado, es deseable controlar el filtrado en el límite con un bloque de IPCM o controlar la aplicación de un filtro al bloque de IPCM.
Además, tal como se describió anteriormente, la intensidad de filtrado para el límite entre dos bloques se determina generalmente en función del valor qPp derivado del parámetro de cuantificación QPp para el primer macrobloque y el valor qPav derivado del parámetro de cuantificación QPq para el segundo macrobloque. Además, el valor del parámetro de cuantificación qPq para el bloque de IPCM se establece en 0. De esta manera, el valor promedio qPav para determinar la intensidad de filtrado para el límite entre el bloque de IPCM y el bloque distinto de IPCM es la mitad del valor del parámetro de cuantificación QPq para el bloque distinto de IPCM. Dicho de otro modo, el valor promedio qPav es inevitablemente pequeño en el límite entre el bloque de IPCM y el bloque distinto de IPCM, en comparación con un caso normal (del límite entre bloques distintos de IPCM). De esta manera, los inventores han descubierto que es imposible establecer una intensidad de filtrado apropiada para el límite entre dicho bloque de IPCM y un bloque distinto de IPCM.
En vista de esto, un método de filtrado según un aspecto de la presente invención es un método de filtrado para realizar el filtrado por desbloqueo en un límite entre un bloque de modulación por impulsos intracodificados (IPCM) y un bloque distinto de IPCM que están adyacentes entre sí en una imagen, y este método de filtrado incluye: determinar un primer parámetro de cuantificación para el bloque distinto de IPCM; determinar un segundo parámetro de cuantificación para el bloque de IPCM y para determinar la intensidad de filtrado, usar el primer parámetro de cuantificación; determinar la intensidad de filtrado, usando el primer parámetro de cuantificación y el segundo parámetro de cuantificación; y realizar el filtrado por desbloqueo en el límite, usando la intensidad de filtrado determinada.
De esta manera, con el método de filtrado según el aspecto de la presente invención, es posible determinar el parámetro de cuantificación para el bloque de IPCM, usando el parámetro de cuantificación para el bloque distinto de IPCM. De esta manera, con el método de filtrado, es posible realizar un filtrado apropiado en el límite entre el bloque de IPCM y el bloque distinto de IPCM, en comparación con el caso de usar cero como parámetro de cuantificación para el bloque de IPCM.
Además, en la determinación de un segundo parámetro de cuantificación, puede establecerse un valor del segundo parámetro de cuantificación para que sea igual al valor del primer parámetro de cuantificación.
Además, en la determinación de la intensidad de filtrado, puede calcularse un valor promedio entre el primer parámetro de cuantificación y el segundo parámetro de cuantificación, y la intensidad de filtrado puede determinarse usando el valor promedio calculado.
Además, un método de decodificación de imágenes en movimiento según un aspecto de la presente invención es un método de decodificación de imágenes en movimiento para decodificar un flujo de bits codificado, y este método de decodificación de imágenes en movimiento incluye: analizar el flujo de bits codificado y obtener información de diferencia que indica que hay una diferencia entre un parámetro de cuantificación para un bloque que está ubicado inmediatamente antes de que se procese un bloque actual en el orden de procesamiento y un parámetro de cuantificación para el bloque actual es cero; y el método de filtrado, en el que, en la determinación de un segundo parámetro de cuantificación, se establece un valor del segundo parámetro de cuantificación para que sea igual que un valor del primer parámetro de cuantificación según la información de diferencia.
De esta manera, con el método de decodificación de imágenes en movimiento según el aspecto de la presente invención, es posible determinar el parámetro de cuantificación para el bloque de IPCM según la información de diferencia que se usa con otro propósito. Por tanto, con el método de decodificación de imágenes en movimiento, es posible determinar adecuadamente el parámetro de cuantificación para el bloque de IPCM sin sumar, al aparato de decodificación de imágenes en movimiento, ninguna función para realizar un procesamiento especial en el bloque de IPCM.
Además, al determinar un segundo parámetro de cuantificación, cuando el bloque distinto de IPCM está ubicado inmediatamente antes del bloque de IPCM en el orden de procesamiento, el valor del segundo parámetro de cuantificación puede establecerse para que sea igual que el valor del primer parámetro de cuantificación según la información de diferencia.
Además, el método de decodificación de imágenes en movimiento puede incluir además: decodificar el flujo de bits codificado para generar un coeficiente cuantificado; realizar cuantificación inversa y transformación inversa en el coeficiente cuantificado para generar una señal residual decodificada; y sumar una señal de imagen de predicción a la señal residual decodificada para generar una señal de imagen decodificada, en el que el bloque de IPCM y el bloque distinto de IPCM pueden incluirse en la señal de imagen decodificada, el método de decodificación de imágenes en movimiento puede incluir además realizar una predicción usando una señal de imagen resultante del filtrado por desbloqueo en el método de filtrado, para generar la señal de imagen de predicción.
Además, el método de decodificación de imágenes en movimiento puede incluir además cambiar entre la decodificación que es conforme a una primera norma y la decodificación que es conforme a una segunda norma según un identificador que indica una de la primera norma y la segunda norma, estando el identificador incluido en el flujo de bits codificado, en el que cuando el identificador indica la primera norma, el análisis y el método de filtrado pueden realizarse como la decodificación que es conforme a la primera norma.
Además, un método de codificación de imágenes en movimiento según un aspecto de la presente invención es un método de codificación de imágenes en movimiento para codificar una señal de imagen de entrada para generar un flujo de bits codificado, y este método de codificación de imágenes en movimiento incluye: el método de filtrado; y generar el flujo de bits codificado que incluye información de diferencia que indica que una diferencia entre un parámetro de cuantificación para un bloque que está ubicado inmediatamente antes de que se procese un bloque actual en el orden de procesamiento y un parámetro de cuantificación para el bloque actual es cero, generándose la información de diferencia como información que indica que el valor del segundo parámetro de cuantificación es igual que el valor del primer parámetro de cuantificación.
De esta manera, con el método de codificación de imágenes en movimiento según el aspecto de la presente invención, es posible transmitir, al aparato de decodificación de imágenes en movimiento, información que permite que el aparato de decodificación de imágenes en movimiento determine el parámetro de cuantificación para el bloque de IPCM usando la información de diferencia usada con otro propósito. Por tanto, con el método de decodificación de imágenes en movimiento, el aparato de decodificación de imágenes en movimiento puede determinar adecuadamente el parámetro de cuantificación para el bloque de IPCM sin la necesidad de que el aparato de decodificación de imágenes en movimiento tenga una función para realizar un procesamiento especial en el bloque de IPCM.
Además, en la generación, el flujo de bits puede generarse cuando el bloque distinto de IPCM está ubicado inmediatamente antes del bloque de IPCM en el orden de procesamiento.
Además, el método de codificación de imágenes en movimiento puede incluir además: restar una señal de imagen de predicción de la señal de imagen de entrada para generar una señal residual; realizar transformación y cuantificación en la señal residual para generar un coeficiente cuantificado; codificar el coeficiente cuantificado para generar el flujo de bits codificado; realizar cuantificación inversa y transformación inversa en el coeficiente cuantificado para generar una señal residual decodificada; y sumar la señal de imagen predicha a la señal residual decodificada para generar una señal de imagen decodificada, en el que el bloque de IPCM y el bloque distinto de IPCM pueden incluirse en la señal de imagen decodificada, el método de codificación de imagen en movimiento puede incluir además realizar una predicción usando una señal de imagen resultante del filtrado por desbloqueo en el método de filtrado, para generar la señal de imagen de predicción.
Además, un aparato de decodificación de imágenes en movimiento según un aspecto de la presente invención es un aparato de decodificación de imágenes en movimiento que realiza el filtrado por desbloqueo en un límite entre un bloque de modulación por impulsos intracodificados (IPCM) y un bloque distinto de IPCM que son adyacentes entre sí en una imagen, y este aparato de decodificación de imágenes en movimiento incluye: una primera unidad de determinación de parámetro de cuantificación configurada para determinar un primer parámetro de cuantificación para el bloque distinto de IPCM; una segunda unidad de determinación de parámetro de cuantificación configurada para determinar un segundo parámetro de cuantificación para el bloque de IPCM y para determinar una intensidad de filtrado, usando el primer parámetro de cuantificación; una unidad de determinación de intensidad de filtrado configurada para determinar la intensidad de filtrado, usando el primer parámetro de cuantificación y el segundo parámetro de cuantificación; y una unidad de filtrado configurada para realizar el filtrado por desbloqueo en el límite, usando la intensidad de filtrado determinada.
Con esta estructura, el aparato de decodificación de imágenes en movimiento según el aspecto de la presente invención determina el parámetro de cuantificación para el bloque de IPCM, usando el parámetro de cuantificación para el bloque distinto de IPCM. De esta manera, el aparato de decodificación de imágenes en movimiento puede realizar un filtrado más apropiado en el límite entre el bloque de IPCM y el bloque distinto de IPCM, en comparación con el caso de usar cero como parámetro de cuantificación para el bloque de IPCM.
Además, un aparato de codificación de imágenes en movimiento según un aspecto de la presente invención es un aparato de codificación de imágenes en movimiento que realiza el filtrado por desbloqueo en un límite entre un bloque de modulación por impulsos intracodificados (IPCM) y un bloque distinto de IPCM que son adyacentes entre sí en una imagen, y este aparato de codificación de imágenes en movimiento incluye: una primera unidad de determinación de parámetro de cuantificación configurada para determinar un primer parámetro de cuantificación para el bloque distinto de IPCM; una segunda unidad de determinación de parámetro de cuantificación configurada para determinar un segundo parámetro de cuantificación para el bloque de IPCM y para determinar una intensidad de filtrado, usando el primer parámetro de cuantificación; una unidad de determinación de intensidad de filtrado configurada para determinar la intensidad de filtrado, usando el primer parámetro de cuantificación y el segundo parámetro de cuantificación; y una unidad de filtrado configurada para realizar el filtrado por desbloqueo en el límite, usando la intensidad de filtrado determinada.
Con esta estructura, el aparato de codificación de imágenes en movimiento según el aspecto de la presente invención determina el parámetro de cuantificación para el bloque de IPCM, usando el parámetro de cuantificación para el bloque distinto de IPCM. De esta manera, el aparato de codificación de imágenes en movimiento puede realizar un filtrado más apropiado en el límite entre el bloque de IPCM y el bloque distinto de IPCM, en comparación con el caso de usar cero como parámetro de cuantificación para el bloque de IPCM.
Además, el aparato de codificación y decodificación de imágenes en movimiento según un aspecto de la presente invención incluye el aparato de codificación de imágenes en movimiento y el aparato de decodificación de imágenes en movimiento.
Estos aspectos generales y específicos pueden implementarse usando un sistema, un método, un circuito integrado, un programa informático o un medio de grabación legible por ordenador, tal como un CD-ROM, o cualquier combinación de sistemas, métodos, circuitos integrados, programas informáticos o medios de grabación legibles por ordenador.
Más adelante en el presente documento, los aparatos de decodificación de imágenes en movimiento y los aparatos de codificación de imágenes en movimiento según un aspecto de la presente invención se describen con mayor detalle con referencia a los dibujos adjuntos.
Cada una de las realizaciones a modo de ejemplo descritas a continuación muestra un ejemplo específico de la presente invención. Los valores numéricos, las formas, los materiales, los elementos estructurales, la disposición y la conexión de los elementos estructurales, las etapas, el orden de procesamiento de las etapas, etc. mostrados en las siguientes realizaciones a modo de ejemplo son meros ejemplos y, por tanto, no limitan el alcance de la presente invención. Por tanto, entre los elementos estructurales en las siguientes realizaciones a modo de ejemplo, los elementos estructurales no mencionados en una cualquiera de las reivindicaciones independientes que definen el concepto más genérico se describen como elementos estructurales arbitrarios.
[Realización 1]
Más adelante en el presente documento, se facilita una descripción de un método de filtrado según la realización 1 de la presente invención.
La figura 4 ilustra un concepto de un método de determinación de un factor para la aplicación del método de filtrado según esta realización y determinación de la intensidad de filtrado de un filtro entre píxeles. Tres círculos en la ilustración muestran píxeles incluidos en el primer bloque como en la figura 1. Los mismos elementos que en la figura 1 entre los elementos restantes no se describen de nuevo.
Un método de filtrado según esta realización es para filtrar una pluralidad de bloques incluidos en una imagen. Normalmente, el método de filtrado se aplica al filtrado por desbloqueo que se realiza en un límite entre bloques adyacentes. Más adelante en el presente documento, se facilita una descripción de un ejemplo de aplicación de filtrado por desbloqueo a las realizaciones a modo de ejemplo de la presente invención. Sin embargo, la presente invención también es aplicable al filtrado en bucle (filtro de bucle adaptativo) distinto del filtrado por desbloqueo. El método de filtrado según esta realización es diferente del método de filtrado descrito con referencia a la figura 1 en los puntos indicados a continuación.
En primer lugar, los valores de píxel sin filtrar se emiten como los valores de píxel de tres píxeles del bloque que es IPCM en el lado derecho de la ilustración.
Además, se realiza un control para diferenciar el filtrado para el primer bloque y el filtrado para el segundo bloque. Por ejemplo, se aplica un filtro a un bloque (en el lado izquierdo) de los bloques a través del límite en la ilustración, y no se aplica ningún filtro al otro bloque (en el lado derecho). De esta manera, se realiza tal control para realizar los diferentes procesos de filtrado entre los bloques.
A continuación, la intensidad de filtrado para el bloque de lado izquierdo al que se aplica el filtro se deriva únicamente en función del parámetro de cuantificación QPp del bloque de lado izquierdo. Dicho de otro modo, la intensidad de filtrado del bloque distinto de IPCM en el lado izquierdo se deriva sin usar el parámetro de cuantificación QPq del macrobloque de lado derecho o cualquier otro valor fijo sustituto (0 en el ejemplo convencional).
Se realiza una determinación con respecto a IPCM en H.264 mostrada en la figura 2 en cuanto a si la IPCM es un macrobloque de IPCM o no. En este caso, se realiza una determinación en cuanto a si la IPCM es una unidad de predicción (PU) que tiene un tamaño variable. Dicho de otro modo, un bloque de IPCM a continuación es un bloque que pertenece a un bloque PU de un tipo IPCM, y un bloque distinto de IPCM es un bloque que pertenece a un bloque PU de un tipo distinto de IPCM.
Más adelante en el presente documento, estas operaciones se describen con referencia a los dibujos.
La figura 5 es un diagrama de flujo de un orden de procesamiento en un método de filtrado según esta realización. El método de filtrado según esta realización se ejecuta como parte de procesos de codificación o procesos de decodificación. Por consiguiente, este método de filtrado se ejecuta por uno de una unidad de filtrado en un bucle de codificación dentro de un aparato de codificación de imágenes en movimiento mostrado en la figura 6 descrito más adelante y una unidad de filtrado en un bucle de decodificación dentro de un aparato de decodificación de imágenes en movimiento mostrado en la figura 9 descrito más adelante, y una unidad de control para controlar el filtro.
La unidad de control determina si el tipo de bloque PU de uno de los dos bloques que comparten el límite es IPCM o no (S201). En el caso a modo de ejemplo de la figura 4, el bloque PU de lado derecho es un bloque de IPCM y, por tanto, se determina que el tipo es de tipo IPCM. Más específicamente, la unidad de control ejecuta esta determinación usando un tipo de macrobloque o un parámetro de atributo de datos de imagen, tal como un tamaño de bloque de compensación de movimiento.
Cuando al menos uno de los dos bloques es un bloque de IPCM (Sí en S201), la unidad de control determina si el otro de los dos bloques es un bloque de IPCM o no (S202). Por ejemplo, como en el caso de la ilustración en la figura 4, el bloque de lado derecho es un bloque de IPCM. Por consiguiente, la unidad de control determina si el otro bloque que es el bloque de lado izquierdo es un bloque de IPCM o no.
Dicho de otro modo, en las etapas S201 y S202, la unidad de control determina si cada uno de los bloques es un bloque de IPCM o un bloque distinto de IPCM. Más específicamente, la unidad de control determina (1) si los dos bloques son bloques distintos de IPCM (No en S201), y (2) si los dos bloques son bloques de IPCM (Sí en S202) o (3) si uno de los bloques es un bloque de IPCM y el otro es un bloque distinto de IPCM (No en S202).
Cuando el otro bloque es un bloque de IPCM (Sí en S202), es decir, cuando ambos bloques son bloques de IPCM, se omite el filtrado para los píxeles p y q de ambos bloques (tanto del primer bloque como del segundo bloque (S203).
Por otro lado, cuando el otro bloque no es un bloque de IPCM (No en S202), es decir, sólo uno de los bloques es un bloque de IPCM, y el otro es un bloque distinto de IPCM, la unidad de control realiza un control para hacer que la unidad de filtrado ejecute el filtrado en las etapas S204 y S205.
En primer lugar, la unidad de filtrado ejecuta el filtrado usando una intensidad predeterminada en los píxeles incluidos en el bloque distinto de IPCM (por ejemplo, los tres píxeles en el lado izquierdo en la figura 4), y emite los valores de píxel filtrados como los valores de píxel de bloque distinto de IPCM (S204). Además, este filtrado también usa valores de píxel de un bloque de IPCM, además de los valores de píxel del bloque distinto de IPCM. Más específicamente, la unidad de filtrado alisa los valores de píxel del bloque distinto de IPCM y los valores de píxel del bloque de IPCM para calcular los valores de píxel del bloque distinto de IPCM filtrado.
Además, la unidad de filtrado emite los valores de píxel sin filtrar para los píxeles incluidos en el bloque de IPCM (píxeles q0, q1,... en el lado q) (S205). En este caso, los valores de píxel sin filtrar se emiten en los siguientes dos casos concebibles.
Un primer método es un método de filtrado de un bloque distinto de IPCM y emisión de los valores de píxel originales de un bloque de IPCM sin filtrado.
Un segundo método es un método de filtrado tanto de un bloque distinto de IPCM como de un bloque de IPCM, reemplazo de los valores de píxel del bloque de IPCM entre los valores de píxel filtrados por los valores de píxel originales antes del filtrado, y emisión de los valores de píxel de reemplazo. En uno cualquiera de los casos, los valores de píxel del bloque de IPCM que se emiten son los valores de píxel originales antes de la ejecución del filtrado.
Puede considerarse que el método de filtrado implica un control para adoptar diferentes enfoques de filtrado (intensidades de filtrado, la aplicación o no aplicación de un filtro y el número o números de píxeles en la aplicación) entre los bloques.
El filtrado (especialmente, las operaciones de la unidad de control y la unidad de filtrado) en las etapas S204 y S205 se describen más adelante con referencia a las figuras 6 a 8.
Además, cuando ambos bloques son bloques distintos de IPCM en la etapa S201 (No en S201), la unidad de control realiza la operación de filtrado por defecto (S206). Dicho de otro modo, la unidad de control ejecuta el filtrado usando una intensidad de filtrado predeterminada en ambos bloques.
Más adelante en el presente documento, se facilita una descripción de un aparato de codificación de imágenes en movimiento que realiza el método de filtrado.
La figura 6 es un diagrama de bloques funcional de un aparato de codificación de imágenes en movimiento 100 según esta realización. El aparato de codificación de imágenes en movimiento 100 mostrado en la figura 6 codifica una señal de imagen de entrada 120 para generar un flujo de bits codificado 132. El aparato de codificación de imágenes en movimiento 100 comprende un restador 101, una unidad de transformación ortogonal 102, una unidad de cuantificación 103, una unidad de cuantificación inversa 104, una unidad de transformación ortogonal inversa 105, un sumador 106, una unidad de filtrado 115, una memoria 109, una unidad de predicción 110, una unidad de codificación de longitud variable 111, una unidad de selección 112 y una unidad de control 113.
El restador 101 calcula una diferencia entre la señal de imagen de entrada 120 y una señal de imagen de predicción 130 para generar una señal residual 121. La unidad de transformación ortogonal 102 realiza una transformación ortogonal en la señal residual 121 para generar un coeficiente de transformación 122. La unidad de cuantificación 103 cuantifica el coeficiente de transformación 122 para generar el coeficiente cuantificado 123.
La unidad de cuantificación inversa 104 realiza una cuantificación inversa en el coeficiente de transformación 123 para generar el coeficiente de transformación 124. La unidad de transformación ortogonal inversa 105 realiza una transformación ortogonal inversa en el coeficiente de transformación 124 para generar una señal residual decodificada 125. El sumador 106 suma la señal residual decodificada 125 y la señal de imagen de predicción 130 para generar una señal de imagen decodificada 126.
La unidad de filtrado 115 filtra la señal de imagen decodificada 126 para generar una señal de imagen 128, y almacena la señal de imagen generada 128 en la memoria 109.
La unidad de predicción 110 realiza selectivamente intra-predicción e inter-predicción usando la señal de imagen 128 almacenada en la memoria 109 para generar una señal de imagen de predicción 130.
La unidad de codificación de longitud variable 111 realiza una codificación de longitud variable (codificación entrópica) en el coeficiente cuantificado 123 para generar una señal codificada 131.
La unidad de selección 112 selecciona la señal de imagen de entrada 120 cuando un bloque actual es un bloque de IPCM, y selecciona una señal codificada 131 cuando un bloque actual es un bloque distinto de IPCM. Entonces, la unidad de selección 112 emite la señal seleccionada como un flujo de bits codificado 132.
La unidad de control 113 controla la unidad de filtrado 115 y la unidad de selección 112.
En este caso, la unidad de transformación ortogonal 102 y la unidad de cuantificación 103 son ejemplos de unidades de transformación y cuantificación que generan un coeficiente de cuantificación realizando transformación y cuantificación en la señal residual. Además, la unidad de codificación de longitud variable 111 es un ejemplo de una unidad de codificación que codifica el coeficiente cuantificado para generar una señal codificada. Dicho de otro modo, la unidad de cuantificación inversa 104 y la unidad de transformación ortogonal inversa 105 son ejemplos de una unidad de cuantificación inversa y una unidad de transformación inversa que generan una señal residual decodificada realizando una cuantificación inversa y una transformación inversa en el coeficiente cuantificado.
En este caso, especialmente los elementos principales del aparato de codificación de imágenes en movimiento 100 según esta realización son la unidad de control 113 y la unidad de filtrado 115.
Tal como se describió anteriormente, el método de filtrado según esta realización se ejecuta como partes de los procesos de codificación y los procesos de decodificación. Por consiguiente, la unidad de filtrado 115 está ubicada antes de la memoria 109 para contener imágenes de referencia, etc. La unidad de filtrado 115 almacena, en la memoria 109 en los bucles, el resultado de ejecutar el filtrado (o el resultado de omitir el filtrado). A este respecto, la unidad de filtrado 115 es igual que un filtro denominado filtro de bucle en H.264.
Además, la unidad de filtrado 115 tiene dos líneas de entrada. Una primera de las señales de entrada es una señal de imagen decodificada 126 que representa los valores de píxel del bloque distinto de IPCM, y una segunda de las señales de entrada es una señal de imagen de entrada 120 que representa los valores de píxel del bloque de IPCM. En este caso, la señal de imagen decodificada 126 es una señal de imagen codificada reconstruida después de someterse a transformación, cuantificación, cuantificación inversa y transformación inversa. Además, la señal de imagen de entrada 120 es la señal de imagen original que no se somete a la codificación y decodificación.
Bajo el control de la unidad de control 113, la unidad de filtrado 115 emite los valores de píxel originales sin filtrar del bloque de IPCM, y filtra los valores de píxel del bloque distinto de IPCM y emite los valores filtrados.
Esta unidad de filtrado 115 incluye una unidad de filtrado 107 y una unidad de selección 108. La unidad de filtrado 107 filtra la señal de imagen decodificada 126 para generar una señal de imagen 127. La unidad de selección 108 selecciona la señal de imagen 127 cuando un bloque actual es un bloque de IPCM, y selecciona una señal de imagen de entrada 120 cuando un bloque actual es un bloque distinto de IPCM y luego emite la señal seleccionada como una señal de imagen 128.
Cada una de las figuras 7A y 7B es una ilustración de un ejemplo de píxeles a través de un límite entre dos bloques. En el ejemplo mostrado en la figura 7A, los dos bloques son adyacentes entre sí en la dirección horizontal. En este caso, el bloque que incluye los píxeles p0 a pn en el lado izquierdo se denomina primer bloque. Este primer bloque es un bloque distinto de IPCM. Además, el otro bloque se denomina segundo bloque. Este segundo bloque es un bloque de IPCM. En este caso, tal como se muestra en la figura 7B, el filtrado en esta realización es aplicable naturalmente en el caso de que un bloque de IPCM y un bloque distinto de IPCM estén adyacentes entre sí en la dirección vertical.
Más adelante en el presente documento, se facilita una descripción de un ejemplo específico de operaciones por la unidad de filtrado 115.
Cada una de las figuras 8A y la figura 8B es una ilustración de las operaciones realizadas por la unidad de filtrado 115 en el caso de filtrado de los píxeles p [i] y q [j] incluidos en los dos bloques ilustrados en la figura 7A. Dicho de otro modo, el primer bloque pertenece al bloque distinto de IPCM, y el segundo bloque es el bloque de IPCM.
La unidad de filtrado 115 realiza las operaciones mostradas en la figura 8A y la figura 8B según una señal de control procedente de la unidad de control 113.
La figura 8A es una ilustración de una operación realizada por la unidad de filtrado 115 en el bloque distinto de IPCM. Esta operación corresponde a la etapa S204 mostrada en la figura 5. Dicho de otro modo, la unidad de filtrado 115 calcula los resultados de salida pf0, pf1,... de los píxeles correspondientes al primer bloque, usando los valores de píxel (p0, p1,...) del primer bloque y los valores de píxel (q0, q1,...) del segundo bloque.
La figura 8B es una ilustración de las operaciones realizadas por la unidad de filtrado 115 en el bloque de IPCM. Esta operación corresponde a la etapa S205 mostrada en la figura 5. Dicho de otro modo, la unidad de filtrado 115 emite los mismos valores (valores de píxel sin filtrar) que los valores de entrada q0, q1 y q2, para los píxeles del segundo bloque.
Más adelante en el presente documento, se facilita una descripción de un aparato de decodificación de imágenes en movimiento que realiza el método de filtrado.
La figura 9 es un diagrama de bloques funcional de un aparato de decodificación de imágenes en movimiento según esta realización.
El aparato de decodificación de imágenes en movimiento 200 mostrado en la figura 9 decodifica el flujo de bits codificado 232 para generar una señal de imagen de salida 220. En este caso, el flujo de bits codificado 232 es, por ejemplo, un flujo de bits codificado 132 generado por el aparato de codificación de imágenes en movimiento 100. Este aparato de decodificación de imágenes en movimiento 200 comprende una unidad de cuantificación inversa 204, una unidad de transformación ortogonal inversa 205, un sumador 206, una unidad de filtrado 215, una memoria 209, una unidad de predicción 210, una unidad de decodificación de longitud variable 211, una unidad de distribución 212 y una unidad de control 231.
La unidad de distribución 212 suministra el flujo de bits codificado 232 a la unidad de filtrado 215 cuando un bloque actual es un bloque de IPCM, y suministra el flujo de bits codificado 232 a la unidad de decodificación de longitud variable 211 cuando un bloque actual es un bloque distinto de IPCM.
La unidad de decodificación de longitud variable 211 realiza una decodificación de longitud variable (decodificación entrópica) en el flujo de bits codificado 232 para generar un coeficiente cuantificado 223.
La unidad de cuantificación inversa 204 realiza una cuantificación inversa en el coeficiente de transformación 223 para generar el coeficiente de transformación 224. La unidad de transformación ortogonal inversa 205 realiza una transformación ortogonal inversa en el coeficiente de transformación 224 para generar una señal residual decodificada 225. El sumador 206 suma la señal residual decodificada 225 y la señal de imagen de predicción 230 para generar una señal de imagen decodificada 226.
La unidad de filtrado 215 filtra la señal de imagen decodificada 226 para generar una señal de imagen 228, y almacena la señal de imagen generada 228 en la memoria 209.
Esta unidad de filtrado 215 incluye una unidad de filtrado 207 y una unidad de selección 208. La unidad de filtrado 207 filtra la señal de imagen decodificada 226 para generar una señal de imagen 227. La unidad de selección 208 selecciona la señal de imagen 227 cuando un bloque actual es un bloque de IPCM, y selecciona una señal de imagen de entrada 232 cuando un bloque actual es un bloque distinto de IPCM y luego emite la señal seleccionada como una señal de imagen 228.
Además, la señal de imagen 228 almacenada en la memoria 209 se emite como una señal de imagen de salida 220. La unidad de predicción 210 realiza selectivamente intra-predicción e inter predicción usando la señal de imagen 228 almacenada en la memoria 209 para generar una señal de imagen de predicción 230.
La unidad de control 213 controla la unidad de filtrado 215 y la unidad de distribución 212.
En este caso, la unidad de decodificación de longitud variable 211 es un ejemplo de una unidad de decodificación que decodifica el flujo de bits codificado para generar un coeficiente cuantificado.
En este caso, las operaciones de la unidad de filtrado 215 son iguales que las operaciones de la unidad de filtrado 115 del aparato de codificación de imágenes en movimiento 100. La unidad de control 213 es diferente de la unidad de control 113 incluida en el aparato de codificación de imágenes en movimiento 100 en el punto de determinar si el tipo de unidad PU del primer bloque o el segundo bloque es IPCM o no a partir del flujo de bits codificado 232 que es un cadena codificada de entrada, pero es igual en las otras funciones.
Más adelante en el presente documento, se facilitan descripciones de estructuras de variaciones de las unidades de filtrado 115 y 215.
Cada una de las figuras 10A a 10H es una ilustración de una implementación concebible con respecto a una relación de entrada y salida de filtro de las unidades de filtrado 115 y 215.
Tal como se muestra en la figura 10A, cada una de las unidades de filtrado 107 y 207 puede incluir unidades de filtrado 301 y 302 conectadas en serie. Por ejemplo, la primera unidad de filtrado 301 y la segunda unidad de filtrado 302 pueden realizar diferentes procesos. En este caso, por ejemplo, se omiten todos los procesos de filtrado para el bloque de IPCM.
Tal como se muestra en la figura 10B, la unidad de filtrado 311 puede realizar el filtrado usando ambas señales de entrada. En este caso, la unidad de selección 312 emite valores sin filtrar para el bloque de IPCM, y la unidad de filtrado 311 emite valores filtrados para el bloque distinto de IPCM.
Tal como se muestra en la figura 10C, también es bueno realizar procesos de filtrado diferentes entre el bloque de IPCM y el bloque distinto de IPCM. Por ejemplo, diferentes procesos de filtrado pueden ser procesos de filtrado que usan diferentes intensidades de filtrado. Además, por ejemplo, la intensidad de filtrado para el bloque de IPCm puede ser menor que la intensidad de filtrado para el bloque distinto de IPCM.
Más específicamente, la unidad de distribución 321 emite la señal de entrada a la unidad de filtrado 322 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de filtrado 323 cuando un bloque actual es un bloque de IPCM. En este caso, las señales de entrada incluyen tanto la señal de imagen decodificada 126 como la señal de imagen de entrada 120. La unidad de filtrado 322 realiza el filtrado de una primera intensidad de filtrado usando la señal de entrada para generar valores de píxel del bloque actual. La unidad de filtrado 322 realiza el filtrado usando una segunda intensidad de filtrado menor que la primera intensidad de filtrado para generar valores de píxel del bloque actual. La unidad de selección 324 emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 322 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 323 cuando el bloque actual es el bloque de IPCM. Tal como se muestra en la figura 10D, no siempre es necesario realizar el procesamiento en el bloque de IPCM. Más específicamente, la unidad de distribución 331 emite la señal de entrada a la unidad de filtrado 332 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de selección 333 cuando un bloque actual es un bloque de IPCM. La unidad de selección 333 emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 332 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de píxel del bloque actual en la señal procedente de la unidad de filtrado 331 cuando el bloque actual es el bloque de IPCm . Tal como se muestra en la figura 10E, es posible cambiar los lados de entrada de las unidades de filtrado en lugar de cambiar los lados de salida de las unidades de filtrado. Además, los números de las etapas de las unidades de filtrado son diferentes entre un bloque de IPCM y un bloque distinto de IPCM. Más específicamente, la unidad de distribución 341 emite la señal de entrada a la unidad de filtrado 342 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de filtrado 344 cuando un bloque actual es un bloque de IPCM. La unidad de filtrado 342 realiza el filtrado usando la señal de entrada. La unidad de filtrado 343 realiza el filtrado usando la señal filtrada por la unidad de filtrado 342, y emite los valores de píxel del bloque filtrado actual. La unidad de filtrado 344 realiza el filtrado usando la señal de entrada, y emite los valores de píxel del bloque filtrado actual. En este caso, el filtrado realizado por la unidad de filtrado 344 puede ser igual o diferente del filtrado realizado por la unidad de filtrado 342 y el filtrado realizado por la unidad de filtrado 343.
Tal como se muestra en la figura 10F, es posible cambiar los lados de salida de las unidades de filtrado. Más específicamente, la unidad de filtrado 351 realiza el filtrado usando la primera señal de entrada. La unidad de filtrado 352 realiza el filtrado usando la señal filtrada por la unidad de filtrado 351, y emite los valores de píxel del bloque filtrado actual. La unidad de filtrado 353 realiza el filtrado usando la segunda señal de entrada, y emite los valores de píxel del bloque filtrado actual. La unidad de selección 354 emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 352 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 353 cuando el bloque actual es el bloque de IPCM.
En este caso, emitir un valor sin filtrar implica reemplazar un valor de píxel resultante del filtrado por el valor de entrada original p y emitir el valor de reemplazo.
Tal como se muestra en la figura 10G, es posible usar una señal filtrada en una de dos líneas en el filtrado que se realiza en la otra línea. Más específicamente, la unidad de filtrado 361 realiza el filtrado usando la segunda señal de entrada. La unidad de filtrado 352 realiza el filtrado usando la primera señal de entrada y una señal filtrada por la unidad de filtrado 361. La unidad de selección 363 emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 362 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de píxel del bloque actual filtrado por la unidad de filtrado 361 cuando el bloque actual es el bloque de IPCM. La unidad de selección 363 puede emitir los valores de píxel del bloque actual filtrado por la unidad de filtrado 362 cuando el bloque actual es el bloque de IPCM, y emitir los valores de píxel del bloque actual filtrado por la unidad de filtrado 361 cuando el bloque actual es el bloque distinto de IPCM.
Tal como se muestra en la figura 10H, un valor almacenado una vez en la memoria 373 puede usarse como entrada. Más específicamente, la unidad de selección 371 selecciona una de la señal de entrada y la señal almacenada en la memoria 373. La unidad de filtrado 372 realiza el filtrado usando la señal seleccionada por la unidad de selección 371.
Estos son ejemplos y, por tanto, sólo es necesario que la unidad de filtrado 115 según esta realización ejerza una función de finalmente “emitir valores sin filtrar para los píxeles en un bloque de IPCM”.
Más adelante en el presente documento, se facilita una descripción de una versión modificada de un método de filtrado según esta realización. La figura 11 es un diagrama de flujo de operaciones en la versión modificada del método de filtrado según esta realización.
Se ha descrito que el filtrado se aplica al bloque distinto de IPCM en la etapa S204 de la figura 5 y los valores de píxel sin filtrar del bloque de IPCM se emiten en la etapa S205 de la figura 5. Sin embargo, estos procesos pueden realizarse en las etapas indicadas a continuación. Por ejemplo, es posible realizar los procesos mostrados en la figura 11 en lugar de las etapas S204 y S205 mostradas en la figura 5.
En primer lugar, se obtienen los valores de píxel de un primer bloque (bloque [0]) y un segundo bloque (bloque y [1]) adyacentes entre sí (S221). En este caso, por ejemplo, el primer bloque es un bloque distinto de IPCm , y el segundo bloque es un bloque de IPCM.
A continuación, se deriva una intensidad de filtrado bS [0] que se aplica al primer bloque y una intensidad de filtrado bS [1] que se aplica al segundo bloque (S222 y S223). En este caso, la intensidad de filtrado bS [0] y la intensidad de filtrado bS [1] muestran diferentes intensidades. En la técnica convencional, sólo se establece una intensidad de filtrado para un límite de bloque. Por ejemplo, en esta realización, se establece la intensidad de filtrado para el bloque de IPCM menor que la intensidad de filtrado para el bloque distinto de IPCM.
A continuación, ambos bloques se filtran usando la intensidad de filtrado bS [0], y se emiten los valores de píxel del segundo bloque después del filtrado (S125). A continuación, ambos bloques se filtran usando la intensidad de filtrado bS [1], y se emiten los valores de píxel del segundo bloque después del filtrado (S225).
En este caso, es posible controlar la aplicación o no aplicación del filtrado estableciendo el valor de la intensidad de filtrado en 0. Dicho de otro modo, también es bueno derivar para cada uno de los bloques una bandera (filterSamplesFlag) para controlar la aplicación o no aplicación del filtrado.
Tal como se describió anteriormente, el método de filtrado según esta realización hace que sea posible ejecutar el filtrado en uno de los bloques usando la primera intensidad de filtrado y ejecutar el filtrado en el otro bloque usando la segunda intensidad de filtrado. Además, el método de filtrado hace que sea posible realizar tal procesamiento en los procesos de filtrado.
La figura 12 es un diagrama de flujo de operaciones en una variación del método de filtrado según esta realización. Los procesos mostrados en la figura 12 incluyen adicionalmente la etapa S401, además de los procesos mostrados en la figura 3.
Esta etapa S401 se añade para proporcionar una intensidad de filtrado adecuada a un bloque de IPCM que se determina inevitablemente que es un bloque que se somete a intra-predicción. En la etapa S401, se realiza una determinación de si al menos uno del primer bloque y el segundo bloque es un bloque de IPCM o no. Cuando al menos uno del primer bloque y el segundo bloque es el bloque de IPCM (Sí en S401), se determina que la intensidad de filtrado (bS) es una cualquiera de 3, 2, 1 y 0 que es menor que N (= 4) (S124). Además, cuando tanto el primer bloque como el segundo bloque son bloques distintos de IPCM (No en S401), la intensidad de filtrado se establece en bS = N, lo que significa la mayor intensidad (S123).
En el caso del método de filtrado mostrado en la figura 3, cuando uno o ambos bloques es un macrobloque codificado usando el modo de intra-predicción (Sí en S122), la intensidad de filtrado en sí misma siempre se establece en bS = 4, lo que significa la mayor intensidad sin considerar ningún otro factor de determinación.
Por otro lado, en el caso de la variación de esta realización mostrada en la figura 12, cuando uno o ambos bloques es un macrobloque codificado usando el modo de intra-predicción (Sí en S122) y cuando uno de los bloques es un bloque de IPCM (Sí en S401), se establece una intensidad de filtrado (bS = 0 a 3) menor que la intensidad de filtrado (bS = 4) establecida en la etapa S123.
La figura 13 es una ilustración de las intensidades de filtrado determinadas usando el método de filtrado según esta realización y unidades de bloque que definen un límite.
Tal como se muestra en la figura 13, cuando un macrobloque MB [0] es un macrobloque codificado usando el modo de inter-predicción y un macrobloque MB [1] es un macrobloque codificado usando el modo de intra-predicción (Sí en S122) y cuando ambos bloques primero y segundo no son bloques de IPCM (No en S401), se establece bS = 4 en ambos bloques (S123).
Por otro lado, cuando un bloque PU [0] se codifica usando un modo distinto de IPCM y un bloque PU [1] se codifica usando un modo de IPCM, es decir, cuando un bloque CU [0] es un bloque distinto de IPCM y un bloque CU [1] es un bloque de IPCM (Sí en S401), se establece bS = uno cualquiera de 0 a 3 en cada uno del bloque CU [0] y el bloque CU [1]. En este ejemplo, se establece bS = 0 en el bloque CU [1] que es un bloque de IPCM, y se establece bS = uno cualquiera de 1 a 3 en el bloque CU [0] que es un bloque distinto de IPCM.
Cada una de las figuras 14A y 14B es una ilustración de un estado en el que un intervalo de aplicación de una bandera que indica que un filtro está ACTIVADO se extiende al manejar un bloque de IPCM según esta realización. La figura 14A muestra, como ejemplo de comparación, un caso de no aplicación de un enfoque en esta realización. La figura 14B muestra un caso de aplicación del enfoque en esta realización.
Tal como se muestra en la figura 14B, es posible extender el intervalo de aplicación de la bandera que indica que un filtro está ACTIVADO usando el método de filtrado según esta realización.
Tal como se describió anteriormente, el método de filtrado según esta realización emplea, para la determinación, una regla de interpretación de código implícita de que la unidad de filtrado o la unidad de control “no filtra un bloque de IPCM” en el filtrado en bucle. De esta manera, tal como se muestra en la figura 14A y la figura 14B, es posible especificar si un filtro está habilitado o deshabilitado para una cadena codificada en un intervalo mayor. De esta manera, el método de filtrado según esta realización reduce la cantidad de bits.
Aunque se han descrito ejemplos de aplicación de esta realización al filtrado por desbloqueo en las descripciones anteriores, sin embargo, son aplicables métodos similares a otros procesamientos. Por ejemplo, es posible aplicar el procesamiento al filtrado de bucle adaptativo (ALF) o al desplazamiento adaptativo, en lugar del filtrado por desbloqueo.
El filtrado por desbloqueo es un filtrado que se usa para una muestra de píxeles reconstruida que está ubicada cerca de un límite de bloque. El filtrado por desbloqueo reduce el ruido que se genera en el límite de bloque debido a la cuantificación que se realiza bloque por bloque.
El filtrado de bucle adaptativo es un filtrado para reducir el ruido en un píxel objetivo mediante el uso de valores de píxel que rodean al píxel objetivo.
El desplazamiento adaptativo es el procesamiento realizado para cada bloque para sumar o restar un valor de desplazamiento a o de una pluralidad de píxeles incluidos en el bloque.
Más adelante en el presente documento, se facilitan descripciones del aparato de codificación de imágenes en movimiento 100 y del aparato de decodificación de imágenes en movimiento 200 en estos casos.
La figura 15 es un diagrama de flujo del método de codificación de imágenes en movimiento según una variación de esta realización.
En primer lugar, el aparato de codificación de imágenes en movimiento 100 determina un modo de predicción para que se procese un bloque actual (S301). Este modo de predicción es uno de los modos de IPCM y distinto de IPCm . A continuación, el aparato de codificación de imágenes en movimiento 100 escribe el modo de predicción determinado en el flujo de bits codificado 132 (S302). Dicho de otro modo, la unidad de codificación de longitud variable 111 genera el flujo de bits codificado 132 (la señal codificada 131) que incluye el modo de predicción determinado.
A continuación, el aparato de codificación de imágenes en movimiento 100 determina si el modo de predicción es o no el modo de IPCM (S303). Cuando el modo de predicción es el modo de IPCM (Sí en S303), el aparato de codificación de imágenes en movimiento 100 almacena la señal de imagen de entrada 120 en la memoria 109 como imagen de referencia para su uso en inter-predicción o intra-predicción (S306).
Cuando el modo de predicción es el modo distinto de IPCM (No en S303), el aparato de codificación de imágenes en movimiento 100 genera una señal de imagen decodificada 126 al reconstruir los bloques de una muestra de imagen en función del modo de predicción (S304). A continuación, el aparato de codificación de imágenes en movimiento 100 procesa la señal de imagen decodificada 126 para generar una señal de imagen 128 (S305). Este procesamiento incluye al menos uno de filtrado por desbloqueo, filtrado de bucle adaptativo y desplazamiento adaptativo. A continuación, el aparato de codificación de imágenes en movimiento 100 almacena la señal de imagen generada 128 en la memoria 109 como imagen de referencia (S306).
La figura 16 es un diagrama de flujo del método de decodificación de imágenes en movimiento según una variación de esta realización.
En primer lugar, el aparato de decodificación de imágenes en movimiento 200 analiza un flujo de bits codificado 232 para obtener el modo de predicción para el bloque actual incluido en el flujo de bits codificado 232 (S311). Este modo de predicción es uno de los modos de IPCM y distinto de IPCM.
A continuación, el aparato de decodificación de imágenes en movimiento 200 determina si el modo de predicción es o no el modo de IPCM (S312). Cuando el modo de predicción es el modo de IPCM (Sí en S312), el aparato de decodificación de imágenes en movimiento 200 almacena la señal de imagen del bloque actual incluido en el flujo de bits codificado 232 en la memoria 209 como imagen de referencia para su uso en inter-predicción o intra-predicción (S315).
Cuando el modo de predicción es el modo distinto de IPCM (No en S312), el aparato de decodificación de imágenes en movimiento 200 genera una señal de imagen decodificada 226 al reconstruir los bloques de una muestra de imagen en función del modo de predicción (S313). A continuación, el aparato de decodificación de imágenes en movimiento 200 procesa la señal de imagen decodificada 226 para generar una señal de imagen 228 (S314). Este procesamiento incluye al menos uno de filtrado por desbloqueo, filtrado de bucle adaptativo y desplazamiento adaptativo. A continuación, el aparato de decodificación de imágenes en movimiento 200 almacena la señal de imagen generada 228 en la memoria 209 como imagen de referencia (S315).
[Realización 2]
Un método de filtrado según esta realización es para determinar un parámetro de cuantificación para un bloque de IPCM usando un parámetro de cuantificación para un bloque distinto de IPCM, en el filtrado por desbloqueo que se realiza en el límite entre el bloque de IPCM y el bloque distinto de IPCM. Por ejemplo, según el método de filtrado, el valor del parámetro de cuantificación para el bloque de IPCM se establece en el mismo valor que el valor del parámetro de cuantificación para el bloque distinto de IPCM. De esta manera, según el método de filtrado, es posible realizar el filtrado usando una intensidad de filtrado apropiada en el límite entre el bloque de IPCM y el bloque distinto de IPCM.
Más adelante en el presente documento, se describen principalmente las diferencias con respecto a la realización 1, y no se repiten las mismas descripciones.
La figura 17 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento 400 según esta realización. El aparato de codificación de imágenes en movimiento 400 mostrado en la figura 17 realiza el filtrado por desbloqueo en el límite entre un bloque de IPCM y un bloque distinto de IPCM adyacentes entre sí en una imagen. El aparato de codificación de imágenes en movimiento 400 incluye: una primera unidad de determinación de parámetro de cuantificación 401; una segunda unidad de determinación de parámetro de cuantificación 402; una unidad de determinación de intensidad de filtrado 403; y una unidad de filtrado 404. La primera unidad de determinación de parámetro de cuantificación 401, la segunda unidad de determinación de parámetro de cuantificación 402, la unidad de determinación de intensidad de filtrado 403 y la unidad de filtrado 404 se incluyen, por ejemplo, en la unidad de filtrado 115 o la unidad de filtrado 107 mostradas en la figura 6. Además, el aparato de codificación de imágenes en movimiento 400 puede incluir adicionalmente algunas o todas de la pluralidad de unidades de procesamiento del aparato de codificación de imágenes en movimiento 100 mostrado en la figura 6. La figura 18 es un diagrama de bloques de un aparato de decodificación de imágenes en movimiento 500 según esta realización. El aparato de decodificación de imágenes en movimiento 500 mostrado en la figura 18 realiza el filtrado por desbloqueo en el límite entre un bloque de IPCM y un bloque distinto de IPCM adyacentes entre sí en una imagen. El aparato de decodificación de imágenes en movimiento 500 incluye: una primera unidad de determinación de parámetro de cuantificación 501; una segunda unidad de determinación de parámetro de cuantificación 502; una unidad de determinación de intensidad de filtrado 503; y una unidad de filtrado 504. La primera unidad de determinación de parámetro de cuantificación 501, la segunda unidad de determinación de parámetro de cuantificación 502, la unidad de determinación de intensidad de filtrado 503 y la unidad de filtrado 504 están incluidas, por ejemplo, en la unidad de filtrado 215 o la unidad de filtrado 207 mostradas en la figura 9. Además, el aparato de decodificación de imágenes en movimiento 500 puede incluir adicionalmente algunas o la totalidad de la pluralidad de unidades de procesamiento del aparato de decodificación de imágenes en movimiento 200 mostrado en la figura 9.
El aparato de codificación de imágenes en movimiento 400 y el aparato de decodificación de imágenes en movimiento 500 realizan un filtrado similar y, por tanto, el filtrado por el aparato de codificación de imágenes en movimiento 400 se describe a continuación como representativo.
La figura 19 es un diagrama de flujo de un método de filtrado realizado por el aparato de codificación de imágenes en movimiento 400 según esta realización.
En primer lugar, la primera unidad de determinación de parámetro de cuantificación 401 determina un primer parámetro de cuantificación 411 para un bloque distinto de IPCM (S301). Por ejemplo, la primera unidad de determinación de parámetro de cuantificación 401 obtiene, como el primer parámetro de cuantificación 411, el parámetro de cuantificación para el bloque distinto de IPCM usado por la unidad de cuantificación 103 o la unidad de cuantificación inversa 104. Asimismo, la primera unidad de determinación de parámetro de cuantificación 401 obtiene, como el primer parámetro de cuantificación 411, por ejemplo, el parámetro de cuantificación para el bloque distinto de IPCM usado por la unidad de cuantificación inversa 204.
A continuación, la segunda unidad de determinación de parámetro de cuantificación 402 determina un segundo parámetro de cuantificación 412 para determinar una intensidad de filtrado para un bloque de IPCM, usando el primer parámetro de cuantificación 411 (S302). Por ejemplo, la segunda unidad de determinación de parámetro de cuantificación 402 determina que el segundo parámetro de cuantificación 412 tiene el mismo valor que el primer parámetro de cuantificación 411.
A continuación, la unidad de determinación de intensidad de filtrado 403 determina una intensidad de filtrado 413 usando el primer parámetro de cuantificación 411 y el segundo parámetro de cuantificación 412 (S303). Por ejemplo, la unidad de determinación de intensidad de filtrado 403 calcula un valor promedio del primer parámetro de cuantificación 411 y el segundo parámetro de cuantificación 412, y determina la intensidad de filtrado 413 usando el valor promedio calculado.
Por último, la unidad de filtrado 404 realiza el filtrado por desbloqueo en el límite entre el bloque distinto de IPCM y el bloque de IPCM usando la intensidad de filtrado 413 determinada (S304).
Más adelante en el presente documento, se describe un ejemplo específico de este filtrado.
La figura 20 es un diagrama de flujo de un ejemplo de filtrado según esta realización.
En primer lugar, el aparato de codificación de imágenes en movimiento 400 establece un parámetro i en un valor inicial cero (S411). A continuación, el aparato de codificación de imágenes en movimiento 400 determina si el parámetro i es o no 1 o mayor (S412).
Cuando el parámetro i es 1 o menor (Sí en S412), el aparato de codificación de imágenes en movimiento 400 determina si un bloque [i] es o no un bloque de IPCM (S413). En este caso, se realiza el siguiente procesamiento con i = 0 y 1, es decir, un bloque [0] y un bloque [1]. En este caso, el bloque [0] y el bloque [1] son dos bloques adyacentes entre sí, y comparten el límite en el que se realiza el filtrado por desbloqueo.
Cuando el bloque [i] es un bloque distinto de IPCM (No en S413), la primera unidad de determinación de parámetro de cuantificación 401 calcula un parámetro de cuantificación qP [i] usando la siguiente expresión 2 (S414).
qP [i] = QPy [i] (Expresión 2)
En este caso, el parámetro de cuantificación QPy es un parámetro de cuantificación para una componente de luminancia usada en un proceso de cuantificación, y un parámetro de cuantificación qP es un parámetro para calcular la intensidad de filtrado. Dicho de otro modo, la primera unidad de determinación de parámetro de cuantificación 401 establece, en el parámetro de cuantificación qP [i] para el bloque distinto de IPCM, el parámetro de cuantificación usado en el proceso de cuantificación con la componente de luminancia del bloque distinto de IPCM.
Cuando el bloque [i] es un bloque de IPCM (Sí en S413), la segunda unidad de determinación de parámetro de cuantificación 402 calcula un parámetro de cuantificación qP [i] usando la siguiente expresión 3 (S415).
qP [i] = QPy [ (i 1) % 2] (Expresión 3)
La expresión 3 es qP [0] = QPy [1] cuando i = 0, y qP [1] = QPy [0] cuando i = 1. Dicho de otro modo, la segunda unidad de determinación de parámetro de cuantificación 402 establece, en el parámetro de cuantificación qP [i] para el bloque de IPCM, el parámetro de cuantificación usado en el proceso de cuantificación con la componente de luminancia del bloque distinto de IPCM.
A continuación, el aparato de codificación de imágenes en movimiento 400 suma “1” al parámetro i, y realiza los procesos que comienzan con la etapa S412. Más específicamente, se ejecutan las etapas S413 a S415 en cada uno del bloque [0] y el bloque [1]. De esta manera, se calculan el parámetro de cuantificación qP [0] para el bloque [0] y el parámetro de cuantificación qP [1] para el bloque [1].
Cuando se completan los procesos secuenciales, el parámetro i se establece en “2” en la etapa S416. En este caso (No en S412), la unidad de determinación de intensidad de filtrado 403 calcula a continuación un parámetro qPav para determinar la intensidad de filtrado, usando la siguiente expresión 4 (S417).
qPav = (qP [0] qP [1] 1) >> 1 (Expresión 4)
Dicho de otro modo, la unidad de determinación de intensidad de filtrado 403 establece el parámetro qPav en el valor promedio entre qP [0] y qP [1].
Por último, la unidad de determinación de intensidad de filtrado 403 determina una intensidad de filtrado 413 usando el parámetro qPav. En este caso, como método para determinar la intensidad de filtrado 413 es posible usar, por ejemplo, el método descrito en la realización 1.
En este caso se supone que el bloque [0] es un bloque distinto de IPCM y que el bloque [1] es un bloque de IPCM. En este caso, qPav = qPy [0] qPy [1] 1 >> 1 = QP [0] QPy [0] 1 >> 1 = QPy [0]. Dicho de otro modo, el parámetro qPav, que es la intensidad de filtrado 413, se determina usando sólo el parámetro de cuantificación para la componente de luminancia del bloque distinto de IPCM (el bloque [0]).
Tal como se describió anteriormente, el aparato de codificación de imágenes en movimiento 400 según esta realización puede impedir que se establezca una pequeña intensidad de filtrado para el límite entre dicho bloque de IPCM y un bloque distinto de IPCM. De esta manera, el aparato de codificación de imágenes en movimiento 400 puede realizar el filtrado usando una intensidad de filtrado apropiada en el límite entre el bloque de IPCM y el bloque distinto de IPCM.
El filtrado por el aparato de decodificación de imágenes en movimiento 500 es similar al filtrado por el aparato de codificación de imágenes en movimiento 400. Más específicamente, el filtrado por el aparato de decodificación de imágenes en movimiento 500 se explica leyendo la descripción anterior del filtrado por el aparato de codificación de imágenes en movimiento 400 de tal manera que la primera unidad de determinación de parámetro de cuantificación 401, la segunda unidad de determinación de parámetro de cuantificación 402, la unidad de determinación de intensidad de filtrado 403, la unidad de filtrado 404, el primer parámetro de cuantificación 411, el segundo parámetro de cuantificación 412 y la intensidad de filtrado 413 se reemplazan, respectivamente, por la primera unidad de determinación de parámetro de cuantificación 501, la segunda unidad de determinación de parámetro de cuantificación 502, la unidad de determinación de intensidad de filtrado 503, la unidad de filtrado 504, el primer parámetro de cuantificación 511, el segundo parámetro de cuantificación 512 y la intensidad de filtrado 513.
Además, la segunda unidad de determinación de parámetro de cuantificación 502 del aparato de decodificación de imágenes en movimiento 500 puede determinar el segundo parámetro de cuantificación 512 usando el primer parámetro de cuantificación 511 según una delta QP (AQP). En este caso, la AQP es información de diferencia que indica la diferencia entre el parámetro de cuantificación para el bloque que está ubicado inmediatamente antes de que se procese un bloque actual en el orden de procesamiento (orden de codificación u orden de decodificación) y el parámetro de cuantificación para el bloque actual. Dicho de otro modo, cuando la AQP es cero, el segundo parámetro de cuantificación 412 para el bloque de IPCM se establece en el mismo valor que el valor del primer parámetro de cuantificación 411 para el bloque distinto de IPCM.
Más adelante en el presente documento, se facilitan descripciones de un flujo de los procesos del método de codificación de imágenes en movimiento y un flujo de los procesos del método de decodificación de imágenes en movimiento en los que se usa la AQP.
La figura 21 es un diagrama de flujo del método de codificación de imágenes en movimiento según una variación de esta realización. Los procesos mostrados en la figura 21 incluyen adicionalmente las etapas S421 y S422, además de los procesos mostrados en la figura 19.
En la etapa S421, el aparato de codificación de imágenes en movimiento 400 establece la AQP para el bloque de IPCM en “0”. A continuación, el aparato de codificación de imágenes en movimiento 400 genera un flujo de bits codificado que incluye AQP (S422).
Además, la figura 22 es un diagrama de flujo del método de decodificación de imágenes en movimiento según la variación de esta realización. En comparación con los procesos mostrados en la figura 19, los procesos mostrados en la figura 22 incluyen adicionalmente la etapa S431, e incluyen la etapa S402A en lugar de la etapa S402.
En la etapa S431, el aparato de decodificación de imágenes en movimiento 500 analiza el flujo de bits codificado para obtener la AQP incluida en el flujo de bits codificado.
En la etapa S402A, la segunda unidad de determinación de parámetro de cuantificación 502 determina el segundo parámetro de cuantificación 512 usando el primer parámetro de cuantificación 511 según la AQP. En este caso, cuando el bloque actual que va a procesarse es un bloque de IPCM, la AQP se establece en “0”. Por tanto, según la AQP, la segunda unidad de determinación de parámetro de cuantificación 502 establece el segundo parámetro de cuantificación 512 en el mismo valor que el valor del parámetro de cuantificación para el bloque que está ubicado inmediatamente antes del bloque actual en el orden de procesamiento.
Dicho de otro modo, cuando el bloque ubicado inmediatamente antes de la orden de procesamiento es un bloque distinto de IPCM, el segundo parámetro de cuantificación para el bloque de IPCM se establece en el mismo valor que el valor del primer parámetro de cuantificación para el bloque distinto de IPCM como en el procesamiento descrito anteriormente. Dicho de otro modo, para el límite entre el bloque de IPCM y el bloque distinto de IPCM adyacente izquierdo, el parámetro de cuantificación para el bloque de IPCM se establece en el mismo valor que el valor del parámetro de cuantificación para el bloque distinto de IPCM. Por otro lado, para cada uno de los límites por encima, a la derecha y por debajo del bloque de IPCM, el parámetro de cuantificación para el bloque de IPCM no siempre se establece en el mismo valor que el valor del parámetro de cuantificación para el bloque distinto de IPCM. Sin embargo, el parámetro de cuantificación para el bloque de IPCM se establece en el mismo valor que el valor del parámetro de cuantificación para el bloque adyacente derecho y el valor generalmente no es cero. Por tanto, la intensidad de filtrado establecida en este caso es mayor que la intensidad de filtrado que se establece en el caso de establecer de manera fija en cero el parámetro de cuantificación para el bloque de IPCM. En este caso, es posible establecer una intensidad de filtrado apropiada para el límite entre el bloque de IPCM y el bloque distinto de IPCM estableciendo en “0” la AQP para el bloque distinto de IPCM.
En este caso, la información de diferencia que indica que la AQP es “0” e incluida en el flujo de bits codificado puede ser información para permitir que el aparato de decodificación de imágenes en movimiento 500 determine que la AQP es “0”. Dicho de otro modo, la información de diferencia puede ser un parámetro que indica explícitamente que la AQP es “0” o puede ser otro parámetro. Por ejemplo, también es posible especificar que “AQP se supone que es 0 cuando el parámetro AQP no está incluido en el flujo de bits codificado”. En este caso, el aparato de codificación de imágenes en movimiento 400 genera un flujo de bits codificado sin el parámetro AQP para el bloque de IPCM. Además, el aparato de decodificación de imágenes en movimiento 500 supone que la AQP es cero cuando el flujo de bits codificado no incluye el parámetro AQP.
Los métodos de filtrado, el método de codificación de imágenes en movimiento, el método de decodificación de imágenes en movimiento, los aparatos de codificación de imágenes en movimiento y los aparatos de decodificación de imágenes en movimiento según las realizaciones de la presente invención se han descrito anteriormente, pero la presente invención no se limita a las realizaciones.
Por ejemplo, también es posible combinar al menos partes de funciones de los métodos de filtrado, método de codificación de imágenes en movimiento, método de decodificación de imágenes en movimiento, aparatos de codificación de imágenes en movimiento, aparatos de decodificación de imágenes en movimiento según las realizaciones y las variaciones de las mismas.
Además, la división de bloques funcionales en cada uno de los diagramas de bloques es a modo de ejemplo. También es posible implementar algunos de los bloques funcionales como bloque funcional, dividir un bloque funcional en una pluralidad de bloques y/o mover parte de la(s) función/funciones a cualquiera de los bloques funcionales. Además, las funciones de la pluralidad de bloques funcionales que tienen funciones similares entre sí pueden ejercerse en paralelo o en división en el tiempo por hardware o software.
Además, el orden de ejecución de la pluralidad de etapas de cada uno de los métodos de filtrado se proporciona como ejemplo para explicar específicamente la presente invención y, por tanto, también son posibles otros órdenes. Además, parte de las etapas pueden ejecutarse simultáneamente con (en paralelo a) cualquiera de los otras etapas. Por ejemplo, el orden de las etapas S201 y S202 mostradas en la figura 5 no se limita al orden descrito. Dicho de otro modo, sólo es necesario que las etapas S204 y S205 se ejecuten como resultado cuando “uno de los dos bloques a través de un límite está incluido en un bloque de IPCM, y el otro no está incluido en un bloque de IPCM”. Además, el orden de las etapas S204 y S205 también puede ser arbitrario.
Asimismo, el orden de las etapas S222 a S225 mostradas en la figura 11 no se limita al orden descrito. Más específicamente, el orden de las etapas S222 a S225 puede ser arbitrario siempre que la etapa S224 sea posterior a la etapa S222 y la etapa S225 sea posterior a S223.
[Realización 3]
El procesamiento descrito en cada una de las realizaciones puede implementarse simplemente en un sistema informático independiente, grabando, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de imágenes en movimiento (método de codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descrito en cada una de las realizaciones. Los medios de grabación pueden ser cualquier medio de grabación, siempre que el programa pueda grabarse, tal como un disco magnético, un disco óptico, un disco magneto-óptico, una tarjeta con CI y una memoria de semiconductor.
Más adelante en el presente documento, se describirán las aplicaciones para el método de codificación de imágenes en movimiento (método de codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las realizaciones y los sistemas que usan los mismos. El sistema tiene la característica de tener un aparato de codificación y decodificación de imágenes que incluye un aparato de codificación de imágenes que usa el método de codificación de imágenes y un aparato de decodificación de imágenes que usa el método de decodificación de imágenes. Pueden cambiarse otras configuraciones en el sistema según sea apropiado dependiendo de los casos.
La figura 23 ilustra una configuración global de un sistema de provisión de contenido ex100 para implementar servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en células del tamaño deseado, y se colocan estaciones base ex106, ex107, ex108, ex109 y ex110, que son estaciones inalámbricas fijas, en cada una de las células.
El sistema de provisión de contenido ex100 está conectado a dispositivos, tales como un ordenador ex111, un asistente digital personal (PDA) ex112, una cámara ex113, un teléfono celular ex114 y una máquina de juego ex115, a través de Internet ex101, un proveedor de servicios de Internet ex102, una red telefónica ex104, así como las estaciones base ex106 a ex110, respectivamente.
Sin embargo, la configuración del sistema de provisión de contenido ex100 no se limita a la configuración mostrada en la figura 23, y es aceptable una combinación en la que cualquiera de los elementos están conectados. Además, cada dispositivo puede conectarse directamente a la red telefónica ex104, en lugar de a través de las estaciones base ex106 a ex110, que son las estaciones inalámbricas fijas. Además, los dispositivos pueden estar interconectados entre sí a través de una comunicación inalámbrica a corta distancia y otros.
La cámara ex113, tal como una cámara de vídeo digital, puede capturar vídeo. Una cámara ex116, tal como una cámara digital, puede capturar tanto imágenes fijas como vídeo. Además, el teléfono celular ex114 puede ser el que cumpla con cualquiera de las normas, tales como el Sistema Global para Comunicaciones Móviles (GSM) (marca registrada), el acceso múltiple por división de código (CDMA), acceso múltiple por división de código de banda ancha (W-CDMA), evolución a largo plazo (LTE) y acceso por paquetes de alta velocidad (HSPA). Alternativamente, el teléfono celular ex114 puede ser un sistema de teléfono portátil personal (PHS).
En el sistema de provisión de contenido ex100, un servidor de flujo en continuo ex103 está conectado a la cámara ex113 y otros a través de la red telefónica ex104 y la estación base ex109, lo que permite la distribución de imágenes de un espectáculo en directo y otros. En tal distribución, un contenido (por ejemplo, vídeo de un espectáculo de música en directo) capturado por el usuario usando la cámara ex113 se codifica tal como se describió anteriormente en cada una de las realizaciones (es decir, la cámara funciona como el aparato de codificación de imágenes según un aspecto de la presente invención), y el contenido codificado se transmite al servidor de flujo en continuo ex103. Por otro lado, el servidor de flujo en continuo ex103 lleva a cabo la distribución de flujo de los datos de contenido transmitidos a los clientes tras su solicitud. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono celular ex114 y la máquina de juego ex115 que pueden decodificar los datos codificados mencionados anteriormente. Cada uno de los dispositivos que han recibido los datos distribuidos decodifica y reproduce los datos codificados (es decir, funciona como el aparato de decodificación de imágenes según un aspecto de la presente invención).
Los datos capturados pueden codificarse por la cámara ex113 o el servidor de flujo en continuo ex103 que transmite los datos, o los procesos de codificación pueden compartirse entre la cámara ex113 y el servidor de flujo en continuo ex103. De manera similar, los datos distribuidos pueden decodificarse por los clientes o el servidor de flujo en continuo ex103, o los procesos de decodificación pueden compartirse entre los clientes y el servidor de flujo en continuo ex103. Además, los datos de las imágenes fijas y el vídeo capturados no sólo por la cámara ex113 sino también por la cámara ex116 pueden transmitirse al servidor de flujo en continuo ex103 a través del ordenador ex111. Los procesos de codificación pueden ser realizados por la cámara ex116, el ordenador ex111 o el servidor de flujo en continuo ex103, o compartirse entre ellos.
Además, los procesos de codificación y decodificación puede realizarlos un LSI ex500 incluido generalmente en cada uno de los ordenadores ex111 y los dispositivos. El LSI ex500 puede configurarse con un sólo chip o una pluralidad de chips. El software para codificar y decodificar vídeo puede integrarse en algún tipo de medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que pueda leer el ordenador ex111 y otros, y los procesos de codificación y decodificación pueden realizarse usando el software. Además, cuando el teléfono celular ex114 está equipado con una cámara, pueden transmitirse los datos de vídeo obtenidos por la cámara. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono celular ex114.
Además, el servidor de flujo en continuo ex103 puede estar compuesto por servidores y ordenadores, y puede descentralizar datos y procesar los datos descentralizados, grabar o distribuir datos.
Tal como se describió anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema de provisión de contenido ex100. Dicho de otro modo, los clientes pueden recibir y decodificar la información transmitida por el usuario y reproducir los datos decodificados en tiempo real en el sistema de provisión de contenido ex100, de modo que el usuario que no tiene ningún derecho ni equipo en particular puede implementar la radiodifusión personal.
Aparte del ejemplo del sistema de provisión contenido ex100, al menos uno de los aparatos de codificación de imágenes en movimiento (aparato de codificación de imágenes) y el aparato de decodificación de imágenes en movimiento (aparato de decodificación de imágenes) descritos en cada una de las realizaciones puede implementarse en un sistema de radiodifusión digital ex200 ilustrado en la figura 24. Más específicamente, una estación de radiodifusión ex201 comunica o transmite, a través de ondas de radio a un satélite de radiodifusión ex202, datos multiplexados obtenidos al multiplexar datos de audio y otros en datos de vídeo. Los datos de vídeo son datos codificados por el método de codificación de imágenes en movimiento descrito en cada una de las realizaciones (es decir, datos codificados por el aparato de codificación de imágenes según un aspecto de la presente invención). Tras la recepción de los datos multiplexados, el satélite de radiodifusión ex202 transmite ondas de radio para la radiodifusión. Luego, una antena de uso doméstico ex204 con una función de recepción de radiodifusión por satélite recibe las ondas de radio. A continuación, un dispositivo tal como un televisor (receptor) ex300 y un decodificador (Set-Top Box, STB) ex217 decodifica los datos multiplexados recibidos y reproduce los datos decodificados (es decir, funciona como el aparato de decodificación de imágenes según un aspecto de la presente invención).
Además, un lector/grabador ex218 (i) lee y decodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de vídeo en el medio de grabación ex215 y, en algunos casos, escribe datos obtenidos al multiplexar una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de decodificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento tal como se muestra en cada una de las realizaciones. En este caso, las señales de vídeo reproducidas se presentan visualmente en el monitor ex219, y puede reproducirlas otro dispositivo o sistema usando el medio de grabación ex215 en el que se graban los datos multiplexados. También es posible implementar el aparato de decodificación de imágenes en movimiento en el decodificador ex217 conectado al cable ex203 para un televisor por cable o a la antena ex204 para radiodifusión por satélite y/o terrestre, para presentar visualmente las señales de vídeo en el monitor ex219 del televisor ex300. El aparato de decodificación de imágenes en movimiento puede implementarse no en el decodificador de televisión sino en el televisor ex300.
La figura 25 ilustra el televisor (receptor) ex300 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones. El televisor ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos al multiplexar datos de audio en datos de vídeo, a través de la antena ex204 o el cable ex203, etc. que recibe una radiodifusión; una unidad de modulación/demodulación ex302 que demodula los datos multiplexados recibidos o modula los datos en datos multiplexados para suministrarse al exterior; y una unidad de multiplexación/demultiplexación ex303 que demultiplexa los datos multiplexados modulados en datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señales ex306 en datos.
El televisor ex300 incluye adicionalmente: una unidad de procesamiento de señales ex306 que incluye una unidad de procesamiento de señales de audio ex304 y una unidad de procesamiento de señales de vídeo ex305 que decodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente (que funcionan como el aparato de codificación de imágenes y el aparato de decodificación de imágenes según los aspectos de la presente invención); y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio decodificada, y una unidad de presentación visual ex308 que presenta visualmente la señal de vídeo decodificada, tal como una pantalla. Además, el televisor ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, el televisor ex300 incluye una unidad de control ex310 que controla de manera global cada elemento constituyente del televisor ex300, y una unidad de circuito de fuente de alimentación ex311 que suministra alimentación a cada uno de los elementos. Aparte de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir: un puente ex313 que está conectado a un dispositivo externo, tal como el lector/grabador ex218; una unidad de ranura ex314 para permitir la conexión del medio de grabación ex216, tal como una tarjeta SD; un controlador ex315 para conectarse a un medio de grabación externo, tal como un disco duro; y un módem ex316 para conectarse a una red telefónica. En este caso, el medio de grabación ex216 puede grabar eléctricamente información usando un elemento de memoria de semiconductor no volátil/volátil para almacenamiento. Los elementos constituyentes del televisor ex300 están conectados entre sí a través de un bus síncrono.
En primer lugar, se describirá la configuración en la que el televisor ex300 decodifica datos multiplexados obtenidos desde el exterior a través de la antena ex204 y otros y reproduce los datos decodificados. En el televisor ex300, tras una operación del usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexación/demultiplexación ex303 demultiplexa los datos multiplexados demodulados por la unidad de modulación/demodulación ex302, bajo el control de la unidad de control ex310 que incluye una CPU. Además, la unidad de procesamiento de señales de audio ex304 decodifica los datos de audio demultiplexados, y la unidad de procesamiento de señales de vídeo ex305 decodifica los datos de vídeo demultiplexados, usando el método de decodificación descrito en cada una de las realizaciones, en el televisor ex300. La unidad de salida ex309 proporciona la señal de vídeo y la señal de audio decodificadas al exterior, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex318 y ex319, y otros, de modo que las señales se reproduzcan en sincronización entre sí. Además, el televisor ex300 puede leer datos multiplexados no a través de una radiodifusión y otros, sino a partir de los medios de grabación ex215 y ex216, tales como un disco magnético, un disco óptico y una tarjeta SD. A continuación, se describirá una configuración en la que el televisor ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos al exterior o escribe los datos en un medio de grabación. En el televisor ex300, tras una operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señales de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señales de vídeo ex305 codifica una señal de vídeo, bajo el control de la unidad de control ex310 usando el método de codificación descrito en cada una de las realizaciones. La unidad de multiplexación/demultiplexación ex303 multiplexa la señal de vídeo y la señal de audio codificadas, y proporciona la señal resultante al exterior. Cuando la unidad de multiplexación/demultiplexación ex303 multiplexa la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex320 y ex321, y otros, de modo que las señales se reproduzcan en sincronización entre sí. En este caso, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser una pluralidad tal como se ilustra, o al menos una memoria intermedia puede compartirse en el televisor ex300. Además, pueden almacenarse datos en una memoria intermedia para que puedan evitarse el desbordamiento y el subflujo del sistema entre la unidad de modulación/demodulación ex302 y la unidad de multiplexación/demultiplexación ex303, por ejemplo.
Además, el televisor ex300 puede incluir una configuración para recibir una entrada AV de un micrófono o una cámara distinta de la configuración para obtener datos de audio y vídeo de una radiodifusión o un medio de grabación, y puede codificar los datos obtenidos. Aunque el televisor ex300 puede codificar, multiplexar y proporcionar datos del exterior en la descripción, puede tener la capacidad de recibir, decodificar y proporcionar datos del exterior solamente, pero no la codificación, multiplexación y provisión de datos del exterior.
Además, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o en un medio de grabación, uno del televisor ex300 y el lector/grabador ex218 puede decodificar o codificar los datos multiplexados, y el televisor ex300 y el lector/grabador ex218 pueden compartir la decodificación o codificación.
Como ejemplo, la figura 26 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos se leen o escriben desde o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407 que van a describirse más adelante en el presente documento. El cabezal óptico ex401 irradia un punto láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información, y detecta la luz reflejada desde la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación por modulación ex402 excita eléctricamente un láser de semiconductor incluido en el cabezal óptico ex401, y modula la luz láser según los datos grabados. La unidad de demodulación de reproducción ex403 amplifica una señal de reproducción obtenida mediante la detección eléctrica de la luz reflejada desde la superficie de grabación usando un fotodetector incluido en el cabezal óptico ex401, y demodula la señal de reproducción separando una componente de señal grabada en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 contiene temporalmente la información que va a grabarse en el medio de grabación ex215 y la información reproducida desde el medio de grabación ex215. El motor de disco ex405 hace rotar el medio de grabación ex215. La unidad de servocontrol ex406 mueve el cabezal óptico ex401 a una pista de información predeterminada mientras controla el accionamiento de rotación del motor de disco ex405 para seguir el punto láser. La unidad de control de sistema ex407 controla de manera global la unidad de reproducción/grabación de información ex400. La unidad de control de sistema ex407 puede implementar los procesos de lectura y escritura usando diversa información almacenada en la memoria intermedia ex404 y generando y añadiendo nueva información según sea necesario, y mediante la unidad de grabación por modulación ex402, la unidad de demodulación de reproducción ex403 y la unidad de servocontrol ex406 que graban y reproducen información a través del cabezal óptico ex401 mientras se hacen funcionar de manera coordinada. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento haciendo que un ordenador ejecute un programa de lectura y escritura.
Aunque el cabezal óptico ex401 irradia un punto láser en la descripción, puede realizar grabaciones de alta densidad usando luz de campo cercano.
La figura 27 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex215, se forman en espiral surcos guía, y una pista de información ex230 graba, por adelantado, información de dirección que indica una posición absoluta en el disco según el cambio en la forma de los surcos guía. La información de dirección incluye información para determinar las posiciones de los bloques de grabación ex231 que son una unidad para grabar datos. La reproducción de la pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce datos pueden conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interna ex232 y un área de circunferencia externa ex234. El área de grabación de datos ex233 es un área para su uso en la grabación de los datos de usuario. El área de circunferencia interna ex232 y el área de circunferencia externa ex234 que están en el interior y el exterior del área de grabación de datos ex233, respectivamente, son para uso específico, excepto para grabar los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe audio codificado, datos de vídeo codificados o datos multiplexados obtenidos multiplexando los datos de audio y vídeo codificados, desde y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD, se describe como ejemplo en la descripción, el disco óptico no se limita a tales, y puede ser un disco óptico con una estructura multicapa y que puede grabarse en una parte distinta de la superficie. Además, el disco óptico puede tener una estructura para la grabación/reproducción multidimensional, tal como la grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas desde diversos ángulos.
Además, un automóvil ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y reproducir vídeo en un dispositivo de presentación visual tal como un sistema de navegación para automóviles ex211 establecido en el automóvil ex210, en el sistema de radiodifusión digital ex200. En este caso, una configuración del sistema de navegación para automóviles ex211 será una configuración, por ejemplo, que incluye una unidad de recepción de GPS de la configuración ilustrada en la figura 25. Lo mismo será cierto para la configuración del ordenador ex111, el teléfono celular ex114, y otros.
La figura 28A ilustra el teléfono celular ex114 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en las realizaciones. El teléfono celular ex114 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base ex110; una unidad de cámara ex365 que puede capturar imágenes en movimiento y fijas; y una unidad de presentación visual ex358 tal como una pantalla de cristal líquido para presentar visualmente los datos tales como vídeo decodificado capturado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular ex114 incluye adicionalmente: una unidad de cuerpo principal que incluye una unidad de tecla de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar vídeo capturado o imágenes fijas, audio grabado, datos codificados o decodificados del vídeo recibido, las imágenes fijas, correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de interfaz para un medio de grabación que almacena datos de la misma manera que la unidad de memoria ex367.
A continuación, se describirá un ejemplo de una configuración del teléfono celular ex114 con referencia a la figura 28B. En el teléfono celular ex114, una unidad de control principal ex360 diseñada para controlar de manera global cada unidad del cuerpo principal, incluyendo la unidad de presentación visual ex358, así como la unidad de tecla de operación ex366, se conectan mutuamente, a través de un bus síncrono ex370, a una unidad de circuito de fuente de alimentación ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señales de vídeo ex355, una unidad de interfaz de cámara ex363, una unidad de control de pantalla de cristal líquido (LCD) ex359, una unidad de modulación/demodulación ex352, una unidad de multiplexación/demultiplexación ex353, una unidad de procesamiento de señales de audio ex354, la unidad de ranura ex364 y la unidad de memoria ex367.
Cuando la operación de un usuario activa una tecla de fin de llamada o una tecla de encendido, la unidad de circuito de fuente de alimentación ex361 suministra alimentación a las unidades respectivas desde un conjunto de baterías para activar el teléfono celular ex114.
En el teléfono celular ex114, la unidad de procesamiento de señales de audio ex354 convierte las señales de audio recogidas por la unidad de entrada de audio ex356 en el modo de conversación de voz en señales de audio digitales bajo el control de la unidad de control principal ex360 que incluye una CPU, ROM y RAM. Luego, la unidad de modulación/demodulación ex352 realiza el procesamiento de espectro ensanchado en las señales de audio digitales, y la unidad de transmisión y recepción ex351 realiza conversión de digital a analógico y conversión de frecuencia en los datos, para transmitir los datos resultantes a través de la antena ex350. Además, en el teléfono celular ex114, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en el modo de conversación de voz y realiza conversión de frecuencia y conversión de analógico a digital en los datos. Luego, la unidad de modulación/demodulación ex352 realiza un procesamiento de espectro ensanchado inverso en los datos, y la unidad de procesamiento de señales de audio ex354 los convierte en señales de audio analógicas, para emitirlas a través de la unidad de salida de audio ex357.
Además, cuando se transmite un correo electrónico en el modo de comunicación de datos, los datos de texto del correo electrónico introducido al hacer funcionar la unidad de tecla de operación ex366 y otros del cuerpo principal se envían a la unidad de control principal ex360 a través de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 hace que la unidad de modulación/demodulación ex352 realice un procesamiento de espectro ensanchado en los datos de texto, y la unidad de transmisión y recepción ex351 realiza la conversión de digital a analógico y la conversión de frecuencia en los datos resultantes para transmitir los datos a la estación base ex110 a través de la antena ex350. Cuando se recibe un correo electrónico, se realiza el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico con los datos recibidos, y los datos resultantes se proporcionan a la unidad de presentación visual ex358.
Cuando se transmite o transmiten vídeo, imágenes fijas o vídeo y audio en el modo de comunicación de datos, la unidad de procesamiento de señales de vídeo ex355 comprime y codifica las señales de vídeo suministradas desde la unidad de cámara ex365 usando el método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de codificación de imágenes según el aspecto de la presente invención), y transmite los datos de vídeo codificados a la unidad de multiplexación/demultiplexación ex353. En cambio, cuando la unidad de cámara ex365 captura vídeo, imágenes fijas, y otros, la unidad de procesamiento de señales de audio ex354 codifica las señales de audio recogidas por la unidad de entrada de audio ex356 y transmite los datos de audio codificados a la unidad de multiplexación/demultiplexación ex353.
La unidad de multiplexación/demultiplexación ex353 multiplexa los datos de vídeo codificados suministrados desde la unidad de procesamiento de señales de vídeo ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señales de audio ex354, usando un método predeterminado. Luego, la unidad de modulación/demodulación (unidad de circuito de modulación/demodulación) ex352 realiza el procesamiento de espectro ensanchado en los datos multiplexados, y la unidad de transmisión y recepción ex351 realiza conversión de digital a analógico y conversión de frecuencia en los datos para transmitir los datos resultantes a través de la antena ex350.
Cuando se reciben datos de un archivo de vídeo que está vinculado a una página web y otros en el modo de comunicación de datos o al recibir un correo electrónico con vídeo y/o audio adjunto, para decodificar los datos multiplexados recibidos a través de la antena ex350, la unidad de multiplexación/demultiplexación ex353 demultiplexa los datos multiplexados en un flujo de bits de datos de vídeo y un flujo de bits de datos de audio, y suministra a la unidad de procesamiento de señales de vídeo ex355 los datos de vídeo codificados y a la unidad de procesamiento de señales de audio ex354 los datos de audio codificados, a través del bus síncrono ex370. La unidad de procesamiento de señales de vídeo ex355 decodifica la señal de vídeo usando un método de decodificación de imágenes en movimiento correspondiente al método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de decodificación de imágenes según el aspecto de la presente invención), y luego la unidad de presentación visual ex358 presenta visualmente, por ejemplo, el vídeo y las imágenes fijas incluidas en el archivo de vídeo vinculado a la página web a través de la unidad de control de LCD ex359. Además, la unidad de procesamiento de señales de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Además, de manera similar al televisor ex300, un terminal tal como el teléfono celular ex114 probablemente tenga 3 tipos de configuraciones de implementación que incluyen no sólo (i) un terminal de transmisión y recepción que incluye un aparato de codificación y un aparato de decodificación, sino también (ii) un terminal de transmisión que incluye sólo un aparato de codificación y (iii) un terminal de recepción que incluye sólo un aparato de decodificación. Aunque el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados obtenidos al multiplexar datos de audio en datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos al multiplexar no datos de audio sino datos de caracteres relacionados con vídeo sobre datos de vídeo, y pueden no ser datos multiplexados sino datos de vídeo en sí mismos.
Como tal, el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento en cada una de las realizaciones pueden usarse en cualquiera de los dispositivos y sistemas descritos. Por tanto, pueden obtenerse las ventajas descritas en cada una de las realizaciones.
Además, la presente invención no se limita a realizaciones, y son posibles diversas modificaciones y revisiones sin apartarse del alcance de la presente invención.
[Realización 4]
Pueden generarse datos de vídeo cambiando, según sea necesario, entre (i) el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones y (ii) un método de codificación de imágenes en movimiento o un aparato de codificación de imágenes en movimiento de conformidad con una norma diferente, tal como MPEG-2, MPEG-4 AVC y VC-1.
En este caso, cuando se genera una pluralidad de datos de vídeo que son conformes a las diferentes normas y luego se decodifican, es necesario seleccionar los métodos de decodificación para ser conformes con las diferentes normas. Sin embargo, puesto que no puede detectarse según que norma son conformes cada uno de la pluralidad de datos de vídeo que van a decodificarse, existe el problema de que puede no seleccionarse un método de decodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos al multiplexar datos de audio y otros en datos de vídeo tienen una estructura que incluye información de identificación que indica según qué norma son conformes los datos de vídeo. Más adelante en el presente documento se describirá la estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento mostrado en cada una de las realizaciones. Los datos multiplexados son un flujo digital en formato flujo de transporte de MPEG-2.
La figura 29 ilustra una estructura de los datos multiplexados. Tal como se ilustra en la figura 29, los datos multiplexados pueden obtenerse multiplexando al menos uno de un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación (PG) y un flujo de gráficos interactivos. El flujo de vídeo representa el vídeo primario y el vídeo secundario de una película, el flujo de audio (IG) representa una parte de audio primaria y una parte de audio secundaria que va a mezclarse con la parte de audio primaria, y el flujo de gráficos de presentación representa subtítulos de la película. En este caso, el vídeo principal es el vídeo normal que va a presentarse visualmente en una pantalla, y el vídeo secundario es el vídeo que va a presentarse visualmente en una ventana más pequeña en el vídeo primario. Además, el flujo de gráficos interactivos representa una pantalla interactiva que se generará disponiendo los componentes de la GUI en una pantalla. El flujo de vídeo se codifica en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones, o en un método de codificación de imágenes en movimiento o por un aparato de codificación de imágenes en movimiento de conformidad con una norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1. El flujo de audio se codifica según una norma, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada flujo incluido en los datos multiplexados se identifica por PID. Por ejemplo, se asigna 0x1011 al flujo de vídeo que va a usarse para el vídeo de una película, se asignan 0x1100 a 0x111F a los flujos de audio, se asignan 0x1200 a 0x121F a los flujos de gráficos de presentación, se asignan 0x1400 a 0x141F a los flujos de gráficos interactivos, se asignan 0x1B00 a 0x1B1F a los flujos de vídeo que van a usarse para el vídeo secundario de la película, y se asignan 0x1A00 a 0x1A1 F a los flujos de audio que van a usarse para el audio secundario que va a mezclarse con el audio primario.
La figura 30 ilustra esquemáticamente cómo se multiplexan los datos. En primer lugar, un flujo de vídeo ex235 compuesto por tramas de vídeo y un flujo de audio ex238 compuesto por tramas de audio se transforman en un flujo de paquetes PES ex236 y un flujo de paquetes PES ex239, y adicionalmente en paquetes TS ex237 y paquetes TS ex240, respectivamente. De manera similar, los datos de un flujo de gráficos de presentación ex241 y los datos de un flujo de gráficos interactivos ex244 se transforman en un flujo de paquetes PES ex242 y un flujo de paquetes PES ex245, y adicionalmente en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS se multiplexan en un flujo para obtener datos multiplexados ex247.
La figura 31 ilustra cómo se almacena un flujo de vídeo en un flujo de paquetes PES con más detalle. La primera barra en la figura 31 muestra un flujo de tramas de vídeo en un flujo de vídeo. La segunda barra muestra el flujo de paquetes PES. Tal como se indica mediante flechas indicadas como yy1, yy2, yy3 e yy4 en la figura 31, el flujo de vídeo se divide en imágenes como imágenes I, imágenes B e imágenes P, cada una de las cuales es una unidad de presentación de vídeo, y las imágenes se almacenan en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene una cabecera PES, y la cabecera PES almacena un sello de tiempo de presentación (PTS) que indica un tiempo de presentación visual de la imagen, y un sello de tiempo de decodificación (DTS) que indica un tiempo de decodificación de la imagen.
La figura 32 ilustra un formato de paquetes TS que van a escribirse finalmente en los datos multiplexados. Cada uno de los paquetes TS es un paquete de longitud fija de 188 bytes que incluye una cabecera TS de 4 bytes que tiene información, tal como un PID para identificar un flujo y una carga útil de TS de 184 bytes para almacenar datos. Los paquetes PES se dividen y almacenan en las cargas útiles de TS, respectivamente. Cuando se usa un BD ROM, cada uno de los paquetes TS recibe una cabecera extra TP (TP_Extra_Header) de 4 bytes, lo que da como resultado paquetes fuente de 192 bytes. Los paquetes fuente se escriben en los datos multiplexados. La cabecera TP_Extra_Header almacena información tal como un sello de tiempo de llegada (Arrival_Time_Stamp, ATS). El ATS muestra un tiempo de inicio de transferencia en el que cada uno de los paquetes TS va a transferirse a un filtro PID. Los paquetes fuente se disponen en los datos multiplexados tal como se muestra en la parte inferior de la figura 32. Los números que se incrementan desde la cabecera de los datos multiplexados se denominan números de paquete fuente (Source Packet Numbers, SPN).
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no sólo flujos de audio, vídeo, subtítulos y otros, sino también una tabla de asociación de programas (Program Association Table, PAT), una tabla de mapas de programas (Program Map Table, PMT) y una referencia de reloj de programas (Program Clock Reference, PCR). La PAT muestra lo que indica un PID en una PMT usada en los datos multiplexados, y un PID de la propia PAT se registra como cero. La PMT almacena los PID de los flujos de vídeo, audio, subtítulos y otros incluidos en los datos multiplexados, y la información de atributo de los flujos correspondientes a los PID. La PMT también tiene diversos descriptores relacionados con los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si la copia de los datos multiplexados está permitida o no. La PCR almacena la información de tiempo STC correspondiente a un ATS que muestra cuándo se transfiere el paquete de PCR a un decodificador, para lograr la sincronización entre un reloj de tiempo de llegada (Arrival Time Clock, ATC) que es un eje de tiempo de los ATS y un reloj de tiempo del sistema (System Time Clock, STC) que es un eje de tiempo de los PTS y DTS.
La figura 33 ilustra la estructura de datos de la PMT en detalle. Una cabecera PMT se dispone en la parte superior de la PMT. La cabecera PMT describe la longitud de los datos incluidos en la PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados se dispone después de la cabecera PMT. En los descriptores, se describe información tal como la información de control de copia. Después de los descriptores, se dispone una pluralidad de elementos de información de flujo relacionados con los flujos incluidos en los datos multiplexados. Cada elemento de información de flujo incluye descriptores de flujo que describen, cada uno, información, tal como un tipo de flujo para identificar un códec de compresión de un flujo, un PID de flujo, e información de atributo de flujo (tal como una velocidad de tramas o una relación de aspecto). Los descriptores de flujo son iguales en número al número de flujos en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de gestión de los datos multiplexados tal como se muestra en la figura 34. Los archivos de información de datos multiplexados están en correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de atributo de flujo y un mapa de entradas.
Tal como se ilustra en la figura 34, la información de datos multiplexados incluye una velocidad del sistema, un tiempo de inicio de reproducción y un tiempo de final de reproducción. La velocidad del sistema indica la velocidad de transferencia máxima a la que un decodificador objetivo del sistema que se describirá más adelante transfiere los datos multiplexados a un filtro PID. Los intervalos de los ATS incluidos en los datos multiplexados se establecen para no ser mayores a la velocidad del sistema. El tiempo de inicio de reproducción indica un PTS en una trama de vídeo en la cabecera de los datos multiplexados. Se añade un intervalo de una trama a un PTS en una trama de vídeo al final de los datos multiplexados, y el PTS se establece en el tiempo de final de reproducción.
Tal como se muestra en la figura 35, un elemento de información de atributo se registra en la información de atributo de flujo, para cada PID de cada flujo incluido en los datos multiplexados. Cada elemento de información de atributo tiene información diferente dependiendo de si el flujo correspondiente es un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación o un flujo de gráficos interactivos. Cada elemento de información de atributo de flujo de vídeo porta información que incluye qué clase de códec de compresión se usa para comprimir el flujo de vídeo, y la resolución, la relación de aspecto y la velocidad de tramas de los elementos de datos de imágenes que se incluyen en el flujo de vídeo. Cada elemento de información de atributo de flujo de audio porta información que incluye qué clase de códec de compresión se usa para comprimir el flujo de audio, cuántos canales se incluyen en el flujo de audio, qué idioma soporta el flujo de audio y cómo de alta es la frecuencia de muestreo. La información de atributo de flujo de vídeo y la información de atributo de flujo de audio se usan para la inicialización de un decodificador antes de que el reproductor reproduzca la información.
En la presente realización, los datos multiplexados que van a usarse son de un tipo de flujo incluido en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributo de flujo de vídeo incluida en la información de datos multiplexados. Más específicamente, el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones incluye una etapa o una unidad para asignar información única que indica datos de vídeo generados mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, al tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo. Con la configuración, los datos de vídeo generados mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones pueden distinguirse de datos de vídeo que son conformes a otra norma.
Además, la figura 36 ilustra las etapas del método de decodificación de imágenes en movimiento según la presente realización. En la etapa exS100, el tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo incluida en la información de datos multiplexados se obtiene a partir de los datos multiplexados. A continuación, en la etapa exS101, se determina si el tipo de flujo o la información de atributo de flujo de vídeo indica o no que los datos multiplexados se generan mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones. Cuando se determina que el tipo de flujo o la información de atributo de flujo de vídeo indica que los datos multiplexados se generan mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, en la etapa exS102, se realiza decodificación mediante el método de decodificación de imágenes en movimiento en cada una de las realizaciones. Además, cuando el tipo de flujo o la información de atributo de flujo de vídeo indica conformidad con las normas convencionales, tales como MPEG-2, MPEG-4 AVC y VC-1, en la etapa exS103, se realiza decodificación mediante un método de decodificación de imágenes en movimiento de conformidad con las normas convencionales.
Como tal, la asignación de un nuevo valor único al tipo de flujo o la información de atributo de flujo de vídeo permite la determinación de si el método de decodificación de imágenes en movimiento o el aparato de decodificación de imágenes en movimiento que se describen en cada una de las realizaciones puede realizar la decodificación. Incluso cuando se introducen datos multiplexados que son conformes a una norma diferente, puede seleccionarse un método o aparato de decodificación apropiado. Por tanto, se vuelve posible decodificar información sin ningún error. Además, el método o aparato de codificación de imágenes en movimiento, o el método o aparato de decodificación de imágenes en movimiento en la presente realización pueden usarse en los dispositivos y sistemas descritos anteriormente.
[Realización 5]
Cada uno del método de codificación de imágenes en movimiento, el aparato de codificación de imágenes en movimiento, el método de decodificación de imágenes en movimiento y el aparato de decodificación de imágenes en movimiento en cada una de las realizaciones se logra normalmente en forma de un circuito integrado o un circuito integrado a gran escala (Large Scale Integrated, LSI). Como ejemplo del LSI, la figura 37 ilustra una configuración del LSI ex500 que se realiza en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que van a describirse a continuación, y los elementos están conectados entre sí a través de un bus ex510. La unidad de circuito de fuente de alimentación ex505 se activa al suministrar la alimentación a cada uno de los elementos cuando se enciende la unidad de circuito de fuente de alimentación ex505.
Por ejemplo, cuando se realiza codificación, el LSI ex500 recibe una señal AV desde un micrófono ex117, una cámara ex113 y otros a través de un IO de AV ex509 bajo el control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de flujo ex504 y una unidad de control de frecuencia de excitación ex512. La señal AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados se segmentan en porciones de datos según la cantidad y la velocidad de procesamiento que van a transmitirse a una unidad de procesamiento de señales ex507. Entonces, la unidad de procesamiento de señales ex507 codifica una señal de audio y/o una señal de vídeo. En este caso, la codificación de la señal de vídeo es la codificación descrita en cada una de las realizaciones. Además, la unidad de procesamiento de señales ex507 a veces multiplexa los datos de audio codificados y los datos de vídeo codificados, y un IO de flujo ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados se transmiten a la estación base ex107, o se escriben en el medio de grabación ex215. Cuando los conjuntos de datos se multiplexan, los datos deben almacenarse temporalmente en la memoria intermedia ex508 para que los conjuntos de datos se sincronicen entre sí.
Aunque la memoria ex511 es un elemento exterior al LSI ex500, puede incluirse en el LSI ex500. La memoria intermedia ex508 no se limita a una memoria intermedia, sino que puede estar compuesta por memorias intermedias. Además, el LSI ex500 puede realizarse en un chip o en una pluralidad de chips.
Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de flujo ex504, la unidad de control de frecuencia de excitación ex512, la configuración de la unidad de control ex501 no se limita a ello. Por ejemplo, la unidad de procesamiento de señales ex507 puede incluir además una CPU. La inclusión de otra CPU en la unidad de procesamiento de señales ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir como o formar parte de la unidad de procesamiento de señales ex507 y, por ejemplo, puede incluir una unidad de procesamiento de señales de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señales ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señales ex507.
El nombre usado en este caso es LSI, pero también puede denominarse CI, sistema LSI, super LSI o ultra LSI, según el grado de integración.
Además, las maneras para lograr la integración no se limitan al LSI, y un circuito especial o un procesador de uso general, etc., también pueden lograr la integración. Con el mismo propósito, puede usarse una matriz de puerta programable en campo (FPGA) que puede programarse después de la fabricación de LSI o un procesador reconfigurable que permite la reconfiguración de la conexión o la configuración de un LSI.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología completamente nueva puede reemplazar a LSI. Los bloques funcionales pueden integrarse usando tal tecnología. La posibilidad es que la presente invención se aplique a la biotecnología.
[Realización 6]
Cuando se decodifican datos de vídeo generados en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en comparación con cuando se decodifican datos de vídeo que son conformes a una norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la cantidad de procesamiento probablemente aumenta. Por tanto, es necesario configurar el LSI ex500 a una frecuencia de excitación mayor que la de la CPU ex502 que va a usarse cuando se decodifican datos de vídeo de conformidad con la norma convencional. Sin embargo, cuando se establece mayor la frecuencia de excitación, existe el problema de que aumenta el consumo de energía.
Para resolver el problema, el aparato de decodificación de imágenes en movimiento, tal como el televisor ex300 y el LSI ex500, está configurado para determinar según qué norma son conformes los datos de vídeo y cambiar entre las frecuencias de excitación según la norma determinada. La figura 38 ilustra una configuración ex800 en la presente realización. Una unidad de cambio de frecuencia de excitación ex803 establece una frecuencia de excitación a una frecuencia de excitación mayor cuando los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones. Entonces, la unidad de cambio de frecuencia de excitación ex803 instruye a una unidad de procesamiento de decodificación ex801 que ejecute el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones para decodificar los datos de vídeo. Cuando los datos de vídeo son conformes a la norma convencional, la unidad de cambio de frecuencia de excitación ex803 establece una frecuencia de excitación a una frecuencia de excitación menor que la de los datos de vídeo generados mediante el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones. Luego, la unidad de cambio de frecuencia de excitación ex803 instruye a la unidad de procesamiento de decodificación ex802 que sea conforme a la norma convencional para decodificar los datos de vídeo.
Más específicamente, la unidad de cambio de frecuencia de excitación ex803 incluye la CPU ex502 y la unidad de control de frecuencia de excitación ex512 en la figura 37. En este caso, cada una de la unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de decodificación ex802 que es conforme a la norma convencional corresponde a la unidad de procesamiento de señales ex507 en la figura 37. La CPU ex502 determina según qué norma son conformes los datos de vídeo. Luego, la unidad de control de frecuencia de excitación ex512 determina una frecuencia de excitación basándose en una señal de la CPU ex502. Además, la unidad de procesamiento de señales ex507 decodifica los datos de vídeo basándose en la señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la realización 4 probablemente se usa para identificar los datos de vídeo. La información de identificación no se limita a la descrita en la realización 4, sino que puede ser cualquier información siempre que la información indique según qué norma son conformes los datos de vídeo. Por ejemplo, cuando puede determinarse según qué norma son conformes los datos de vídeo basándose en una señal externa para determinar que los datos de vídeo se usan para un televisor o un disco, etc., la determinación puede realizarse basándose en tal señal externa. Además, la CPU ex502 selecciona una frecuencia de excitación basándose, por ejemplo, en una tabla de consulta en la que las normas de los datos de vídeo se asocian con las frecuencias de excitación tal como se muestra en la figura 40. La frecuencia de excitación puede seleccionarse almacenando la tabla de búsqueda en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de búsqueda por la CPU ex502.
La figura 39 ilustra las etapas para ejecutar un método en la presente realización. En primer lugar, en la etapa exS200, la unidad de procesamiento de señales ex507 obtiene información de identificación a partir de los datos multiplexados. A continuación, en la etapa exS201, la CPU ex502 determina si los datos de vídeo se generan o no mediante el método de codificación y el aparato de codificación descritos en cada una de las realizaciones, basándose en la información de identificación. Cuando los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en la etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de excitación a una frecuencia de excitación mayor a la unidad de control de frecuencia de excitación ex512. Entonces, la unidad de control de frecuencia de excitación ex512 establece la frecuencia de excitación a la frecuencia de excitación mayor. Por otro lado, cuando la información de identificación indica que los datos de vídeo son conformes a la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, en la etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de excitación a una frecuencia de excitación menor a la unidad de control de frecuencia de excitación ex512. Entonces, la unidad de control de frecuencia de excitación ex512 establece la frecuencia de excitación a la frecuencia de excitación menor que en el caso en que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones.
Además, junto con el cambio de las frecuencias de excitación, el efecto de conservación de energía puede mejorarse cambiando la tensión que va a aplicarse al LSI ex500 o un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de excitación se establece menor, la tensión que va a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establezca en una tensión menor que en el caso en que la frecuencia de excitación se establece mayor.
Además, cuando la cantidad de procesamiento para la decodificación es mayor, la frecuencia de excitación puede establecerse mayor, y cuando la cantidad de procesamiento para la decodificación es menor, la frecuencia de excitación puede establecerse menor como el método para establecer la frecuencia de excitación. Por tanto, el método de establecimiento no se limita a los descritos anteriormente. Por ejemplo, cuando la cantidad de procesamiento para decodificar datos de vídeo de conformidad con MPEG-4 AVC es mayor que la cantidad de procesamiento para decodificar datos de vídeo generados mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la frecuencia de excitación probablemente se establezca en orden inverso a lo establecido anteriormente.
Además, el método para establecer la frecuencia de excitación no se limita al método para establecer la frecuencia de excitación menor. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la tensión que va a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 se establece probablemente mayor. Cuando la información de identificación indica que los datos de vídeo son conformes a la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la tensión que va a explicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establezca menor. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la excitación de la CPU ex502 probablemente no tenga que suspenderse. Cuando la información de identificación indica que los datos de vídeo son conformes a la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la excitación de la CPU ex502 probablemente se suspende en un momento dado porque la CPU ex502 tiene capacidad de procesamiento extra. Incluso cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en el caso en que la CPU ex502 tiene capacidad de procesamiento extra, la excitación de la CPU ex502 se suspende probablemente en un momento dado. En tal caso, el tiempo de suspensión probablemente se establece más corto que en el caso en que la información de identificación indica que los datos de vídeo son conformes a la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1.
Por consiguiente, el efecto de conservación de energía puede mejorarse cambiando entre las frecuencias de excitación según la norma con la que son conformes los datos de vídeo. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se excita con una batería, la vida útil de la batería puede ampliarse con el efecto de conservación de energía.
[Realización 7]
Hay casos en los que se proporciona una pluralidad de datos de vídeo que son conformes a diferentes normas, a los dispositivos y sistemas, tales como un televisor y un teléfono celular. Para permitir la decodificación de la pluralidad de datos de vídeo que son conformes a las diferentes normas, es necesario que la unidad de procesamiento de señales ex507 del LSI ex500 sea conforme con las diferentes normas. Sin embargo, los problemas de aumento de escala del circuito del LSI ex500 y aumento de coste surgen con el uso individual de las unidades de procesamiento de señales ex507 que son conformes a las normas respectivas.
Para resolver el problema, lo que se concibe es una configuración en la que la unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de decodificación que es conforme a la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1 se comparten parcialmente. Ex900 en la figura 41A muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y el método de decodificación de imágenes en movimiento que es conforme a MPEG-4 AVC tienen, en parte en común, los detalles del procesamiento, tales como la codificación entrópica, la cuantificación inversa, el filtrado por desbloqueo y la predicción compensada de movimiento. Los detalles del procesamiento que van a compartirse probablemente incluyan el uso de una unidad de procesamiento de decodificación ex902 que sea conforme a MPEG-4 AVC. En cambio, una unidad de procesamiento de decodificación dedicada ex901 se usa probablemente para otro procesamiento único para un aspecto de la presente invención. Puesto que el aspecto de la presente invención se caracteriza por el filtrado por desbloqueo en particular, por ejemplo, la unidad de procesamiento de decodificación dedicada ex901 se usa para el filtrado por desbloqueo. Si no, la unidad de procesamiento de decodificación probablemente se comparte para una de la cuantificación inversa, decodificación entrópica y compensación de movimiento, o para todo el procesamiento. La unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones puede compartirse para que el procesamiento se comparta, y puede usarse una unidad de procesamiento de decodificación dedicada para el procesamiento único para MPEG-4 AVC.
Además, ex1000 en la figura 41B muestra otro ejemplo en que el procesamiento se comparte parcialmente. Este ejemplo usa una configuración que incluye una unidad de procesamiento de decodificación dedicada ex1001 que soporta el procesamiento único para un aspecto de la presente invención, una unidad de procesamiento de decodificación dedicada ex1002 que soporta el procesamiento único para otra norma convencional y una unidad de procesamiento de decodificación ex1003 que soporta que el procesamiento se comparta entre el método de decodificación de imágenes en movimiento según el aspecto de la presente invención y el método de decodificación de imágenes en movimiento convencional. En este caso, las unidades de procesamiento de decodificación dedicadas ex1001 y ex1002 no son necesariamente especializadas para el procesamiento según el aspecto de la presente invención y el procesamiento de la norma convencional, respectivamente, y pueden ser las capaces de implementar el procesamiento general. Además, la configuración de la presente realización puede implementarse mediante el LSI ex500.
Como tal, es posible reducir la escala del circuito de un LSI y reducir el coste compartiendo la unidad de procesamiento de decodificación para que el procesamiento se comparta entre el método de decodificación de imágenes en movimiento según el aspecto de la presente invención y el método de decodificación de imágenes en movimiento de conformidad con la norma convencional.
[Aplicabilidad industrial]
La presente invención es aplicable a métodos de filtrado, aparatos de codificación de imágenes en movimiento y aparatos de decodificación de imágenes en movimiento. Por ejemplo, la presente invención es aplicable a aparatos de presentación visual de imágenes de alta definición y aparatos de captura de imágenes tales como receptores de televisión, grabadoras de vídeo digital, sistemas de navegación para automóviles, teléfonos móviles, cámaras digitales y cámaras de vídeo digitales.
[Lista de símbolos de referencia]
100, 400 Aparato de codificación de imágenes en movimiento
101 Restador
102 Unidad de transformación ortogonal
103 Unidad de cuantificación
104, 204 Unidad de cuantificación inversa
105, 205 Unidad de transformación ortogonal inversa
106, 206 Sumador
107, 207, 301, 302, 311, 322, 323, 332, 342, 343, 344, 351, 352, 353, 361, 362, 372, 404, 504 Unidad de filtrado 108, 112, 208, 312, 324, 333, 354, 363, 371 Unidad de selección
109, 209, 373 Memoria
110, 210 Unidad de predicción
111 Unidad de codificación de longitud variable
113, 213 Unidad de control
115, 215 Unidad de filtrado
120 Señal de imagen de entrada
121 Señal residual
122, 24, 224 Coeficiente de transformación
123, 223 Coeficiente cuantificado
125, 225 Señal residual decodificada
126, 226 Señal de imagen decodificada
127, 128, 227, 228 Señal de imagen
130, 230 Señal de imagen de predicción
131 Señal codificada
132, 232 Flujo de bits codificado
200, 500 Aparato de decodificación de imágenes en movimiento
211 Unidad de decodificación de longitud variable
212, 321, 331, 341 Unidad de distribución
220 Señal de imagen de salida
401, 501 Primera unidad de determinación de parámetro de cuantificación
, 502 Segunda unidad de determinación de parámetro de cuantificación , 503 Unidad de determinación de intensidad de filtrado
, 511 Primer parámetro de cuantificación
, 512 Segundo parámetro de cuantificación
, 513 Intensidad de filtrado

Claims (1)

  1. REIVINDICACIONES
    i. Un método para decodificar una imagen bloque por bloque a partir de un flujo de bits codificado, comprendiendo dicho método
    analizar el flujo de bits codificado para obtener información de diferencia que indica que una diferencia entre un parámetro de cuantificación para un bloque actual y un parámetro de cuantificación para un bloque anterior ubicado inmediatamente antes del bloque actual en el orden de procesamiento, en el que se asigna un valor de cero a dicha información de diferencia cuando el bloque actual es un bloque de modulación por impulsos intracodificados (IPCM);
    determinar un parámetro de cuantificación para el bloque actual, usando el parámetro de cuantificación para el bloque anterior y la información de diferencia, independientemente de si el bloque actual es un bloque de IPCM o un bloque distinto de modulación por impulsos intracodificados, distinto de IPCM; determinar una intensidad de filtrado del filtrado por desbloqueo usando un valor promedio del parámetro de cuantificación para el bloque actual y el parámetro de cuantificación para el bloque anterior, determinándose la intensidad de filtrado de modo que aumente con el valor promedio creciente del parámetro de cuantificación para absorber un error de cuantificación; y
    realizar el filtrado por desbloqueo en un límite entre el bloque anterior y el bloque actual usando la intensidad de filtrado determinada del filtrado por desbloqueo,
    en el que realizar el filtrado por desbloqueo comprende determinar si al menos uno cualquiera del bloque anterior y el bloque actual es un bloque de IPCM y aplicar el filtrado por desbloqueo sólo a píxeles de los bloques distintos de IPCM.
ES20153370T 2011-07-19 2012-07-10 Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento Active ES2866201T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201161509193P 2011-07-19 2011-07-19

Publications (1)

Publication Number Publication Date
ES2866201T3 true ES2866201T3 (es) 2021-10-19

Family

ID=47555725

Family Applications (2)

Application Number Title Priority Date Filing Date
ES12814394T Active ES2786503T3 (es) 2011-07-19 2012-07-10 Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento
ES20153370T Active ES2866201T3 (es) 2011-07-19 2012-07-10 Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES12814394T Active ES2786503T3 (es) 2011-07-19 2012-07-10 Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento

Country Status (17)

Country Link
US (5) US8787467B2 (es)
EP (4) EP3661201B1 (es)
JP (5) JP5391367B2 (es)
KR (5) KR102064408B1 (es)
CN (5) CN107197262B (es)
AU (1) AU2012285242B2 (es)
BR (1) BR112013030498B1 (es)
CA (1) CA2837541C (es)
ES (2) ES2786503T3 (es)
HU (2) HUE049204T2 (es)
LT (3) LT2736253T (es)
MX (1) MX2013013783A (es)
MY (1) MY165342A (es)
PL (2) PL3661201T3 (es)
RU (1) RU2606304C2 (es)
TW (1) TW201309033A (es)
WO (1) WO2013011659A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
US9282344B2 (en) * 2011-11-04 2016-03-08 Qualcomm Incorporated Secondary boundary filtering for video coding
JP2013223096A (ja) * 2012-04-16 2013-10-28 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
JP2013223097A (ja) * 2012-04-16 2013-10-28 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
US9451250B2 (en) * 2012-10-03 2016-09-20 Broadcom Corporation Bounded rate compression with rate control for slices
CN104468662B (zh) * 2013-09-18 2017-11-24 达丰(上海)电脑有限公司 用矩形点阵图像实现点对点网络通信的系统及其方法
WO2016074147A1 (en) 2014-11-11 2016-05-19 Mediatek Singapore Pte. Ltd. Separated coding tree for luma and chroma
CN109314682B (zh) * 2016-04-01 2021-09-21 凝聚技术公司 正交时频空间调制信号的迭代二维均衡
WO2018097299A1 (ja) * 2016-11-28 2018-05-31 日本放送協会 符号化装置、復号装置、符号化方法、及び復号方法
KR20230085949A (ko) * 2016-12-27 2023-06-14 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
CN107181953B (zh) * 2017-03-31 2019-09-17 北京奇艺世纪科技有限公司 一种边界滤波强度的确定方法及装置
KR102296015B1 (ko) * 2017-04-06 2021-09-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
CN110495168B (zh) * 2017-04-06 2021-12-07 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法及解码方法
TWI832814B (zh) * 2017-04-06 2024-02-21 美商松下電器(美國)知識產權公司 解碼裝置及編碼裝置
TW201842781A (zh) * 2017-04-06 2018-12-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
TW201842782A (zh) * 2017-04-06 2018-12-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
TW201842768A (zh) * 2017-04-06 2018-12-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
TWI812378B (zh) 2017-04-06 2023-08-11 美商松下電器(美國)知識產權公司 解碼裝置、編碼裝置及電腦可讀取之非暫時性媒體
TWI833248B (zh) * 2017-04-06 2024-02-21 美商松下電器(美國)知識產權公司 解碼方法及編碼方法
KR20240018689A (ko) 2018-07-30 2024-02-13 삼성전자주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR102606414B1 (ko) * 2018-12-07 2023-11-24 후아웨이 테크놀러지 컴퍼니 리미티드 디블로킹 필터의 경계 강도를 도출하는 인코더, 디코더 및 대응 방법
JP2022542855A (ja) 2019-07-19 2022-10-07 エルジー エレクトロニクス インコーポレイティド フィルタリングを用いた画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
CN113438488B (zh) * 2021-06-18 2023-01-31 北京锐马视讯科技有限公司 低码率视频优化编码方法和装置、设备及存储介质

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3273665D1 (en) 1981-07-30 1986-11-13 Gao Ges Automation Org Method for rastering half-tone images
US5178418A (en) 1991-06-25 1993-01-12 Canadian Bank Note Co., Ltd. Latent images comprising phase shifted micro printing
AU699124B2 (en) 1994-11-01 1998-11-26 De La Rue Giori S.A. Method of generating a security design with the aid of electronic means
US6104812A (en) 1998-01-12 2000-08-15 Juratrade, Limited Anti-counterfeiting method and apparatus using digital screening
US6377706B1 (en) 1998-05-12 2002-04-23 Xerox Corporation Compression framework incorporating decoding commands
US6473516B1 (en) 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
US20050160271A9 (en) 1998-11-19 2005-07-21 Brundage Trent J. Identification document and related methods
US6615890B1 (en) 2000-06-09 2003-09-09 Venture Tape Corp. Tape applicator for glazing applications
US6692030B1 (en) 2000-07-21 2004-02-17 Verify First Technologies, Inc. Security document with nano-pattern
DE10044403A1 (de) 2000-09-08 2002-03-21 Giesecke & Devrient Gmbh Datenträger mit Stichtiefdruckbild und Verfahren zur Umsetzung von Bildmotiven in Linienstrukturen sowie in eine Stichtiefdruckplatte
US6931062B2 (en) 2001-04-11 2005-08-16 Koninklijke Philips Electronics N.V. Decoding system and method for proper interpolation for motion compensation
US20040062310A1 (en) 2002-01-17 2004-04-01 Zhong Xue Coding distortion removal method, video encoding method, video decoding method, and apparatus and program for the same
ES2754625T3 (es) 2001-11-29 2020-04-20 Godo Kaisha Ip Bridge 1 Método de extracción de distorsión de codificación
US20050035590A1 (en) 2003-05-16 2005-02-17 Jones Robert L. Identification document usable with D2T2 printing
JP4130783B2 (ja) 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
ES2730953T3 (es) 2002-04-26 2019-11-13 Ntt Docomo Inc Método de decodificación de señal, dispositivo de decodificación de señal, y programa de decodificación de señal
JP4144258B2 (ja) * 2002-05-29 2008-09-03 ソニー株式会社 画像出力装置及び画像出力方法
JP2005532625A (ja) 2002-07-09 2005-10-27 ビーエヌシー・アイピー・スウィッツァランド・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 安全な照合解決法を提供するためのシステムと方法
BRPI0303901B1 (pt) 2002-07-11 2018-03-06 Godo Kaisha Ip Bridge 1 “Método de determinação de poder de filtragem para determinar um poder de filtragem para remover uma distorção de codificação entre blocos que constituem uma imagem, método de decodificação de imagem móvel para decodificar os dados de imagem móvel codificados, aparelho de determinação de poder de filtragem, e aparelho de codificação de imagem móvel”
US6922492B2 (en) * 2002-12-27 2005-07-26 Motorola, Inc. Video deblocking method and apparatus
US8223393B2 (en) 2003-03-31 2012-07-17 Eastman Kodak Company Post rip image rendering for microprinting
EP1625488A2 (en) 2003-05-20 2006-02-15 Lego A/S Method and system for manipulating a digital representation of a three-dimensional object
WO2005010684A2 (en) 2003-07-17 2005-02-03 Digimarc Corporation Uniquely linking security elements in identification documents
WO2005018239A1 (ja) 2003-08-19 2005-02-24 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
US7457362B2 (en) * 2003-10-24 2008-11-25 Texas Instruments Incorporated Loop deblock filtering of block coded video in a very long instruction word processor
KR101000926B1 (ko) * 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
CA2542266C (en) 2004-04-28 2012-07-17 Matsushita Electric Industrial Co. Ltd. Moving picture stream generation apparatus, moving picture coding apparatus, moving picture multiplexing apparatus and moving picture decoding apparatus
US20050243914A1 (en) * 2004-04-29 2005-11-03 Do-Kyoung Kwon Adaptive de-blocking filtering apparatus and method for mpeg video decoder
US8085846B2 (en) * 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
US7630902B2 (en) 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
US7450121B2 (en) 2004-10-19 2008-11-11 Canon Kabushiki Kaisha Dynamic bit depth rendering
US20060126744A1 (en) 2004-12-10 2006-06-15 Liang Peng Two pass architecture for H.264 CABAC decoding process
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
US20060153293A1 (en) * 2005-01-12 2006-07-13 Ulead Systems, Inc. Method for transcoding compressed data
JP4148228B2 (ja) 2005-02-10 2008-09-10 ソニー株式会社 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
JP4784188B2 (ja) 2005-07-25 2011-10-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8625914B2 (en) 2013-02-04 2014-01-07 Sony Corporation Image processing system, image processing method and program
WO2007116551A1 (ja) 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
EP1844929A1 (fr) 2006-04-13 2007-10-17 Kba-Giori S.A. Procédé de génération de motifs représentant une image en demi-teintes
US7965422B2 (en) 2006-04-28 2011-06-21 Xerox Corporation Super resolution encoded microprinting through postscript
JP4584871B2 (ja) 2006-06-09 2010-11-24 パナソニック株式会社 画像符号化記録装置および画像符号化記録方法
US8036270B2 (en) 2006-07-27 2011-10-11 Sharp Laboratories Of America, Inc. Intra-frame flicker reduction in video coding
JP2008042497A (ja) * 2006-08-04 2008-02-21 Seiko Epson Corp デコード装置、情報再生装置及び電子機器
JP5093877B2 (ja) 2006-09-29 2012-12-12 株式会社ユニバーサルエンターテインメント 紙葉識別装置
KR100827106B1 (ko) 2006-10-20 2008-05-02 삼성전자주식회사 디블록킹 필터에서의 필터 조건 영역 판별을 위한 장치 및방법
US8774269B2 (en) 2006-10-25 2014-07-08 Franuhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Quality scalable coding with mapping different ranges of bit depths
KR100837410B1 (ko) 2006-11-30 2008-06-12 삼성전자주식회사 주관적인 무손실 이미지 데이터 압축 방법 및 장치
US8767834B2 (en) 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
EP2172025A1 (en) 2007-06-27 2010-04-07 Thomson Licensing Enhancing image quality
JP2009017505A (ja) 2007-07-09 2009-01-22 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
US20090020999A1 (en) 2007-07-17 2009-01-22 Jimmy Kendrick Security documents and methods of deterring counterfeiting
US20090315319A1 (en) 2007-07-17 2009-12-24 Jimmy Kendrick Security documents and methods of deterring counterfeiting
US20090021000A1 (en) 2007-07-17 2009-01-22 Mccartney Larry G Security documents and methods of deterring counterfeiting
JP5278827B2 (ja) 2007-09-06 2013-09-04 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化あるいは復号プログラム
CN101389016B (zh) * 2007-09-13 2010-10-20 华为技术有限公司 获得块边界强度和去除块效应的方法和装置
BRPI0818444A2 (pt) 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
US20100208827A1 (en) 2007-10-16 2010-08-19 Thomson Licensing Methods and apparatus for video encoding and decoding geometerically partitioned super macroblocks
US8477847B2 (en) * 2007-12-17 2013-07-02 Vixs Systems, Inc. Motion compensation module with fast intra pulse code modulation mode decisions and methods for use therewith
US9225996B2 (en) * 2007-12-19 2015-12-29 Vixs Systems, Inc. Motion refinement engine with flexible direction processing and methods for use therewith
US8743972B2 (en) * 2007-12-20 2014-06-03 Vixs Systems, Inc. Coding adaptive deblocking filter and method for use therewith
CN101911700A (zh) 2008-01-11 2010-12-08 汤姆逊许可证公司 视频和深度编码
JP5593596B2 (ja) 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法
US8542730B2 (en) 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US9788018B2 (en) 2008-06-30 2017-10-10 Microsoft Technology Licensing, Llc Error concealment techniques in video decoding
TWI386068B (zh) * 2008-10-22 2013-02-11 Nippon Telegraph & Telephone 解塊處理方法、解塊處理裝置、解塊處理程式及記錄該程式之可由電腦讀取之記錄媒體
TW201028018A (en) 2009-01-07 2010-07-16 Ind Tech Res Inst Encoder, decoder, encoding method and decoding method
JP5126096B2 (ja) * 2009-02-05 2013-01-23 日本電気株式会社 画像符号化処理方法、画像符号化処理装置、画像符号化プログラム
TWI400955B (zh) 2009-07-20 2013-07-01 Mstar Semiconductor Inc 一種去區塊裝置及方法
KR20120089561A (ko) 2009-09-22 2012-08-13 파나소닉 주식회사 이미지 부호화 장치, 이미지 복호화 장치, 이미지 부호화 방법, 및 이미지 복호화 방법
CN105430405B (zh) 2010-07-13 2018-11-02 日本电气株式会社 视频解码装置、视频解码方法以及程序
EP2571699B1 (de) 2010-11-08 2013-10-30 U-NICA Technology AG Verfahren und vorrichtung zur erzeugung von farbbildern mit einem uv-laser auf pigmentierten substraten und dadurch hergestellte produkte
MX2013005652A (es) 2010-11-26 2013-09-13 Nec Corp Dispositivo de codificacion de video, dispositivo de decodificacion de video, metodo de codificacion de video, metodo de decodificacion de video, y programa.
KR102295680B1 (ko) 2010-12-08 2021-08-31 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
CN102025997A (zh) * 2010-12-22 2011-04-20 中兴通讯股份有限公司 隐藏信息的方法和装置、提取隐藏信息的方法和装置
US9137539B2 (en) 2010-12-22 2015-09-15 Panasonic Corporation Image coding apparatus, image decoding apparatus, image coding method, and image decoding method
JP5850214B2 (ja) 2011-01-11 2016-02-03 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
TWI574555B (zh) 2011-02-22 2017-03-11 太格文 Ii有限責任公司 影像編碼方法及影像編碼裝置
TWI523499B (zh) 2011-02-22 2016-02-21 Panasonic Ip Corp America An image coding method, an image decoding method, an image coding apparatus, an image decoding apparatus, and an image coding / decoding apparatus
EA031127B1 (ru) 2011-03-29 2018-11-30 Юра Трейд, Лимитед Способ и устройство для создания и аутентификации защищенных документов
CN107249131B (zh) 2011-03-30 2020-04-24 Lg 电子株式会社 视频解码装置和视频编码装置
JP5942990B2 (ja) 2011-05-27 2016-06-29 ソニー株式会社 画像処理装置および方法
JP5745175B2 (ja) * 2011-06-28 2015-07-08 サムスン エレクトロニクス カンパニー リミテッド 適応的な量子化パラメータ差分値を用いた映像の符号化及び復号化方法と装置
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
US9161046B2 (en) 2011-10-25 2015-10-13 Qualcomm Incorporated Determining quantization parameters for deblocking filtering for video coding

Also Published As

Publication number Publication date
HUE049204T2 (hu) 2020-09-28
KR102064408B1 (ko) 2020-01-09
RU2013152610A (ru) 2015-09-10
JP5970442B2 (ja) 2016-08-17
PL3661201T3 (pl) 2021-10-25
PL2736253T3 (pl) 2020-09-21
EP4336841A3 (en) 2024-03-20
US9930367B2 (en) 2018-03-27
LT2736253T (lt) 2020-04-27
RU2606304C2 (ru) 2017-01-10
EP3843394A1 (en) 2021-06-30
HUE053988T2 (hu) 2021-08-30
KR102129001B1 (ko) 2020-07-02
MX2013013783A (es) 2013-12-16
US20170223384A1 (en) 2017-08-03
EP3661201A1 (en) 2020-06-03
KR20200004916A (ko) 2020-01-14
CA2837541A1 (en) 2013-01-24
EP2736253A4 (en) 2016-01-13
KR102129000B1 (ko) 2020-07-02
JP6216021B2 (ja) 2017-10-18
CN107277510A (zh) 2017-10-20
WO2013011659A1 (ja) 2013-01-24
CN107197261B (zh) 2018-12-04
JP2014042326A (ja) 2014-03-06
JPWO2013011659A1 (ja) 2015-02-23
US20140286404A1 (en) 2014-09-25
EP2736253A1 (en) 2014-05-28
US9544585B2 (en) 2017-01-10
JP6042304B2 (ja) 2016-12-14
MY165342A (en) 2018-03-21
CN103703774A (zh) 2014-04-02
KR20140043734A (ko) 2014-04-10
CN107277510B (zh) 2019-05-28
LT3661201T (lt) 2021-04-12
KR20200004465A (ko) 2020-01-13
CN107197262B (zh) 2018-10-23
ES2786503T3 (es) 2020-10-13
US20170078661A1 (en) 2017-03-16
KR102023210B1 (ko) 2019-09-19
CN107231555B (zh) 2020-07-28
KR20190105671A (ko) 2019-09-17
BR112013030498B1 (pt) 2022-06-28
JP5970441B2 (ja) 2016-08-17
BR112013030498A2 (pt) 2017-12-12
TWI562595B (es) 2016-12-11
AU2012285242A1 (en) 2013-12-19
CA2837541C (en) 2018-07-03
JP2014030258A (ja) 2014-02-13
EP3843394B1 (en) 2024-04-03
JP2017098953A (ja) 2017-06-01
JP2014042325A (ja) 2014-03-06
US20170347127A1 (en) 2017-11-30
LT3843394T (lt) 2024-05-10
EP3661201B1 (en) 2021-02-17
US9774888B2 (en) 2017-09-26
EP2736253B1 (en) 2020-03-11
KR102128999B1 (ko) 2020-07-02
CN107197261A (zh) 2017-09-22
KR20200004464A (ko) 2020-01-13
CN107197262A (zh) 2017-09-22
CN107231555A (zh) 2017-10-03
US8787467B2 (en) 2014-07-22
JP5391367B2 (ja) 2014-01-15
CN103703774B (zh) 2017-06-20
EP4336841A2 (en) 2024-03-13
TW201309033A (zh) 2013-02-16
AU2012285242B2 (en) 2016-07-21
US20130022112A1 (en) 2013-01-24
US9667968B2 (en) 2017-05-30

Similar Documents

Publication Publication Date Title
ES2866201T3 (es) Método de filtrado, método de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento, aparato de decodificación de imágenes en movimiento, aparato de codificación de imágenes en movimiento y aparato de codificación/decodificación de imágenes en movimiento
ES2863625T3 (es) Señalización de banderas de bloque codificado (CBF) de luminancia-crominancia en codificación de vídeo
ES2669978T3 (es) Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas
ES2865101T3 (es) Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes