ES2669978T3 - Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas - Google Patents

Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas Download PDF

Info

Publication number
ES2669978T3
ES2669978T3 ES12749678.4T ES12749678T ES2669978T3 ES 2669978 T3 ES2669978 T3 ES 2669978T3 ES 12749678 T ES12749678 T ES 12749678T ES 2669978 T3 ES2669978 T3 ES 2669978T3
Authority
ES
Spain
Prior art keywords
block
ipcm
unit
filtering
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12749678.4T
Other languages
English (en)
Inventor
Chong Soon Lim
Viktor Wahadaniah
Sue Mon Thet Naing
Takahiro Nishi
Youji Shibahara
Hisao Sasai
Toshiyasu Sugio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tagivan II LLC
Original Assignee
Tagivan II LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=46652730&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2669978(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Tagivan II LLC filed Critical Tagivan II LLC
Application granted granted Critical
Publication of ES2669978T3 publication Critical patent/ES2669978T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Abstract

Método de filtrado con desbloqueo de filtrado de una pluralidad de bloques incluidos en una imagen, comprendiendo dicho método de filtrado: filtrar con desbloqueo dos bloques adyacentes para generar datos filtrados, usando valores de píxeles incluidos respectivamente en los dos bloques; caracterizado por determinar si cada uno de los dos bloques es un bloque de modulación de impulsos intracodificados, IPCM, o un bloque distinto de IPCM, y cuando los dos bloques son un bloque de IPCM y un bloque distinto de IPCM, emitir los datos filtrados como valores de los píxeles en el bloque distinto de IPCM, y emitir, como valores de los píxeles en el bloque de IPCM, valores sin filtrar de los píxeles en el bloque de IPCM, en el que en el filtrado, una intensidad de filtro para el bloque distinto de IPCM se deriva basándose únicamente en un parámetro de cuantificación del bloque distinto de IPCM, sin usar ningún parámetro de cuantificación del bloque de IPCM ni ningún otro valor fijado sustituto.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas
Antecedentes
Los bloques de IPCM son bloques de muestras de imagen sin comprimir en los que muestras de luma y croma sin procesar se codifican en el flujo codificado. Normalmente se usan en el caso en el que el codificador por entropía produce más bits en lugar de reducir los bits cuando se codifican los bloques de muestras de imagen.
Técnica anterior
En la técnica anterior, cuando se codifican bloques de IPCM en el flujo codificado, se omite el procedimiento de decodificación para estos bloques pero todavía se aplica el procedimiento de filtrado con desbloqueo a los bordes de estos bloques. La intensidad del procedimiento de filtrado con desbloqueo depende de parámetros de cuantificación promedio entre dos bloques en el límite de filtro. Dado que no se aplica ninguna compresión en bloques de IPCM, el parámetro de cuantificación se establece a un valor de cero para el filtro con desbloqueo.
La norma HEVC soporta un filtro adicional (filtro de bucle adaptativo) además del filtro con desbloqueo. El procedimiento de filtrado puede habilitarse o deshabilitarse en unidades de bloques mediante parámetros de señalización en una cabecera de un segmento codificado.
El documento US 2008/095461 da a conocer el filtrado con desbloqueo de bloques adyacentes calculando una intensidad de límite basándose en macrobloques para determinar una condición de filtro, basándose en tipos de macrobloque, que incluye el modo I_PCM. SUN: “Lossless Coding and QP Range Selection”, 3. JVT MEETiNg; 60. MPEG MEETING; - ; FAIRFAX, EE.UU.; (JOINT VIDEO TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16), n.° JVT-C023r1-L, 10 de mayo de 2002 (), XP030005129, ISSN: 0000-0442 da a conocer la omisión del filtrado de bucle para bloques codificados sin pérdidas.
Definición del problema
Específica: En la técnica anterior, la intensidad del filtro con desbloqueo se reduce cuando el parámetro de cuantificación para IPCM se establece a cero. En el borde entre un bloque distinto de IPCM y un bloque de IPCM, muestras de imagen a ambos lados del borde se filtran con una intensidad de filtro con desbloqueo débil debido a un bajo QP promedio. El problema es que las muestras contenidas en el bloque de IPCM son muestras de luma y croma originales y cualquier procesamiento en estas muestras reducirá la calidad. Además de esto, el otro problema es que las muestras que están en el bloque distinto de IPCM se filtran con un filtro relativamente débil en comparación con la cuantificación usada para la compresión para el bloque distinto de IPCM.
Específica: En la técnica anterior, la decisión de habilitar o deshabilitar el filtrado se señaliza en unidades de bloque. Sin embargo, un bloque de IPCM no siempre está alineado con las unidades de bloque para el filtrado. Y en algunos casos, el bloque de IPCM es más pequeño que la unidad de bloque para habilitar o deshabilitar el filtrado de bucle adaptativo. Dado que el bloque de IPCM debe mantenerse sin procesar para mantener la calidad de las muestras de imagen codificadas, no debe aplicarse ningún procedimiento de filtrado de bucle al bloque de IPCM.
Sumario de la solución
Se dan a conocer un método de filtrado con desbloqueo y un método y aparato de codificación que comprenden el filtrado con desbloqueo según las reivindicaciones 1-6.
Efecto de la invención
Mejorar la eficacia de codificación dado que la IPCM contiene datos de imagen sin procesar y no debe someterse a procesamiento posterior.
Efectos ventajosos de la invención
La presente invención proporciona un método de filtrado que permite la supresión del deterioro en la calidad de la imagen de bloques de IPCM.
Breve descripción de los dibujos
[Figura 1] La figura 1 es una ilustración de un método de determinación de una intensidad de filtro en un límite de bloque entre un bloque de IPCM y un bloque distinto de IPCM, en la norma H.264.
[Figura 2] La figura 2 es un diagrama de flujo de procedimientos de filtrado en un límite de bloque en la norma H.264.
[Figura 3] La figura 3 es un diagrama de flujo de procedimientos de determinación de una intensidad de filtro en la norma H.264.
5
10
15
20
25
30
35
40
45
[Figura 4] La figura 4 es una ilustración de una intensidad de filtro en un método de la presente invención.
[Figura 5] La figura 5 es un diagrama de flujo de un método de filtrado según invención.
[Figura 6] La figura 6 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento según la realización 1 de la presente invención.
[Figura 7A] La figura 7A es una ilustración de un ejemplo de un límite de bloque según la realización 1 de la presente invención.
[Figura 7B] La figura 7B es una ilustración de un ejemplo de un límite de bloque según la realización 1 de la presente invención.
[Figura 8A] La figura 8A es una ilustración de operaciones realizadas por una unidad de filtrado según la realización 1 de la presente invención.
[Figura 8B] La figura 8B es una ilustración de operaciones realizadas por una unidad de filtrado según la realización 1 de la presente invención.
[Figura 9] La figura 9 es un diagrama de bloques de un aparato de decodificación de imágenes según la realización 1 de la presente invención.
[Figura 10A] La figura 10A es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención.
[Figura 10B] La figura 10B es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención.
[Figura 10C] La figura 10C es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención.
[Figura 10D] La figura 10D es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención.
[Figura 10E] La figura 10E es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención.
[Figura 10F] La figura 10F es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención.
[Figura 10G] La figura 10G es una ilustración de una estructura a modo de ejemplo de unidades de filtrado según la realización 1 de la presente invención.
[Figura 10H] La figura 10H es una ilustración de una estructura a modo de ejemplo de una unidad de filtrado según la realización 1 de la presente invención.
[Figura 11] La figura 11 es un diagrama de flujo invención.
[Figura 12] La figura 12 es un diagrama de flujo invención.
[Figura 13] La figura 13 es una ilustración de intensidades de filtro y unidades de bloque según la realización 1 de la presente invención.
[Figura 14A] La figura 14A es una ilustración de un intervalo de aplicación de un indicador que indica que un filtro está activado según un ejemplo de comparación en la presente invención.
[Figura 14B] La figura 14B es una ilustración de un intervalo de aplicación de un indicador que indica que un filtro está activado según la realización 1 de la presente invención.
[Figura 15] La figura 15 muestra una configuración global de un sistema de provisión de contenido para implementar servicios de distribución de contenido.
[Figura 16] La figura 16 muestra una configuración global de un sistema de radiodifusión digital.
[Figura 17] La figura 17 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión.
de un método de filtrado según la realización 1 de la presente
de un método de filtrado según la realización 1 de la presente
filtrado según la realización 1 de la realización 1 de la presente
5
10
15
20
25
30
35
40
45
[Figura 18] La figura 18 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información de y en un medio de grabación que es un disco óptico.
[Figura 19] La figura 19 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico. [Figura 20A] La figura 20A muestra un ejemplo de un teléfono celular.
[Figura 20B] La figura 20B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular.
[Figura 21] La figura 21 ilustra una estructura de datos multiplexados.
[Figura 22] La figura 22 muestra esquemáticamente cómo se multiplexa cada flujo para dar datos multiplexados. [Figura 23] La figura 23 muestra en más detalle cómo se almacena un flujo de vídeo en un flujo de paquetes de PES.
[Figura 24] La figura 24 muestra una estructura de paquetes de TS y paquetes de origen en los datos multiplexados.
[Figura 25] La figura 25 muestra una estructura de datos de una PMT.
[Figura 26] La figura 26 muestra una estructura interna de información de datos multiplexados.
[Figura 27] La figura 27 muestra una estructura interna de información de atributos de flujo.
[Figura 28] La figura 28 muestra etapas para identificar datos de vídeo.
[Figura 29] La figura 29 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento según cada una de las realizaciones.
[Figura 30] La figura 30 muestra una configuración para conmutar entre frecuencias de accionamiento.
[Figura 31] La figura 31 muestra etapas para identificar datos de vídeo y conmutar entre frecuencias de accionamiento.
[Figura 32] La figura 32 muestra un ejemplo de una tabla de consulta en la que normas de datos de vídeo se asocian con frecuencias de accionamiento.
[Figura 33A] La figura 33A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señales.
[Figura 33B] La figura 33B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señales.
Descripción de realizaciones
A continuación en el presente documento, se describen en detalle realizaciones de la presente invención con referencia a los dibujos. Cada una de las realizaciones descritas a continuación muestra un ejemplo específico preferido de la presente invención. Los valores numéricos, formas, materiales, elementos estructurales, la disposición y conexión de los elementos estructurales, etapas, el orden de procesamiento de las etapas, etc. mostrados en las siguientes realizaciones son simples ejemplos, y por tanto no limitan la presente invención. La presente invención se define mediante las reivindicaciones. Por tanto, entre los elementos estructurales en las siguientes realizaciones, los elementos estructurales no mencionados en ninguna de las reivindicaciones independientes que definen el concepto más genérico de la presente invención no se requieren necesariamente para lograr el objetivo de la presente invención. Tales elementos estructurales opcionales se describen como elementos estructurales de unas correspondientes de las realizaciones preferidas.
Antes de facilitar descripciones de las realizaciones de la presente invención, se facilita una descripción del filtrado entre píxeles (filtrado con desbloqueo) en un límite entre un bloque de IPCM y un bloque distinto de IPCM en la codificación y decodificación en la norma H.264.
La figura 1 es un diagrama de flujo que indica un concepto de un método de determinación de una intensidad de filtro de un filtro entre píxeles en un límite entre un bloque (macrobloque) de IPCM y un bloque (macrobloque) distinto de IPCM en esquemas de codificación y decodificación según la norma H.264.
La figura 1 muestra esquemáticamente el límite entre los dos macrobloques, uno de los cuales es el macrobloque distinto de IPCM (el lado izquierdo en la ilustración) y el otro es el macrobloque de IPCM (el lado derecho en la ilustración). Tres círculos colocados en el lado izquierdo en la figura 1 muestran tres píxeles (representados normalmente como p0, p1 y p2 secuencialmente desde el límite). Estos tres píxeles del lado izquierdo pertenecen a
5
10
15
20
25
30
35
40
45
50
un primer bloque (bloque p) en una primera unidad (un bloque de unidad codificada, denominado a continuación en el presente documento bloque CU). Estos tres píxeles también pertenecen a un primer macrobloque de un tipo distinto de IPCM en bloque de unidad de macrobloque (denominado a continuación en el presente documento MB) que es una unidad mayor que la primera unidad.
Asimismo, tres círculos colocados en el lado derecho en la figura 1 muestran tres píxeles (representados normalmente como q0, q1 y q2 secuencialmente desde el límite). Estos tres píxeles pertenecen a un segundo bloque (un bloque q) en la primera unidad. Estos tres píxeles también pertenecen a un segundo macrobloque de un tipo de IPCM en un MB.
A continuación en el presente documento, un bloque de CU que pertenece a un macrobloque de un tipo de IPCM se denomina bloque de IPCM, y un bloque de CU que pertenece a un macrobloque de un bloque distinto de IPCM se denomina bloque distinto de IPCM. Dicho de otro modo, un bloque distinto de IPCM significa un bloque que no es un bloque de IPCM.
A continuación en el presente documento, se facilita una descripción de un método de determinación de una intensidad de filtro que se aplica a los píxeles q0, q1, p0 y p1 a través del límite de bloque (o un límite entre unidades de bloque mayor que la unidad de codificación).
Un método de filtrado en la norma H.264 (el método de filtrado descrito en la estipulación 8.7 de la norma) define que la intensidad de filtro para un límite entre dos bloques se determina normalmente basándose en el valor promedio de un valor qPp derivado de un parámetro de cuantificación QPp de un primer macrobloque y un parámetro de cuantificación QPq de un segundo macrobloque. Más específicamente, se usa la siguiente (expresión 1) mostrada como expresión 8-461 en la norma.
QPav = (QPp + QPq + 1) > > 1 = > (QPp + 1) > > 1 (Expresión 1)
Esta (expresión 1) muestra el siguiente cálculo. Se diseñan intensidades de filtro de modo que se aplica un filtro más intenso (en cuanto a suavidad) a medida que el valor de un parámetro de cuantificación es mayor, con el objetivo, por ejemplo, de absorber un error de cuantificación.
En la ilustración, el parámetro de cuantificación de lado izquierdo QPp es un parámetro de cuantificación que se codifica para el primer macrobloque (bloque de lado p). Por conveniencia, QP usado aquí tiene un significado equivalente a un valor qP que se usa con el propósito de filtrado. Además, el parámetro de cuantificación de lado derecho QPq es un parámetro de cuantificación que debe aplicarse al segundo macrobloque (bloque de lado q).
Aquí, tal como se describe en la estipulación 8.7.2 de la norma H.264, el valor del parámetro de cuantificación qPq (QPq en la ilustración) del bloque de IPCM se establece a 0. Dicho de otro modo, se realiza un “filtrado de ambos lados con intensidad débil”. Esto significa que, en cuanto a un límite entre dos bloques; se aplica un filtro que tiene una intensidad de filtro a ambos bloques. Esto también significa que es imposible distinguir intensidades de filtro para los dos bloques respectivos. Dicho de otro modo, se ejecuta un filtrado usando la misma intensidad de filtro en ambos bloques a través del límite entre un bloque de IPCM y un bloque distinto de IPCM.
La figura 2 es un diagrama de flujo que ilustra un concepto de filtrado en un límite de bloque descrito en la estipulación 8.7 “procedimiento de filtrado con desbloqueo” de la norma H.264.
Este diagrama de flujo explica de manera general los siguientes tres puntos referentes a un filtro H.264.
(1) Orden de determinación de la intensidad de filtro (bS) en la estipulación 8.7.2.1
La etapa S101 corresponde al procedimiento de “procedimiento de desviación para la intensidad de filtro de límite dependiente del contenido de luma” descrito en la estipulación 8.7.2.1. Este procedimiento determina una intensidad de filtro en el filtrado en un límite de bloque según un tipo de bloque y similares. En este caso, la intensidad de filtro se clasifica en un nivel entre niveles que oscilan entre filtrado intenso (bS = 4) y sin filtrado (bS = 0). Este punto se describe con referencia a la figura 3.
(2) Procedimiento de establecimiento de parámetro de cuantificación qPz = 0 para bloque de IPCM
Las etapas S102 a S107 son procedimientos para establecer un valor de un parámetro de cuantificación qP para determinar una intensidad de filtro tal como se describe con referencia a la figura 1. En cuanto a bloques distintos de IPCM normales (No en la etapa S102 o S105), se establece el parámetro de cuantificación QP [i] (i indica 0 ó 1) de un macrobloque al que pertenece el bloque distinto de IPCM como parámetro de cuantificación qP [i] para determinar una intensidad de filtro (etapas S103 y S106). Por otro lado, cuando un bloque actual es un bloque de IPCM (Sí en las etapas S102 o S105) el parámetro de cuantificación qP del bloque de IPCM se establece a 0 (etapas S104 y S107).
A continuación, en la etapa S108, se calcula qPav según (expresión 1).
(3) Un bS (o indicador de muestra de filtro) se comparte por ambos bloques
5
10
15
20
25
30
35
40
45
50
A continuación en el presente documento, se facilita una descripción de la aplicación de una intensidad de filtro determinada (un valor) (o un indicador de determinación que especifica si realizar el filtrado o no) en común a dos bloques a través de un límite.
En primer lugar, tras la etapa S108, se realiza un cálculo usando las expresiones de 8-462 a 8-467 en la norma. Más específicamente, se realizan (1) derivación de un índice para el ajuste ligero de una intensidad de filtro que se establece en la etapa S101 y (2) derivación de un valor de umbral para la determinación del borde.
Después, se establece la intensidad de filtro determinada mediante estos procedimientos para ambos bloques (S109). Más específicamente, incluso cuando la intensidad de filtro bS sea uno cualquiera de 1 a 4, se aplica el valor derivado usando el método de derivación de bS común a los dos bloques. Por ejemplo, cuando se satisface que la intensidad de filtro bS = 4, el valor del pixel p del primer bloque se deriva usando las expresiones (8-486 y 8-487) en la norma. Además, el valor del pixel q incluido en el segundo bloque se deriva usando la misma intensidad de filtro que la intensidad de filtro usada en la derivación del valor del pixel p. Además, se realiza una determinación sobre si realizar el filtrado (derivación del valor de indicador de muestras de filtro (también denominado indicador de ejecución de filtrado)) en preparación, por ejemplo, para un caso en el que se encuentra finalmente que un límite de bloque es un borde real. Más específicamente, esta determinación se realiza mediante comparación entre dos valores de umbral (two_threts (a, p)) derivados en la etapa S109 y valores de pixel reales de p y q (véase la expresión (8-468) en la norma). Sin embargo, tal como se describió anteriormente, es imposible establecer valores diferentes (o ejecución o no ejecución) como intensidades de filtro bS o indicadores de ejecución de filtrado para los dos bloques respectivos.
Dicho de otro modo, en la norma H.264, es imposible realizar un procesamiento adecuado para IPCM cuando se observa dentro de un procedimiento de filtrado.
La figura 3 es un diagrama de flujo que indica el orden de decisión (orden de determinación) de una intensidad de filtro (bS) que se aplica a píxeles ubicados a través de un límite entre dos macrobloques, tal como se describe en la estipulación 8.7.2.1 de la norma. Este diagrama de flujo ilustra el orden de determinación en la etapa S101 mostrada en la figura 2 y concuerda con el flujo de determinación en la estipulación 8.7.2.1 de la norma.
En primer lugar, se realiza una determinación en cuanto a si el límite definido por el pixel p0 en el primer bloque y el pixel q0 en el segundo bloque también corresponden a un límite entre macrobloques o no (S121). Dicho de otro modo, se realiza una determinación en cuanto a si p0 y q0 están ubicados a través del límite de macrobloque.
Cuando el límite de bloque entre los objetivos de procesamiento no es un límite de macrobloque (No en la etapa S121), la intensidad de filtro (bS) se determina mediante uno cualquiera de 3, 2, 1 y 0 que es menor que N (= 4) (S124).
Por otro lado, cuando el límite de bloque entre los objetivos de procesamiento es un límite de macrobloque (Sí en la etapa S121), se realiza una determinación en cuanto a si uno (o ambos) de p0 y q0 pertenecen a un macrobloque codificado usando el modo de intrapredicción (S122).
Cuando ninguno de los bloques pertenece a un macrobloque codificado usando el modo de intrapredicción (No en la etapa S122), se ejecuta una determinación basándose en otro factor de determinación (S125).
Por otro lado, cuando al menos uno de los bloques pertenece a un macrobloque codificado usando el modo de intrapredicción (Sí en la etapa S122), la intensidad de filtro se establece (siempre) a bS = 4, lo que significa la mayor intensidad sin tener en cuenta ningún otro factor de determinación (S123).
De esta manera, el método de filtrado convencional no hace posible ejecutar procedimientos de filtrado internos para tales dos bloques que están ubicados a través del límite de maneras diferentes (en cuanto a intensidades de filtro y aplicación o no aplicación de un filtro). Además, la norma considera procedimientos hasta la determinación de una intensidad de filtro centrándose en IPCM, pero no hace posible realizar el control para emitir valores de pixel sin procesar de un bloque de IPCM cuando uno de los bloques es un bloque de IPCM y el otro es un bloque distinto de IPCM.
Un bloque de IPCM es un bloque que incluye valores de pixel que muestran fielmente “la imagen original” sin una pérdida por codificación.
Por consiguiente, en el procedimiento de filtrado, es deseable controlar el filtrado en el límite con un bloque de IPCM o controlar la aplicación de un filtro al bloque de IPCM.
(Realización 1)
A continuación en el presente documento, se facilita una descripción de un método de filtrado según la realización 1 de la presente invención.
La figura 4 ilustra un concepto de un método de determinación de un factor para la aplicación del método de filtrado según esta realización y determinación de una intensidad de filtro de un filtro entre píxeles. Tres círculos en la
5
10
15
20
25
30
35
40
45
50
ilustración muestran píxeles incluidos en el primer bloque como en la figura 1. Los elementos iguales a la figura 1 entre los elementos restantes no vuelven a describirse.
Un método de filtrado según esta realización es para filtrar una pluralidad de bloques incluidos en una imagen. Normalmente, el método de filtrado se aplica al filtrado con desbloqueo que se realiza en un límite entre bloques adyacentes. A continuación en el presente documento, se facilita una descripción de un ejemplo de aplicación de filtrado con desbloqueo a la presente invención. Sin embargo, la presente invención también puede aplicarse en el filtrado en bucle (filtro de bucle adaptativo) distinto del filtrado con desbloqueo.
El método de filtrado según esta realización es diferente del método de filtrado descrito con referencia a la figura 1 en los puntos indicados a continuación.
En primer lugar, se emiten valores de pixel sin filtrar como valores de pixel de tres píxeles del bloque que es IPCM en el lado derecho en la ilustración.
Además, se realiza un control para distinguir el filtrado para el primer bloque y el filtrado para el segundo bloque. Por ejemplo, se aplica un filtro a uno de los bloques (en el lado izquierdo) a través del límite en la ilustración, y no se aplica ningún filtro al otro (en el lado derecho). De esta manera, se realiza tal control para realizar los procedimientos de filtrado diferentes entre los bloques.
A continuación, la intensidad de filtro para el bloque del lado izquierdo al que se le aplica el filtro se deriva basándose únicamente en el parámetro de cuantificación QPp del bloque del lado izquierdo. Dicho de otro modo, la intensidad de filtro del bloque distinto de IPCM en el lado izquierdo se deriva sin usar el parámetro de cuantificación QPq del macrobloque del lado derecho ni ningún otro valor fijo sustituto (0 en el ejemplo convencional).
Se realiza una determinación referente a IPCM en la norma H.264 mostrada en la figura 2 en cuanto a si un bloque actual es o no un macrobloque de IPCM. En este caso, tal determinación en cuanto a si un bloque actual es o no un macrobloque de IPCM se realiza basándose en una unidad de predicción (PU) que tiene un tamaño variable. Dicho de otro modo, un bloque de IPCM a continuación es un bloque que pertenece a un bloque de PU de un tipo de IPCM, y un bloque distinto de IPCM es un bloque que pertenece a un bloque de PU de un tipo distinto de IPCM.
A continuación en el presente documento, estas operaciones se escriben con referencia a los dibujos.
La figura 5 es un diagrama de flujo de un orden de procesamiento en un método de filtrado según esta realización.
El método de filtrado según esta realización se ejecuta como parte de procedimientos de codificación o procedimientos de decodificación. Por consiguiente, este método de filtrado se ejecuta por una de una unidad de filtrado en un bucle de codificación dentro de un aparato de codificación de imágenes en movimiento mostrado en la figura 6 descrito a continuación y una unidad de filtrado en un bucle de decodificación dentro de un aparato de decodificación de imágenes en movimiento mostrado en la figura 9 descrito a continuación, y una unidad de control para controlar el filtro.
La unidad de control determina si el tipo de bloque de PU de uno de los dos bloques que comparten el límite es IPCM o no (S201). En el caso a modo de ejemplo de la figura 4, el bloque de PU en el lado derecho es un bloque de IPCM, y por tanto se determina que es de tipo de IPCM. Más específicamente, la unidad de control ejecuta esta determinación usando un tipo de macrobloque, o un parámetro de atributo de datos de imagen tal como un tamaño de bloque de compensación de movimiento.
Cuando al menos uno de los dos bloques es un bloque de IPCM (Sí en la etapa S201), la unidad de control determina si el otro de los dos bloques es un bloque de IPCM o no (S202). Por ejemplo, como en el caso de la ilustración en la figura 4, el bloque del lado derecho es un bloque de IPCM. Por consiguiente, la unidad de control determina si el otro bloque que es el bloque del lado izquierdo es un bloque de IPCM o no.
Dicho de otro modo, en las etapas S201 y S202, la unidad de control determina si cada uno de los bloques es un bloque de IPCM o un bloque distinto de IPCM. Más específicamente, la unidad de control determina (1) si ambos de los dos bloques son bloques distintos de IPCM (No en la etapa S201), y (2) si ambos de los dos bloques son bloques de IPCM (Sí en la etapa S202) o (3) si uno de los bloques es un bloque de IPCM y el otro es un bloque distinto de IPCM (No en la etapa S202).
Cuando el otro bloque es un bloque de IPCM (Sí en la etapa S202), es decir, cuando ambos bloques son bloques de IPCM, se omite el filtrado para los píxeles p y q de ambos bloques (tanto el primer bloque como el segundo bloque (S203)).
Por otro lado, cuando el otro bloque no es un bloque de IPCM (No en la etapa S202), es decir, sólo uno de los bloques es un bloque de IPCM, y el otro es un bloque distinto de IPCM, la unidad de control realiza el control para hacer que la unidad de filtrado ejecute el filtrado en las etapas S204 y S205.
En primer lugar, la unidad de filtrado ejecuta el filtrado usando una intensidad predeterminada en píxeles incluidos en el bloque distinto de IPCM (por ejemplo, los tres píxeles en el lado izquierdo en la figura 4), y emite los valores de
5
10
15
20
25
30
35
40
45
50
pixel filtrados como valores de pixel del bloque distinto de IPCM (S204). Además, este filtrado también usa valores de pixel de un bloque de IPCM, además de los valores de pixel del bloque distinto de IPCM. Más específicamente, la unidad de filtrado suaviza los valores de pixel del bloque distinto de IPCm y los valores de pixel del bloque de IPCM para calcular los valores de pixel del bloque distinto de IPCM filtrado.
Además, la unidad de filtrado emite los valores de pixel sin filtrar para los píxeles incluidos en el bloque de IPCM (píxeles q0, q1,... en el lado de q) (S205). En este caso, los valores de pixel sin filtrar se emiten en los dos siguientes casos concebibles.
Un primer método es un método de filtrar un bloque distinto de IPCM y emitir los valores de pixel originales de un bloque de IPCM sin filtrar.
Un segundo método es un método de filtrar tanto un bloque distinto de IPCM como un bloque de IPCM, sustituir los valores de pixel del bloque de IPCM entre los valores de pixel filtrados por los valores de pixel originales antes del filtrado, y emitir los valores de pixel de sustitución. En cualquiera de los casos, los valores de pixel del bloque de IPCM que se emiten son los valores de pixel originales antes de la ejecución del filtrado.
Puede considerarse que el método de filtrado implica el control para adoptar diferentes enfoques de filtrado (intensidades de filtrado, aplicación o no aplicación de un filtro y el/los número(s) de píxeles en la aplicación) entre los bloques.
El filtrado (especialmente, operaciones por la unidad de control y la unidad de filtrado) en las etapas S204 y S205 se describe a continuación con referencia a las figuras 6 a 8.
Además, cuando ambos bloques son bloques distintos de IPCM en la etapa S201 (No en la etapa S201), la unidad de control realiza una operación de filtrado por defecto (S206). Dicho de otro modo, la unidad de control ejecuta el filtrado usando una intensidad de filtro predeterminada en ambos bloques.
A continuación en el presente documento, se facilita una descripción de un aparato de codificación de imágenes en movimiento que realiza el método de filtrado.
La figura 6 es un diagrama de bloques funcional de un aparato de codificación de imágenes en movimiento 100 según esta realización de la presente invención. El aparato de codificación de imágenes en movimiento 100 mostrado en la figura 6 codifica una señal de imagen de entrada 120 para generar un flujo de bits codificado 132. El aparato de codificación de imágenes en movimiento 100 comprende un restador 101, una unidad de transformada ortogonal 102, una unidad de cuantificación 103, una unidad de cuantificación inversa 104, una unidad de transformada ortogonal inversa 105, un sumador 106, una unidad de filtrado 115, una memoria 109, una unidad de predicción 110, una unidad de codificación de longitud variable 111, una unidad de selección 112 y una unidad de control 113.
El restador 101 calcula una diferencia entre la señal de imagen de entrada 120 y una señal de imagen de predicción 130 para generar una señal residual 121. La unidad de transformada ortogonal 102 realiza la transformada ortogonal en la señal residual 121 para generar un coeficiente de transformada 122. La unidad de cuantificación 103 cuantifica el coeficiente de transformada 122 para generar el coeficiente cuantificado 123.
La unidad de cuantificación inversa 104 realiza la cuantificación inversa en el coeficiente cuantificado 123 para generar el coeficiente de transformada 124. La unidad de transformada ortogonal inversa 105 realiza la transformada ortogonal inversa en el coeficiente de transformada 124 para generar una señal residual decodificada 125. El sumador 106 suma la señal residual decodificada 125 y la señal de imagen de predicción 130 para generar una señal de imagen decodificada 126.
La unidad de filtrado 115 filtra la señal de imagen decodificada 126 para generar una señal de imagen 128 y almacena la señal de imagen generada 128 en la memoria 109.
La unidad de predicción 110 realiza selectivamente la intrapredicción y la interpredicción usando la señal de imagen 128 almacenada en la memoria 109 para generar una señal de imagen de predicción 130.
La unidad de codificación de longitud variable 111 realiza la codificación de longitud variable (codificación de entropía) en el coeficiente cuantificado 123 para generar una señal codificada 131.
La unidad de selección 112 selecciona la señal de imagen de entrada 120 cuando un bloque actual es un bloque de IPCM, y selecciona una señal codificada 131 cuando un bloque actual es un bloque distinto de IPCM. Después, la unidad de selección 112 emite la señal seleccionada como flujo de bits codificado 132.
La unidad de control 113 controla la unidad de filtrado 115 y la unidad de selección 112.
En este caso, la unidad de transformada ortogonal 102 y la unidad de cuantificación 103 son ejemplos de unidades de transformada y de cuantificación que generan un coeficiente de cuantificación realizando transformada y cuantificación en la señal residual. Además, la unidad de codificación de longitud variable 111 es un ejemplo de una
5
10
15
20
25
30
35
40
45
50
unidad de codificación que codifica el coeficiente cuantificado para generar una señal codificada. Dicho de otro modo, la unidad de cuantificación inversa 104 y la unidad de transformada ortogonal inversa 105 son ejemplos de una unidad de cuantificación inversa y una unidad de transformada inversa que generan una señal residual decodificada realizando cuantificación inversa y transformada inversa en el coeficiente cuantificado.
En este caso, elementos especialmente principales del aparato de codificación de imágenes en movimiento 100 según esta realización son la unidad de control 113 y la unidad de filtrado 115.
Tal como se describió anteriormente, el método de filtrado según esta realización se ejecuta como partes de los procedimientos de codificación y los procedimientos de decodificación. Por consiguiente, la unidad de filtrado 115 está ubicada antes de la memoria 109 para contener imágenes de referencia, etc. La unidad de filtrado 115 almacena, en la memoria 109 en los bucles, el resultado de ejecutar el filtrado (o el resultado de omitir el filtrado). Con respecto a esto, la unidad de filtrado 115 es la misma que un filtro denominado filtro de bucle en la norma H.264.
Además, la unidad de filtrado 115 tiene dos líneas de entrada. Una primera de las señales de entrada es una señal de imagen decodificada 126 que representa los valores de pixel del bloque distinto de IPCM, y una segunda de las señales de entrada es una señal de imagen de entrada 120 que representa los valores de pixel del bloque de IPCM. En este caso, la señal de imagen decodificada 126 es una señal de imagen codificada reconstruida tras someterse a transformada, cuantificación, cuantificación inversa y transformada inversa. Además, la señal de imagen de entrada 120 es la señal de imagen original que no se somete a codificación y decodificación.
Bajo el control de la unidad de control 113, la unidad de filtrado 115 emite los valores de pixel originales sin filtrar del bloque de IPCM y filtra los valores de pixel del bloque distinto de IPCM y emite los valores filtrados.
Esta unidad de filtrado 115 incluye una unidad de filtro 107 y una unidad de selección 108. La unidad de filtro 107 filtra la señal de imagen decodificada 126 para generar una señal de imagen 127. La unidad de selección 108 selecciona la señal de imagen 127 cuando un bloque actual es un bloque de IPCM, y selecciona una señal de imagen de entrada 120 cuando un bloque actual es un bloque distinto de IPCM y después emite la señal seleccionada como señal de imagen 128.
Cada una de las figuras 7A y 7B es una ilustración de un ejemplo de píxeles a través de un límite entre dos bloques. En el ejemplo mostrado en la figura 7A, los dos bloques están adyacentes entre sí en la dirección horizontal. En este caso, el bloque que incluye los píxeles p0 a pn en el lado izquierdo se denomina primer bloque. Este primer bloque es un bloque distinto de IPCM. Además, el otro bloque se denomina segundo bloque. Este segundo bloque es un bloque de IPCM. En este caso, tal como se muestra en la figura 7B, el filtrado en esta realización puede aplicarse de manera natural en el caso en el que un bloque de IPCM y un bloque distinto de IPCM están adyacentes entre sí en la dirección vertical.
A continuación en el presente documento, se facilita una descripción de un ejemplo específico de operaciones por la unidad de filtrado 115.
Cada una de la figura 8A y la figura 8B es una ilustración de operaciones realizadas por la unidad de filtrado 115 en el caso de filtrar píxeles p [i] y q [j] incluidos en los dos bloques ilustrados en la figura 7A. Dicho de otro modo, el primer bloque pertenece al bloque distinto de IPCM y el segundo bloque es el bloque de IPCM.
La unidad de filtrado 115 realiza operaciones mostradas en la figura 8A y la figura 8B según una señal de control procedente de la unidad de control 113.
La figura 8A es una ilustración de una operación por la unidad de filtrado 115 en el bloque distinto de IPCM. Esta operación corresponde a la etapa S204 mostrada en la figura 5. Dicho de otro modo, la unidad de filtrado 115 calcula resultados de salida pf0, pf1,... de los píxeles correspondientes al primer bloque, usando tanto los valores de pixel (p0, p1,...) del primer bloque como los valores de pixel (q0, q1,...) del segundo bloque.
La figura 8B es una ilustración de operaciones por la unidad de filtrado 115 en el bloque de IPCM. Esta operación corresponde a la etapa S205 mostrada en la figura 5. Dicho de otro modo, la unidad de filtrado 115 emite los mismos valores (valores de pixel sin filtrar) que los valores de entrada q0, q 1 y q2, para los píxeles del segundo bloque.
A continuación en el presente documento, se facilita una descripción de un aparato de decodificación de imágenes en movimiento que realiza el método de filtrado.
La figura 9 es un diagrama de bloques funcional de un aparato de decodificación de imágenes en movimiento según esta realización.
El aparato de decodificación de imágenes en movimiento 200 mostrado en la figura 9 decodifica el flujo de bits codificado 232 para generar una señal de imagen de salida 220. En este caso, el flujo de bits codificado 232 es, por ejemplo, un flujo de bits codificado 132 generado por el aparato de codificación de imágenes en movimiento 100.
Este aparato de decodificación de imágenes en movimiento 200 comprende una unidad de cuantificación inversa
5
10
15
20
25
30
35
40
45
50
204, una unidad de transformada ortogonal inversa 205, un sumador 206, una unidad de filtrado 215, una memoria 209, una unidad de predicción 210, una unidad de decodificación de longitud variable 211, una unidad de distribución 212 y una unidad de control 231.
La unidad de distribución 212 suministra el flujo de bits codificado 232 a la unidad de filtrado 215 cuando un bloque actual es un bloque de IPCM, y suministra el flujo de bits codificado 232 a la unidad de decodificación de longitud variable 211 cuando un bloque actual es un bloque distinto de IPCM.
La unidad de decodificación de longitud variable 211 realiza la decodificación de longitud variable (decodificación de entropía) en el flujo de bits codificado 232 para generar un coeficiente cuantificado 223.
La unidad de cuantificación inversa 204 realiza la cuantificación inversa en el coeficiente de transformada 223 para generar el coeficiente de transformada 224. La unidad de transformada ortogonal inversa 205 realiza la transformada ortogonal inversa en el coeficiente de transformada 224 para generar una señal residual decodificada 225. El sumador 206 suma la señal residual decodificada 225 y la señal de imagen de predicción 230 para generar una señal de imagen decodificada 226.
La unidad de filtrado 215 filtra la señal de imagen decodificada 226 para generar una señal de imagen 228 y almacena la señal de imagen generada 228 en la memoria 209.
Esta unidad de filtrado 215 incluye una unidad de filtro 207 y una unidad de selección 208. La unidad de filtro 207 filtra la señal de imagen decodificada 226 para generar una señal de imagen 227. La unidad de selección 208 selecciona la señal de imagen 227 cuando un bloque actual es un bloque de IPCM, y selecciona una señal de imagen de entrada 232 cuando un bloque actual es un bloque distinto de IPCM y después emite la señal seleccionada como señal de imagen 228.
Además, la señal de imagen 228 almacenada en la memoria 209 se emite como señal de imagen de salida 220.
La unidad de predicción 210 realiza selectivamente la intrapredicción y la interpredicción usando la señal de imagen 228 almacenada en la memoria 209 para generar una señal de imagen de predicción 230.
La unidad de control 213 controla la unidad de filtrado 215 y la unidad de distribución 212.
En este caso, la unidad de decodificación de longitud variable 211 es un ejemplo de una unidad de decodificación que decodifica el flujo de bits codificado para generar un coeficiente cuantificado. Dicho de otro modo, la unidad de cuantificación inversa 204 y la unidad de transformada ortogonal inversa 205 son ejemplos de una unidad de cuantificación inversa y una unidad de transformada inversa que generan una señal residual decodificada mediante la realización de cuantificación inversa y transformada inversa en el coeficiente cuantificado.
En este caso, las operaciones por la unidad de filtrado 215 son las mismas que las operaciones por la unidad de filtrado 115 del aparato de codificación de imágenes en movimiento 100. La unidad de control 213 es diferente de la unidad de control 113 incluida en el aparato de codificación de imágenes en movimiento 100 en el punto de determinar si el tipo de unidad PU del primer bloque o el segundo bloque es IPCM o no a partir del flujo de bits codificado 232 que es una cadena codificada de entrada, pero es igual en cuanto a las demás funciones.
A continuación en el presente documento, se facilitan descripciones de estructuras de variaciones de las unidades de filtrado 115 y 215.
Cada una de la figura 10A a la figura 10H es una ilustración de una implementación concebible referente a una relación de entrada-salida de filtro de las unidades de filtrado 115 y 215.
Tal como se muestra en la figura 10A, cada de las unidades de filtro 107 y 207 puede incluir unidades de filtro 301 y 302 conectadas en serie. Por ejemplo, la primera unidad de filtro 301 y la segunda unidad de filtro 302 pueden realizar procedimientos diferentes. En este caso, por ejemplo, se evitan los procedimientos de filtrado completos para el bloque de IPCM.
Tal como se muestra en la figura 10B, la unidad de filtro 311 puede realizar el filtrado usando ambas señales de entrada. En este caso, la unidad de selección 312 emite valores sin filtrar para el bloque de IPCM, y la unidad de filtro 311 emite valores filtrados para el bloque distinto de IPCM.
Tal como se muestra en la figura 10C, también es adecuado realizar procedimientos de filtrado diferentes entre el bloque de IPCM y el bloque distinto de IPCM. Por ejemplo, procedimientos de filtrado diferentes pueden ser procedimientos de filtrado que usan intensidades de filtro diferentes. Además, por ejemplo, la intensidad de filtro para el bloque de IPCM puede ser inferior a la intensidad de filtro para el bloque distinto de IPCM.
Más específicamente, la unidad de distribución 321 emite la señal de entrada a la unidad de filtro 322 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de filtro 323 cuando un bloque actual es un bloque de IPCM. En este caso, las señales de entrada incluyen tanto la señal de imagen decodificada 126 como la señal de imagen de entrada 120. La unidad de filtro 322 realiza el filtrado de una primera intensidad de
5
10
15
20
25
30
35
40
45
50
55
filtro usando la señal de entrada para generar valores de pixel del bloque actual. La unidad de filtro 322 realiza el filtrado usando una segunda intensidad de filtro inferior a la primera intensidad de filtro para generar valores de pixel del bloque actual. La unidad de selección 324 emite los valores de pixel del bloque actual filtrado por la unidad de filtro 322 cuando el bloque actual es un bloque distinto de IPCM, y emite los valores de pixel del bloque actual filtrado por la unidad de filtro 323 cuando el bloque actual es el bloque de IPCM.
Tal como se muestra en la figura 10D, no siempre necesita realizarse el procesamiento en el bloque de IPCM. Más específicamente, la unidad de distribución 331 emite la señal de entrada a la unidad de filtro 332 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de selección 333 cuando un bloque actual es un bloque de IPCM. La unidad de selección 333 emite los valores de pixel del bloque actual filtrado por la unidad de filtro 332 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de pixel del bloque actual en la señal procedente la unidad de filtro 331 cuando el bloque actual es el bloque de IPCM.
Tal como se muestra en la figura 10E, es posible conmutar lados de entrada de unidades de filtro en lugar de conmutar lados de salida de las unidades de filtro. Además, los números de las fases de unidades de filtro son diferentes entre un bloque de IPCM y un bloque distinto de IPCM. Más específicamente, la unidad de distribución
341 emite la señal de entrada a la unidad de filtro 342 cuando un bloque actual es un bloque distinto de IPCM, y emite la señal de entrada a la unidad de filtro 344 cuando un bloque actual es un bloque de IPCM. La unidad de filtro
342 realiza el filtrado usando la señal de entrada. La unidad de filtro 343 realiza el filtrado usando la señal filtrada por la unidad de filtro 342, y emite los valores de pixel del bloque filtrado actual. La unidad de filtro 344 realiza el filtrado usando la señal de entrada y emite los valores de pixel del bloque filtrado actual. En este caso, el filtrado realizado por la unidad de filtro 344 puede ser igual o diferente del filtrado realizado por la unidad de filtro 342 y el filtrado realizado por la unidad de filtro 343.
Tal como se muestra en la figura 10F, es posible conmutar los lados de salida de las unidades de filtro. Más específicamente, la unidad de filtro 351 realiza el filtrado usando la primera señal de entrada. La unidad de filtro 352 realiza el filtrado usando la señal filtrada por la unidad de filtro 351, y emite los valores de pixel del bloque filtrado actual. La unidad de filtro 353 realiza el filtrado usando la segunda señal de entrada, y emite los valores de pixel del bloque filtrado actual. La unidad de selección 354 emite los valores de pixel del bloque actual filtrado por la unidad de filtro 352 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de pixel del bloque actual filtrado por la unidad de filtro 353 cuando el bloque actual es el bloque de IPCM.
En este caso, emitir un valor sin filtrar implica sustituir un valor de pixel resultante del filtrado por el valor de entrada original p y emitir el valor de sustitución.
Tal como se muestra en la figura 10G, es posible usar una señal filtrada en una de dos líneas en el filtrado que se realiza en la otra línea. Más específicamente, la unidad de filtro 361 realiza el filtrado usando la segunda señal de entrada. La unidad de filtro 362 realiza el filtrado usando la primera señal de entrada y una señal filtrada por la unidad de filtro 361. La unidad de selección 363 emite los valores de pixel del bloque actual filtrado por la unidad de filtro 362 cuando el bloque actual es el bloque distinto de IPCM, y emite los valores de pixel del bloque actual filtrado por la unidad de filtro 361 cuando el bloque actual es el bloque de IPCM. La unidad de selección 363 puede emitir los valores de pixel del bloque actual filtrado por la unidad de filtro 362 cuando el bloque actual es el bloque de IPCM, y emite los valores de pixel del bloque actual filtrado por la unidad de filtro 361 cuando el bloque actual es el bloque distinto de IPCM.
Tal como se muestra en la figura 10H, puede usarse como entrada un valor almacenado una vez en la memoria 373. Más específicamente, la unidad de selección 371 selecciona una de la señal de entrada y la señal almacenada en la memoria 373. La unidad de filtro 372 realiza el filtrado usando la señal seleccionada por la unidad de selección 371.
Estos son ejemplos y, por tanto, sólo es necesario que la unidad de filtrado 115 según esta realización ejerza una función de “emitir finalmente valores sin filtrar para los píxeles en un bloque de IPCM”.
A continuación en el presente documento, se facilita una descripción de una versión modificada de un método de filtrado según la presente invención. La figura 11 es un diagrama de flujo de operaciones en la versión modificada del método de filtrado según esta realización.
Se ha descrito que se aplica filtrado al bloque distinto de IPCM en la etapa S204 de la figura 5 y se emiten valores de pixel sin filtrar del bloque de IPCM en la etapa S205 de la figura 5. Sin embargo, estos procedimientos pueden realizarse en las etapas indicadas a continuación. Por ejemplo, es posible realizar los procedimientos mostrados en la figura 11 en lugar de las etapas S204 y S205 mostradas en la figura 5.
En primer lugar, se obtienen valores de pixel de un primer bloque (bloque [0]) y un segundo bloque (bloque [1]) adyacentes entre sí (S221). En este caso, por ejemplo, el primer bloque es un bloque distinto de IPCM y el segundo bloque es un bloque de IPCM.
A continuación, se derivan una intensidad de filtro bS [0] que se aplica al primer bloque y una intensidad de filtro bS [1] que se aplica al segundo bloque (S222 y S223). En este caso, la intensidad de filtro bS [0] y la intensidad de filtro bS [1] muestran intensidades diferentes. En la técnica convencional, sólo se establece una intensidad de filtro para
5
10
15
20
25
30
35
40
45
50
un límite de bloque. Por ejemplo, en esta realización, la intensidad de filtro para el bloque de IPCM se establece
inferior a la intensidad de filtro para el bloque distinto de IPCM.
A continuación, se filtran ambos bloques usando la intensidad de filtro bS [0] y se emiten los valores de pixel del primer bloque tras el filtrado (S224). A continuación, se filtran ambos bloques usando la intensidad de filtro bS [1] y se emiten los valores de pixel del segundo bloque tras el filtrado (S225).
En este caso, es posible controlar la aplicación o no aplicación de filtrado estableciendo el valor de la intensidad de filtro a 0. Dicho de otro modo, también es adecuado derivar para cada uno de los bloques un indicador (indicador de muestras de filtro) para controlar la aplicación o no aplicación de filtrado.
Tal como se describió anteriormente, el método de filtrado según esta realización hace posible ejecutar el filtrado en uno de los bloques usando la primera intensidad de filtro y ejecutar el filtrado en el otro bloque usando la segunda
intensidad de filtro. Además, el método de filtrado hace posible realizar tal procesamiento en procedimientos de
filtrado.
La figura 12 es un diagrama de flujo de operaciones en una variación del método de filtrado según esta realización. Los procedimientos mostrados en la figura 12 incluyen además la etapa S401, además de los procedimientos mostrados en la figura 3.
Esta etapa S401 se añade para proporcionar una intensidad de filtro apropiada a un bloque de IPCM que se determina de manera inevitable que es un bloque que se somete a intrapredicción. En la etapa S401, se realiza una determinación en cuanto a si al menos uno del primer bloque y el segundo bloque es un bloque de IPCM o no. Cuando al menos uno del primer bloque y el segundo bloque es el bloque de IPCM (Sí en la etapa S401), se determina una intensidad de filtro (bS) mediante uno de 3, 2, 1 y 0 que es menor que N (= 4) (S124). Además, cuando tanto el primer bloque como el segundo bloque son bloques distintos de IPCM (No en la etapa S401), la intensidad de filtro se establece a bS = N, lo que significa la mayor intensidad (S123).
En el caso del método de filtrado mostrado en la figura 3, cuando uno o ambos de los bloques es un macrobloque codificado usando el modo de intrapredicción (Sí en la etapa S122), la intensidad de filtro en sí misma se establece siempre para ser bS = 4, lo que significa la mayor intensidad sin tener en cuenta ningún otro factor de determinación.
Por otro lado, en el caso de esta variación de la realización mostrada en la figura 12, cuando uno o ambos de los bloques es un macrobloque codificado usando el modo de intrapredicción (Sí en la etapa S122) y cuando uno de los bloques es un bloque de IPCM (Sí en la etapa S401), se establece una intensidad de filtro (bS = de 0 a 3) inferior a la intensidad de filtro (bS = 4) establecida en la etapa S123.
La figura 13 es una ilustración de intensidades de filtro determinadas usando el método de filtrado según esta realización y unidades de bloque que definen un límite.
Tal como se muestra en la figura 13, cuando un macrobloque MB [0] es un macrobloque codificado usando el modo de interpredicción y un macrobloque MB [1] es un macrobloque codificado usando el modo de intrapredicción (Sí en la etapa S122) y cuando tanto el primer como el segundo bloques son bloques distintos de IPCM (No en la etapa S401), se establece bS = 4 para ambos bloques (S123).
Por otro lado, cuando se codifica un bloque de PU [0] usando un modo distinto de IPCM y un bloque de PU [1] se codifica usando un modo de IPCM, es decir, cuando un bloque de CU [0] es un bloque distinto de IPCM y un bloque de CU [1] es un bloque de IPCM (Sí en la etapa S401), se establece bS = uno cualquiera de 0 a 3 para cada uno del bloque de CU [0] y el bloque de CU [1]. En este ejemplo, se establece bS = 0 para el bloque de CU [1] que es un bloque de IPCM, y se establece bS = uno cualquiera de 1 a 3 para el bloque de CU [0] que es un bloque distinto de IPCM.
Cada una de la figura 14A y la figura 14B es una ilustración de un estado en el que un intervalo de aplicación de un indicador que indica que un filtro está activado se extiende manipulando un bloque de IPCM según esta realización. La figura 14A muestra, como ejemplo de comparación, un caso de no aplicar un enfoque en esta realización. La figura 14B muestra un caso de aplicar un enfoque en esta realización.
Tal como se muestra en la figura 14B, es posible extender el intervalo de aplicación del indicador que indica que un filtro está activado usando el método de filtrado según esta realización.
Tal como se describió anteriormente, el método de filtrado según esta realización emplea, para la determinación, una regla de interpretación de código implícita de que la unidad de filtrado o la unidad de control “no filtre un bloque de IPCM” en el filtrado en bucle. De esta manera, tal como se muestra en la figura 14A y la figura 14B, es posible especificar si se habilita o se deshabilita un filtro para una cadena codificada en un intervalo mayor. De esta manera, el método de filtrado según esta realización reduce la cantidad de bits.
Anteriormente se han descrito los métodos de filtrado, aparatos de codificación de imágenes en movimiento y aparatos de decodificación de imágenes en movimiento según las realizaciones de la presente invención, pero la
5
10
15
20
25
30
35
40
45
50
55
presente invención no está limitada a estas realizaciones.
Por ejemplo, también es posible combinar al menos partes de funciones de los métodos de filtrado, aparatos de codificación de imágenes en movimiento, aparatos de decodificación de imágenes en movimiento según las realizaciones y las variaciones de las mismas.
Además, la división de bloques funcionales en cada uno de los diagramas de bloques es a modo de ejemplo. También es posible implementar algunos de los bloques funcionales como un bloque funcional, dividir un bloque funcional en diversos bloques y/o mover parte de la(s) función/funciones a cualquiera de los bloques funcionales. Además, las funciones de los diversos bloques funcionales que tienen funciones similares entre sí pueden ejercerse en paralelo o en división de tiempo mediante hardware o software.
Además, el orden de ejecución de las diversas etapas de cada uno de los métodos de filtrado se proporciona como ejemplo para explicar de manera específica la presente invención, y por tanto también son posibles otros órdenes. Además, parte de las etapas pueden ejecutarse de manera simultánea (en paralelo) con cualquiera de las otras etapas.
Por ejemplo, el orden de las etapas S201 y S202 mostrado en la figura 5 no está limitado al orden descrito. Dicho de otro modo, sólo es necesario que las etapas S204 y S205 se ejecuten como resultado cuando “uno de dos bloques a través de un límite está incluido en un bloque de IPCM y el otro no está incluido en un bloque de IPCM”. Además, el orden de las etapas S204 y S205 también puede ser arbitrario.
Asimismo, el orden de las etapas S222 a S225 mostrado en la figura 11 no está limitado al orden descrito. Más específicamente, el orden de las etapas S222 a S225 puede ser arbitrario siempre que la etapa S224 vaya tras la etapa S222 y la etapa S225 vaya tras la etapa S223.
(Realización 2)
El procesamiento descrito en cada una de las realizaciones puede implementarse simplemente en un sistema informático independiente, grabando, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de imágenes en movimiento (método de codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las realizaciones. Los medios de grabación pueden ser cualquier medio de grabación siempre que pueda grabarse el programa, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta de IC y una memoria de semiconductor.
A continuación en el presente documento, se describirán las aplicaciones al método de codificación de imágenes en movimiento (método de codificación de imágenes) y al método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritas en cada una de las realizaciones y sistemas que usan los mismos. El sistema tiene una característica de tener un aparato de codificación y decodificación de imágenes que incluye un aparato de codificación de imágenes que usa el método de codificación de imágenes y un aparato de decodificación de imágenes que usa el método de decodificación de imágenes. Otras configuraciones en el sistema pueden cambiarse según sea apropiado dependiendo de los casos.
La figura 15 ilustra una configuración global de un sistema de provisión de contenido ex100 para implementar servicios de distribución de contenido. El área para proporcionar servicios de comunicación está dividida en células de tamaño deseado, y se colocan estaciones base ex106, ex107, ex108, ex109 y ex110 que son estaciones inalámbricas fijas en cada una de las células.
El sistema de provisión de contenido ex100 está conectado a dispositivos, tales como un ordenador ex111, un asistente digital personal (PDA) ex112, una cámara ex113, un teléfono celular ex114 y una consola de videojuegos ex115, a través de Internet ex101, un proveedor de servicios de Internet ex102, una red telefónica ex104, así como las estaciones base ex106 a ex110, respectivamente.
Sin embargo, la configuración del sistema de provisión de contenido ex100 no está limitada a la configuración mostrada en la figura 15 y resulta aceptable una combinación en la que cualquiera de los elementos estén conectados. Además, cada dispositivo puede estar directamente conectado a la red telefónica ex104, en vez de a través de las estaciones base ex106 a ex110 que son estaciones inalámbricas fijas. Además, los dispositivos pueden estar interconectados entre sí a través de una comunicación inalámbrica de corta distancia y otros.
La cámara ex113, tal como una cámara de vídeo digital, puede captar vídeo. Una cámara ex116, tal como una cámara de vídeo digital, puede captar tanto imágenes fijas como vídeo. Además, el teléfono celular ex114 puede ser el que cumple cualquiera de la normas tales como sistema global para comunicaciones móviles (GSM) (marca registrada), acceso múltiple por división de código (CDMA), acceso múltiple por división de código de banda ancha (W-CDMA), evolución a largo plazo (LTE) y acceso de paquetes a alta velocidad (HSPA). Alternativamente, el teléfono celular ex114 puede ser un sistema de teléfonos personales (PHS).
En el sistema de provisión de contenido ex100, un servidor de emisión en continuo ex103 está conectado a la
5
10
15
20
25
30
35
40
45
50
55
60
cámara ex113 y otros a través de la red telefónica ex104 y la estación base ex109, lo que habilita la distribución de imágenes de un espectáculo en directo y otros. En una distribución de este tipo, el contenido (por ejemplo, vídeo de un espectáculo musical en directo) captado por el usuario que usa la cámara ex113 se codifica tal como se describió anteriormente en cada una de las realizaciones (es decir, la cámara funciona como aparato de codificación de imágenes en la presente invención) y el contenido codificado se transmite al servidor de emisión en continuo ex103. Por otro lado, el servidor de emisión en continuo ex103 lleva a cabo la distribución de flujo de los datos de contenido transmitidos a los clientes tras sus peticiones. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono celular ex114 y la consola de videojuegos ex115 que pueden decodificar los datos codificados mencionados anteriormente. Cada uno de los dispositivos que han recibido los datos distribuidos decodifica y reproduce los datos codificados (es decir, funciona como aparato de decodificación de imágenes en la presente invención).
Los datos captados pueden codificarse por la cámara ex113 o el servidor de emisión en continuo ex103 que transmite los datos, o los procedimientos de codificación pueden compartirse entre la cámara ex113 y el servidor de emisión en continuo ex103. De manera similar, los datos distribuidos pueden codificarse por los clientes o el servidor de emisión en continuo ex103, o los procedimientos de decodificación pueden compartirse entre los clientes y el servidor de emisión en continuo ex103. Además, los datos de las imágenes fijas y el vídeo captados no sólo por la cámara ex113 sino también por la cámara ex116 pueden transmitirse al servidor de emisión en continuo ex103 a través del ordenador ex111. Los procedimientos de codificación pueden realizarse por la cámara ex116, el ordenador ex111 o el servidor de emisión en continuo ex103, o compartirse entre ellos.
Además, los procedimientos de codificación y de decodificación pueden realizarse por un LSI ex500 incluido generalmente en cada uno del ordenador ex111 y los dispositivos. El LSI ex500 puede estar configurado por un único chip o una pluralidad de chips. Puede integrarse software para codificar y decodificar vídeo en algún tipo de medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que puede leerse por el ordenador ex111 y otros, y los procedimientos de codificación y de decodificación pueden realizarse usando el software. Además, cuando el teléfono celular ex114 está equipado con una cámara, los datos de imagen obtenidos por la cámara pueden transmitirse. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono celular ex114.
Además, el servidor de emisión en continuo ex103 puede estar compuesto por servidores y ordenadores, y puede descentralizar los datos y procesar los datos descentralizados, grabar o distribuir datos.
Tal como se describió anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema de provisión de contenido ex100. Dicho de otro modo, los clientes pueden recibir y decodificar información transmitida por el usuario, y reproducir los datos decodificados en tiempo real en el sistema de provisión de contenido ex100, de modo que el usuario que no tiene ningún derecho ni equipos particulares puede implementar una radiodifusión personal.
Aparte del ejemplo del sistema de provisión de contenido ex100, al menos uno del aparato de codificación de imágenes en movimiento (aparato de codificación de imágenes) y el aparato de decodificación de imágenes en movimiento (aparato de decodificación de imágenes) descritos en cada una de las realizaciones puede implementarse en un sistema de radiodifusión digital ex200 ilustrado en la figura 16. Más específicamente, una estación de radiodifusión ex201 comunica o transmite, a través de ondas de radio a un satélite de radiodifusión ex202, datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo. Los datos de vídeo son datos codificados mediante el método de codificación de imágenes en movimiento descrito en cada una de las realizaciones (es decir, datos codificados por el aparato de codificación de imágenes en la presente invención). Tras recibir los datos multiplexados, el satélite de radiodifusión ex202 transmite ondas de radio para su radiodifusión. Después, una antena de uso doméstico ex204 con una función de recepción de radiodifusión de satélite recibe las ondas de radio. A continuación, un dispositivo tal como una televisión (receptor) ex300 y un descodificador (STB) ex217 decodifica los datos multiplexados recibidos y reproduce los datos decodificados (es decir, funciona como aparato de codificación de imágenes en la presente invención).
Además, un lector/grabador ex218 (i) lee y decodifica los datos multiplexados grabados en unos medios de grabación ex215, tales como un DVD y un bD, o (i) codifica señales de vídeo en el medio de grabación ex215, y en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de decodificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento tal como se muestra en cada una de las realizaciones. En este caso, las señales de vídeo reproducidas se visualizan en el monitor ex219 y pueden reproducirse por otro dispositivo o sistema usando el medio de grabación ex215 en el que están grabados los datos multiplexados. También es posible implementar el aparato de decodificación de imágenes en movimiento en el descodificador ex217 conectado al cable ex203 para una televisión por cable o a la antena ex204 para una radiodifusión por satélite y/o terrestre, para visualizar las señales de vídeo en el monitor ex219 de la televisión ex300. El aparato de decodificación de imágenes en movimiento puede implementarse no en el descodificador sino en la televisión ex300.
La figura 17 ilustra la televisión (receptor) ex300 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en cada una de las realizaciones. La televisión
5
10
15
20
25
30
35
40
45
50
55
60
ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo, a través de la antena ex204 o el cable ex203, etc., que recibe una radiodifusión; una unidad de modulación/demodulación ex302 que demodula los datos multiplexados recibidos o modula datos para dar datos multiplexados que van a suministrarse al exterior; y una unidad de multiplexado/demultiplexado ex303 que demultiplexa los datos multiplexados modulados para dar datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señales ex306 para dar datos.
La televisión ex300 incluye además: una unidad de procesamiento de señales ex306 que incluye una unidad de procesamiento de señales de audio ex304 y una unidad de procesamiento de señales de vídeo ex305 que decodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente (que funcionan como aparato de codificación de imágenes y aparato de decodificación de imágenes); y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio decodificada, y una unidad de visualización ex308 que visualiza la señal de vídeo decodificada, tal como una pantalla. Además, la televisión ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla de manera global cada elemento constituyente de la televisión ex300, y una unidad de circuito de suministro de potencia ex311 que suministra potencia a cada uno de los elementos. Aparte de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir: un puente ex313 que está conectado a un dispositivo externo, tal como el lector/grabador ex218; una unidad de ranura ex314 para habilitar el acoplamiento del medio de grabación ex216, tal como una tarjeta SD; un controlador ex315 para conectarse a un medio de grabación externo, tal como un disco duro; y un módem ex316 que va a conectarse a una red telefónica. En este caso, el medio de grabación ex216 puede grabar eléctricamente información usando un elemento de memoria de semiconductor no volátil/volátil para el almacenamiento. Los elementos constituyentes de la televisión ex300 están conectados entre sí a través de un bus síncrono.
En primer lugar, se describirá la configuración en la que la televisión ex300 decodifica datos multiplexados obtenidos del exterior a través de la antena ex204 y otros y reproduce los datos decodificados. En la televisión ex300, tras una operación de usuario a través de un mando a distancia ex220 y otros, la unidad de multiplexado/demultiplexado ex303 demultiplexa los datos multiplexados demodulados por la unidad de modulación/demodulación ex302, bajo el control de la unidad de control ex310 que incluye una cPu. Además, la unidad de procesamiento de señales de audio ex304 decodifica los datos de audio demultiplexados, y la unidad de procesamiento de señales de vídeo ex305 decodifica los datos de vídeo demultiplexados, usando el método de decodificación descrito en cada una de las realizaciones, en la televisión ex300. La unidad de salida ex309 proporciona la señal de vídeo y señal de audio decodificadas al exterior, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en memorias intermedias ex318 y ex319, y otros de modo que las señales se reproducen de manera sincronizada entre sí. Además, la televisión ex300 puede leer datos multiplexados no a través de radiodifusión y otros sino a partir de los medios de grabación ex215 y ex216, tales como un disco magnético, un disco óptico y una tarjeta SD. A continuación, se describirá una configuración en la que la televisión ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, tras una operación de usuario a través del mando a distancia ex220 y otros, la unidad de procesamiento de señales de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señales de vídeo ex305 codifica una señal de vídeo, bajo el control de la unidad de control ex310 usando el método de codificación descrito en cada una de las realizaciones. La unidad de multiplexado/demultiplexado ex303 multiplexa la señal de vídeo y señal de audio codificadas, y proporciona la señal resultante al exterior. Cuando la unidad de multiplexado/demultiplexado ex303 multiplexa la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex320 y ex321, y otros de modo que las señales se reproducen de manera sincronizada entre sí. En este caso, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser varias tal como se ilustra, o al menos una memoria intermedia puede compartirse en la televisión ex300. Además, pueden almacenarse datos en una memoria intermedia de modo que puede evitarse el desbordamiento y subdesbordamiento del sistema entre la unidad de modulación/demodulación ex302 y la unidad de multiplexado/demultiplexado ex303, por ejemplo.
Además, la televisión ex300 puede incluir una configuración para recibir una entrada de AV a partir de un micrófono o una cámara distinta de la configuración para obtener datos de audio y vídeo a partir de una radiodifusión o un medio de grabación, y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar y proporcionar datos externos en la descripción, es posible que sólo pueda recibir, decodificar y proporcionar datos externos pero no codificar, multiplexar y proporcionar datos externos.
Además, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o en un medio de grabación, uno de la televisión ex300 y el lector/grabador ex218 puede decodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabador ex218 pueden compartir la decodificación o codificación.
Como ejemplo, la figura 18 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando se leen o escriben datos desde o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407 que van a describirse a continuación en el presente documento. El cabezal óptico ex401 irradia un punto de láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información, y detecta luz reflejada de
5
10
15
20
25
30
35
40
45
50
55
60
la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 acciona eléctricamente un láser semiconductor incluido en el cabezal óptico ex401, y modula la luz láser según los datos grabados. La unidad de demodulación de reproducción ex403 amplifica una señal de reproducción obtenida detectando eléctricamente la luz reflejada de la superficie de grabación usando un fotodetector incluido en el cabezal óptico ex401, y demodula la señal de reproducción separando una componente de señal grabada en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 contiene temporalmente la información que va a grabarse en el medio de grabación ex215 y la información reproducida a partir del medio de grabación ex215. El motor de disco ex405 hace rotar el medio de grabación ex215. La unidad de servocontrol ex406 mueve el cabezal óptico ex401 a una pista de información predeterminada mientras se controla el controlador de rotación del motor de disco ex405 de modo que se sigue el punto de láser. La unidad de control de sistema ex407 controla de manera global la unidad de reproducción/grabación de información ex400. Los procedimientos de lectura y escritura pueden implementarse por la unidad de control de sistema ex407 usando diversa información almacenada en la memoria intermedia ex404 y generando y añadiendo nueva información según sea necesario, y por la unidad de grabación de modulación ex402, la unidad de demodulación de reproducción ex403 y la unidad de servocontrol ex406 que graban y reproducen información a través del cabezal óptico ex401 mientras se hacen funcionar de una manera coordinada. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento haciendo que un ordenador ejecute un programa para leer y escribir.
Aunque el cabezal óptico ex401 irradia un punto de láser en la descripción, puede realizar una lectura de alta densidad usando luz de campo cercano.
La figura 19 ilustra el medio de grabación ex215 que es el disco óptico. Sobre la superficie de grabación del medio de grabación ex215, se forman en espiral surcos de guiado, y una pista de información ex230 graba, por adelantado, información de dirección que indica una posición absoluta en el disco según un cambio en la forma de los surcos de guiado. La información de dirección incluye información para determinar posiciones de bloques de grabación ex231 que son una unidad para grabar datos. La reproducción de la pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce datos pueden conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interior ex232 y un área de circunferencia exterior ex234. El área de grabación de datos ex233 es un área para su uso en la grabación de los datos de usuario. El área de circunferencia interior ex232 y el área de circunferencia exterior ex234 que están dentro y fuera del área de grabación de datos ex233, respectivamente, son para uso específico excepto para la grabación de datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe audio codificado, datos de vídeo codificados o datos multiplexados obtenidos multiplexando los datos de audio y de vídeo codificados, de y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque se describe un disco óptico que tiene una capa, tal como un DVD y un BD, como ejemplo en la descripción, el disco óptico no está limitado al mismo, y puede ser un disco óptico que tiene una estructura de múltiples capas y que puede grabarse en una parte distinta de la superficie. Además, el disco óptico puede tener una estructura para la grabación/reproducción multidimensional, tal como grabación de información usando luz de colores con diferentes longitudes de onda en la misma parte del disco óptico y para la grabación de información que tiene diferentes capas desde diversos ángulos.
Además, un coche ex210 que tiene una antena ex205 puede recibir datos desde el satélite ex202 y otros, y reproducir vídeo en un dispositivo de visualización tal como un sistema de navegación de coche ex211 ajustado en el coche ex210, en el sistema de radiodifusión digital ex200. En este caso, una configuración del sistema de navegación de coche ex211 será una configuración que incluye, por ejemplo, una unidad de recepción de GPS a partir de la configuración ilustrada en la figura 17. Lo mismo será cierto para la configuración del ordenador ex111, el teléfono celular ex114 y otros.
La figura 20A ilustra el teléfono celular ex114 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en las realizaciones. El teléfono celular ex114 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base ex110; una unidad de cámara ex365 que puede captar imágenes en movimiento y fijas; y una unidad de visualización ex358 tal como una pantalla de cristal líquido para visualizar los datos tales como vídeo decodificado captado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular ex114 incluye además: una unidad de cuerpo principal que incluye una unidad de teclas de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la emisión de audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar imágenes fijas o de vídeo captadas, audio grabado, datos codificados o decodificados del vídeo recibido, las imágenes fijas, correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de interfaz para un medio de grabación que almacena datos de la misma manera que la unidad de memoria ex367.
A continuación, se describirá un ejemplo de una configuración del teléfono celular ex114 con referencia a la figura 20B. En el teléfono celular ex114, una unidad de control principal ex360 diseñada para controlar de manera global cada unidad del cuerpo principal que incluye la unidad de visualización ex358 así como la unidad de teclas de
5
10
15
20
25
30
35
40
45
50
55
60
operación ex366 está conectada mutuamente, a través de un bus síncrono ex370, a una unidad de circuito de suministro de potencia ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señales de vídeo ex355, una unidad de interfaz de cámara ex363, una unidad de control de pantalla de cristal líquido (LCD) ex359, una unidad de modulación/demodulación ex352, una unidad de multiplexado/demultiplexado ex353, una unidad de procesamiento de señales de audio ex354, la unidad de ranura ex364 y la unidad de memoria ex367.
Cuando se activa una tecla de terminación de llamada o una tecla de encendido mediante la operación de un usuario, la unidad de circuito de suministro de potencia ex361 suministra a las unidades respectivas potencia desde una batería para activar el teléfono celular ex114.
En el teléfono celular ex114, la unidad de procesamiento de señales de audio ex354 convierte las señales de audio recopiladas por la unidad de entrada de audio ex356 en modo de conversación de voz en señales de audio digitales bajo el control de la unidad de control principal ex360 que incluye una CPU, ROM y RAM. Después, la unidad de modulación/demodulación ex352 realiza el procesamiento de espectro ensanchado en las señales de audio digitales, y la unidad de transmisión y recepción ex351 realiza una conversión de digital a analógico y la conversión de frecuencia en los datos, para transmitir los datos resultantes a través de la antena ex350. Además, en el teléfono celular ex114, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en modo de conversación de voz y realiza la conversión de frecuencia y la conversión de analógico a digital en los datos. Después, la unidad de modulación/demodulación ex352 realiza el procesamiento de espectro ensanchado inverso en los datos, y la unidad de procesamiento de señales de audio ex354 los convierte en señales de audio analógicas, para emitirlas mediante la unidad de salida de audio ex357.
Además, cuando se transmite un correo electrónico en modo de comunicación de datos, datos de texto del correo electrónico introducidos accionando la unidad de teclas de operación ex366 y otros del cuerpo principal se envían fuera de la unidad de control principal ex360 mediante la unidad de control de entrada de operación ex362. La unidad de control principal ex360 hace que la unidad de modulación/demodulación ex352 realice el procesamiento de espectro ensanchado en los datos de texto, y la unidad de transmisión y recepción ex351 realiza la conversión de digital a analógico y la conversión de frecuencia en los datos resultantes para transmitir los datos a la estación base ex110 mediante la antena ex350. Cuando se recibe un correo electrónico, se realiza un procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico en los datos recibidos, y se proporcionan los datos resultantes a la unidad de visualización ex358.
Cuando se transmiten vídeo, imágenes fijas, o vídeo y audio en modo de comunicación de datos, la unidad de procesamiento de señales de vídeo ex355 comprime y codifica señales de vídeo suministradas desde la unidad de cámara ex365 usando el método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como aparato de codificación de imágenes en la presente invención), y transmite los datos de vídeo codificados a la unidad de multiplexado/demultiplexado ex353. En cambio, cuando la unidad de cámara ex365 capta vídeo, imágenes fijas, y otros, la unidad de procesamiento de señales de audio ex354 codifica señales de audio recopiladas por la unidad de entrada de audio ex356 y transmite los datos de audio codificados a la unidad de multiplexado/demultiplexado ex353.
La unidad de multiplexado/demultiplexado ex353 multiplexa los datos de vídeo codificados suministrados desde la unidad de procesamiento de señales de vídeo ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señales de audio ex354, usando un método predeterminado. Después, la unidad de modulación/demodulación (unidad de circuito de modulación/demodulación) ex352 realiza el procesamiento de espectro ensanchado en los datos multiplexados, y la unidad de transmisión y recepción ex351 realiza la conversión de digital a analógico y la conversión de frecuencia en los datos para transmitir los datos resultantes mediante la antena ex350.
Cuando se reciben datos de un archivo de vídeo que está vinculado a una página web y otros en modo de comunicación de datos o cuando se recibe un correo electrónico con vídeo y/o audio adjuntos, con el fin de decodificar los datos multiplexados recibidos mediante la antena ex350, la unidad de multiplexado/demultiplexado ex353 demultiplexa los datos multiplexados para dar un flujo de bits de datos de vídeo y un flujo de bits de datos de audio, y suministra a la unidad de procesamiento de señales de vídeo ex355 los datos de vídeo codificados y a la unidad de procesamiento de señales de audio ex354 los datos de audio codificados, a través del bus síncrono ex370. La unidad de procesamiento de señales de vídeo ex355 decodifica la señal de vídeo usando un método de decodificación de imágenes en movimiento correspondiente al método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como aparato de decodificación de imágenes en la presente invención), y después la unidad de visualización ex358 visualiza, por ejemplo, las imágenes de vídeo y fijas incluidas en el archivo de vídeo vinculado a la página web mediante la unidad de control de LCD ex359. Además, la unidad de procesamiento de señales de audio ex354 decodifica la señal de audio y la unidad de salida de audio ex357 proporciona el audio.
Además, de manera similar a la televisión ex300, un terminal tal como el teléfono celular ex114 tiene probablemente 3 tipos de configuraciones de implementación que incluyen no sólo (i) un terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de decodificación, sino también (ii) un terminal de
5
10
15
20
25
30
35
40
45
50
55
transmisión que incluye sólo un aparato de codificación y (iii) un terminal de recepción que incluye sólo un aparato de decodificación. Aunque el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio sino datos de caracteres relacionados con vídeo en datos de vídeo, y pueden no ser datos multiplexados sino los propios datos de vídeo.
Como tales, el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento en cada una de las realizaciones pueden usarse en cualquiera de los dispositivos y sistemas descritos. Por tanto, pueden obtenerse las ventajas descritas en cada una de las realizaciones.
Además, la presente invención no está limitada a las realizaciones, y diversas modificaciones y revisiones son posibles sin apartarse del alcance de la presente invención.
(Realización 3)
Pueden generarse datos de vídeo conmutando, según sea necesario, entre (i) el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones y (ii) un método de codificación de imágenes en movimiento o un aparato de codificación de imágenes en movimiento de conformidad con una norma diferente, tal como MPEG-2, MPEG-4 AVC y VC-1.
En este caso, cuando se genera una pluralidad de datos de vídeo que cumple con las normas diferentes y después se decodifica, se necesita seleccionar los métodos de decodificación para cumplir con las normas diferentes. Sin embargo, dado que no puede detectarse qué norma cumple cada uno de la pluralidad de los datos de vídeo que van a decodificarse, existe un problema ya que no puede seleccionarse un método de decodificación apropiado.
Con el fin de resolver el problema, datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo tienen una estructura que incluye información de identificación que indica qué norma cumplen los datos de vídeo. A continuación en el presente documento se describirá la estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones. Los datos multiplexados son un flujo digital en el formato de flujo de transporte de MPEG-2.
La figura 21 ilustra una estructura de los datos multiplexados. Tal como se ilustra en la figura 21, los datos multiplexados pueden obtenerse multiplexando al menos uno de un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación (PG) y un flujo de gráficos interactivo. El flujo de vídeo representa vídeo primario y vídeo secundario de una película, el flujo de audio (IG) representa una parte de audio primario y una parte de audio secundario que va a mezclarse con la parte de audio primario, y el flujo de gráficos de presentación representa subtítulos de la película. En este caso, el vídeo primario es vídeo normal que va a visualizarse en una pantalla, y el vídeo secundario es vídeo que va a visualizarse en una ventana más pequeña en el vídeo primario. Además, el flujo de gráficos interactivo representa una pantalla interactiva que va a generarse disponiendo los componentes de GUI en una pantalla. El flujo de vídeo se codifica en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento mostrado en cada una de las realizaciones, o en un método de codificación de imágenes en movimiento o por un aparato de codificación de imágenes en movimiento de conformidad con una norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1. El flujo de audio se codifica según una norma, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada flujo incluido en los datos multiplexados se identifica mediante PID. Por ejemplo, se asigna 0x1011 al flujo de vídeo que va a usarse para vídeo de una película, se asignan de 0x1100 a 0x111F a los flujos de audio, se asignan de 0x1200 a 0x121F a los flujos de gráficos de presentación, se asignan de 0x1400 a 0x141F a los flujos de gráficos interactivo, se asignan de 0x1B00 a 0x1B1F a los flujos de vídeo que van a usarse para vídeo secundario de la película, y se asignan de 0x1A00 a 0x1A1F a los flujos de audio que van a usarse para el vídeo secundario que van a mezclarse con el audio primario.
La figura 22 ilustra esquemáticamente cómo se multiplexan datos. En primer lugar, se transforman un flujo de vídeo ex235 compuesto por tramas de vídeo y un flujo de audio ex238 compuesto por tramas de audio en un flujo de paquetes de PES ex236 y un flujo de paquetes de PES ex239, y además en paquetes de TS ex237 y paquetes de TS ex240, respectivamente. De manera similar, se transforman datos de un flujo de gráficos de presentación ex241 y datos de un flujo de gráficos interactivo ex244 en un flujo de paquetes de PES ex242 y un flujo de paquetes de PES ex245, y además en paquetes de TS ex243 y paquetes de TS ex246, respectivamente. Estos paquetes de TS se multiplexan para dar un flujo para obtener datos multiplexados ex247.
La figura 23 ilustra en más detalle cómo se almacena un flujo de vídeo en un flujo de paquetes de PES. La primera barra en la figura 23 muestra un flujo de tramas de vídeo en un flujo de vídeo. La segunda barra muestra el flujo de paquetes de PES. Tal como se indica mediante las flechas indicadas como yy1, yy2, yy3 e yy4 en la figura 23, el flujo de vídeo se divide en imágenes como imágenes I, imágenes B e imágenes P, cada una de las cuales es una unidad de presentación de vídeo, y las imágenes se almacenan en una carga útil de cada uno de los paquetes de PES. Cada uno de los paquetes de PES tiene una cabecera de PES, y la cabecera de PES almacena un sello de tiempo de presentación (PTS) que indica el momento de visualización de la imagen, y un sello de tiempo de
5
10
15
20
25
30
35
40
45
50
55
decodificación (DTS) que indica el momento de decodificación de la imagen.
La figura 24 ilustra un formato de paquetes de TS que van a escribirse finalmente en los datos multiplexados. Cada uno de los paquetes de TS es un paquete de longitud fija de 188 bytes que incluye una cabecera de TS de 4 bytes que tiene información, tal como un PID para identificar un flujo y una carga útil de TS de 184 bytes para almacenar datos. Los paquetes de PES se dividen y se almacenan en las cargas útiles de TS, respectivamente. Cuando se usa un BD-ROM, a cada uno de los paquetes de TS se le facilita una cabecera adicional de TP de 4 bytes, dando por tanto como resultado paquetes de origen de 192 bytes. Los paquetes de origen se escriben en los datos multiplexados. La cabecera adicional de TP almacena información tal como un sello de tiempo de llegada (ATS). El ATS muestra un momento de inicio de transferencia en el que cada uno de los paquetes de TS debe transferirse a un filtro de PID. Los paquetes de origen se disponen en los datos multiplexados tal como se muestra en la parte inferior de la figura 24. Los números que aumentan desde la cabecera de los datos multiplexados se denominan números de paquetes de origen (SPN).
Cada uno de los paquetes de TS incluidos en los datos multiplexados incluye no sólo flujos de audio, vídeo, subtítulos y otros, sino también una tabla de asociación de programa (PAT), una tabla de mapa de programa (PMT) y una referencia de reloj de programa (PCR). La PAT muestra lo que indica un PID en una PMT usada en los datos multiplexados, y el PID de la propia PAT se registra como cero. La PMT almacena PID de los flujos de vídeo, audio subtítulos y otros incluidos en los datos multiplexados, e información de atributos de los flujos correspondientes a los PID. La PMT también tiene diversos descriptores referentes a los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si se permite o no la copia de los datos multiplexados. La PCR almacena información de hora de STC correspondiente a un ATS que muestra cuándo se transfiere el paquete de PCR a un decodificador, con el fin de lograr la sincronización entre un reloj de hora de llegada (ATC) que es un eje de tiempo de ATS, y un reloj de hora de sistema (STC) que es un eje de tiempo de PTS y DTS.
La figura 25 ilustra en detalle la estructura de datos de la PMT. Una cabecera de PMT está dispuesta en la parte superior de la PMT. La cabecera de PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores referentes a los datos multiplexados están dispuestos tras la cabecera de PMT. En los descriptores se describe información tal como la información de control de copia. Tras los descriptores, se dispone una pluralidad de fragmentos de información de flujo referentes a los flujos incluidos en los datos multiplexados. Cada fragmento de información de flujo incluye descriptores de flujo que describen cada uno información, tal como un tipo de flujo para identificar un códec de compresión de un flujo, un PID de flujo e información de atributos de flujo (tal como una velocidad de transmisión de tramas o una relación de aspecto). El número de descriptores de flujo es igual al número de flujos en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de gestión de los datos multiplexados tal como se muestra en la figura 26. Los archivos de información de datos multiplexados están en una correspondencia de uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de atributos de flujo y un mapa de entradas.
Tal como se ilustra en la figura 26, los datos multiplexados incluyen una velocidad de sistema, un momento de inicio de reproducción y un momento de fin de reproducción. La velocidad de sistema indica la velocidad de transferencia máxima a la que un decodificador objetivo de sistema que se describirá posteriormente transfiere los datos multiplexados a un filtro de PID. Los intervalos de los ATS incluidos en los datos multiplexados se establecen a no más que la velocidad de sistema. El momento de inicio de reproducción indica un PTS en una trama de vídeo al inicio de los datos multiplexados. Se añade un intervalo de una trama a un PTS en una trama de vídeo al final de los datos multiplexados, y el PTS se establece al momento de fin de reproducción.
Tal como se muestra en la figura 27, se registra un fragmento de información de atributos en la información de atributos de flujo, para cada PID de cada flujo incluido en los datos multiplexados. Cada fragmento de información de atributos tiene información diferente dependiendo de si el flujo correspondiente es un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación o un flujo de gráficos interactivo. Cada fragmento de información de atributos de flujo de vídeo porta información incluyendo qué clase de códec de compresión se usa para comprimir el flujo de vídeo, y la resolución, relación de aspecto y velocidad de transmisión de tramas de los fragmentos de datos de imagen que se incluyen en el flujo de vídeo. Cada fragmento de información de atributos de flujo de audio porta información incluyendo qué clase de códec de compresión se usa para comprimir el flujo de audio, cuántos canales se incluyen en el flujo de audio, qué idioma soporta el flujo de audio y lo alta que es la frecuencia de muestreo. La información de atributos de flujo de vídeo y la información de atributos de flujo de audio se usan para la inicialización de un decodificador antes de que el reproductor reproduzca la información.
En la presente realización, los datos multiplexados que van a usarse son de tipo de flujo incluido en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributos de flujo de vídeo incluida en la información de datos multiplexados. Más específicamente, el método de codificación de
5
10
15
20
25
30
35
40
45
50
55
60
imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones incluye una etapa o una unidad para asignar información única que indica datos de vídeo generados mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, al tipo de flujo incluido en la pMt o la información de atributos de flujo de vídeo. Con la configuración, los datos de vídeo generados mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones pueden distinguirse de datos de vídeo que cumplen con otra norma.
Además, la figura 28 ilustra etapas del método de decodificación de imágenes en movimiento según la presente realización. En la etapa exS1001 se obtiene el tipo de flujo incluido en la PMT o la información de atributos de flujo de vídeo a partir de los datos multiplexados. A continuación, en la etapa exS101, se determina si el tipo de flujo o la información de atributos de flujo de vídeo indica o no que los datos multiplexados se generan mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento en cada una de las realizaciones. Cuando se determina que el tipo de flujo o la información de atributos de flujo de vídeo indica que los datos multiplexados se generan mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, en la etapa exS102, se realiza la decodificación mediante el método de decodificación de imágenes en movimiento en cada una de las realizaciones. Además, cuando el tipo de flujo o la información de atributos de flujo de vídeo indica cumplimiento con las normas convencionales, tales como MPEG-2, MPEG-4 AVC y VC-1, en la etapa exS103, se realiza la decodificación mediante un método de decodificación de imágenes en movimiento de conformidad con las normas convencionales.
Como tal, la asignación de un nuevo valor único al tipo de flujo o la información de atributos de flujo de vídeo permite la determinación de si el método de decodificación de imágenes en movimiento o el aparato de decodificación de imágenes en movimiento que se describen en cada una de las realizaciones puede realizar la decodificación o no. Incluso cuando los datos multiplexados cumplen con una norma diferente, puede seleccionarse un método o aparato de decodificación apropiado. Por tanto, se vuelve posible decodificar información sin ningún error. Además, el método o aparato de codificación de imágenes en movimiento, o el método o aparato de decodificación de imágenes en movimiento en la presente realización pueden usarse en los dispositivos y sistemas descritos anteriormente.
(Realización 4)
Cada uno del método de codificación de imágenes en movimiento, el aparato de codificación de imágenes en movimiento, el método de decodificación de imágenes en movimiento y el aparato de decodificación de imágenes en movimiento en cada una de las realizaciones se logra normalmente en forma de un circuito integrado o un circuito integrado a gran escala (LSI). Como ejemplo del LSI, la figura 29 ilustra una configuración del LSI ex500 que se realiza en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que se describirán a continuación, y los elementos están conectados entre sí a través de un bus ex510. La unidad de circuito de suministro de potencia ex505 se activa suministrando a cada uno de los elementos potencia cuando se enciende la unidad de circuito de suministro de potencia ex505.
Por ejemplo, cuando se realiza la codificación, el LSI ex500 recibe una señal de AV procedente de un micrófono ex117, una cámara ex113 y otros a través de una IO de AV ex509 bajo el control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de flujo ex504 y una unidad de control de frecuencia de accionamiento ex512. La señal de AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, se segmentan los datos almacenados para dar partes de datos según la cantidad y velocidad de procesamiento que van a permitirse a una unidad de procesamiento de señales ex507. Entonces, la unidad de procesamiento de señales ex507 codifica una señal de audio y/o una señal de vídeo. En este caso, la codificación de la señal de vídeo es la codificación descrita en cada una de las realizaciones. Además, algunas veces la unidad de procesamiento de señales ex507 multiplexa los datos de audio codificados y los datos de vídeo codificados, y una IO de flujo ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados se transmiten a la estación base ex107 o se escriben en los medios de grabación ex215. Cuando se multiplexan conjuntos de datos, los datos deben almacenarse temporalmente en la memoria intermedia ex505 de modo que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento externo al LSI ex500, puede incluirse en el LSI ex500. La memoria intermedia ex508 no está limitada a una memoria intermedia, sino que puede estar compuesta por memorias intermedias. Además, el LSI ex500 puede realizarse en un chip o una pluralidad de chips.
Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de flujo ex504, la unidad de control de frecuencia de accionamiento ex512, la configuración de la unidad de control ex501 no está limitada a la misma. Por ejemplo, la unidad de procesamiento de señales ex507 puede incluir además una CPU. La inclusión de otra CPU en la unidad de procesamiento de señales ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir como, o ser parte de, la unidad de procesamiento de señales ex507, y, por ejemplo, puede incluir una unidad de procesamiento de señales de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señales ex507 o la CPU ex502 que
5
10
15
20
25
30
35
40
45
50
55
incluye una parte de la unidad de procesamiento de señales ex507.
El nombre usado en este caso es LSI, pero también puede denominarse IC, LSI de sistema, super LSI o ultra LSI, dependiendo del grado de integración.
Además, las maneras en las que lograr la integración no están limitadas al LSI, y un circuito especial o un procesador de uso general, etc., también pueden lograr la integración. También puede usarse con el mismo fin una matriz de puertas programables en campo (FPGA) que puede programarse tras fabricar los LSI o un procesador reconfigurable que permite la reconfiguración de la conexión o configuración de un LSI.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología totalmente nueva puede sustituir a los LSI. Los bloques funcionales pueden integrarse usando tal tecnología. La posibilidad es que la presente invención se aplique a la biotecnología.
(Realización 5)
Cuando se decodifican datos de vídeo generados en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en comparación con cuando se decodifican datos de vídeo que cumplen con una norma convencional, tal como MP-2, MPEG-4 AVC y VC-1, la cantidad de procesamiento probablemente aumenta. Por tanto, necesita establecerse el LSI ex500 a una frecuencia de accionamiento superior a la de la CPU ex502 que va a usarse cuando se decodifican datos de vídeo de conformidad con la norma convencional. Sin embargo, cuando se establece la frecuencia de accionamiento a una superior, existe un problema de que aumenta el consumo de potencia.
Con el fin de resolver el problema, el aparato de decodificación de imágenes en movimiento, tal como la televisión ex300 y el LSI ex500, está configurado para determinar qué norma cumplen los datos de vídeo, y conmutar entre las frecuencias de accionamiento según la norma determinada. La figura 30 ilustra una configuración ex800 en la presente realización. Una unidad de conmutación de frecuencia de accionamiento ex803 establece una frecuencia de accionamiento a una frecuencia de accionamiento superior cuando se generan datos de vídeo mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones. Después, la unidad de conmutación de frecuencia de accionamiento ex803 instruye a una unidad de procesamiento de decodificación ex801 que ejecute el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones para decodificar los datos de vídeo. Cuando los datos de vídeo cumplen con la norma convencional, la unidad de conmutación de frecuencia de accionamiento ex803 establece la frecuencia de accionamiento a una frecuencia de accionamiento inferior a la de los datos de vídeo generados mediante el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones. Después, la unidad de conmutación de frecuencia de accionamiento ex803 instruye a la unidad de procesamiento de decodificación ex802 que cumple con la norma convencional que decodifique los datos de vídeo.
Más específicamente, la unidad de conmutación de frecuencia de accionamiento ex803 incluye la CPU ex502 y la unidad de control de frecuencia de accionamiento ex512 en la figura 29. En este caso, cada una de la unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de decodificación ex802 que cumple con la norma convencional corresponde a la unidad de procesamiento de señales ex507 en la figura 29. La CPU ex502 determina qué norma cumplen los datos de vídeo. Después, la unidad de control de frecuencia de accionamiento ex512 determina una frecuencia de accionamiento basándose en una señal procedente de la CPU ex502. Además, la unidad de procesamiento de señales ex507 decodifica los datos de vídeo basándose en la señal procedente de la CPU ex502. Por ejemplo, probablemente se usa la información de identificación descrita en la realización 3 para identificar los datos de vídeo. La información de identificación no está limitada a la descrita en la realización 3 sino que puede ser cualquier información siempre que la información indique qué norma cumplen los datos de vídeo. Por ejemplo, cuando puede determinarse qué norma cumplen los datos de vídeo basándose en una señal externa para determinar que los datos de vídeo se usan para una televisión o un disco, etc., la determinación puede realizarse basándose en una señal externa de este tipo. Además, la CPU ex502 selecciona una frecuencia de accionamiento basándose, por ejemplo, en una tabla de consulta en la que las normas de los datos de vídeo están asociadas con las frecuencias de accionamiento tal como se muestra en la figura 32. La frecuencia de accionamiento puede seleccionarse almacenando la tabla de consulta en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de consulta mediante la CPU ex502.
La figura 31 ilustra etapas para ejecutar un método en la presente realización. En primer lugar, en la etapa exS200, la unidad de procesamiento de señales ex507 obtiene información de identificación a partir de los datos multiplexados. A continuación, en la etapa exS201, la CPU ex502 determina si los datos de vídeo se generan mediante el método de codificación y el aparato de codificación descritos en cada una de las realizaciones o no, basándose en la información de identificación. Cuando los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en la etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de accionamiento a una frecuencia de accionamiento superior a la unidad de control de frecuencia de accionamiento
5
10
15
20
25
30
35
40
45
50
55
60
ex512. Después, la unidad de control de frecuencia de accionamiento ex512 establece la frecuencia de accionamiento a la frecuencia de accionamiento superior. Por otro lado, cuando la información de identificación indica que los datos de vídeo cumplen con la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, en la etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de accionamiento a una frecuencia de accionamiento inferior a la unidad de control de frecuencia de accionamiento ex512. Después, la unidad de control de frecuencia de accionamiento ex512 establece la frecuencia de accionamiento a la frecuencia de accionamiento inferior a aquella en el caso en el que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada de una de las realizaciones.
Además, junto con la conmutación de las frecuencias de accionamiento, puede mejorarse el efecto de conservación de potencia cambiando la tensión que va a aplicarse al LSI ex500 o a un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de accionamiento se establece para ser inferior, la tensión que va a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 se establece probablemente a una tensión inferior a aquella en el caso en el que la frecuencia de accionamiento se establece para ser superior.
Además, cuando la cantidad de procesamiento para la decodificación es mayor, la frecuencia de accionamiento puede establecerse para ser superior, y cuando la cantidad de procesamiento para la decodificación es menor, la frecuencia de accionamiento puede establecerse para ser inferior como método para establecer la frecuencia de accionamiento. Por tanto, el método de establecimiento no está limitado a los descritos anteriormente. Por ejemplo, cuando la cantidad de procesamiento para la decodificación de datos de vídeo de conformidad con la norma MPEG- 4 AVC es mayor que la cantidad de procesamiento para la decodificación de datos de vídeo generados mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la frecuencia de accionamiento se establece probablemente en orden inverso al establecimiento descrito anteriormente.
Además, el método para establecer la frecuencia de accionamiento no está limitado al método para establecer la frecuencia de accionamiento para que sea inferior. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la tensión que va a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 es probablemente para ser superior. Cuando la información de identificación indica que los datos de vídeo cumplen con la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la tensión que va a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 se establece probablemente para ser inferior. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, probablemente el accionamiento de la CPU ex502 no tiene que suspenderse. Cuando la información de identificación indica que los datos de vídeo cumplen con la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, probablemente el accionamiento de la CPU ex502 se suspende en un momento dado porque la CPU ex502 tiene capacidad de procesamiento adicional. Incluso cuando la información de identificación indica que los datos de vídeo se generan mediante el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en el caso en el que la CPU ex502 tiene capacidad de procesamiento adicional, probablemente el accionamiento de la CPU ex502 se suspende en un momento dado. En tal caso, el tiempo de suspensión se establece probablemente para ser más corto que aquel en el caso en el que la información de identificación indica que los datos de vídeo cumplen con la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1.
Por consiguiente, el efecto de conservación de potencia puede mejorarse conmutando entre las frecuencias de accionamiento según la norma que cumplen los datos de vídeo. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se acciona usando una batería, la vida útil de la batería puede prolongarse con el efecto de conservación de potencia.
(Realización 6)
Hay casos en los que se proporciona una pluralidad de datos de vídeo que cumplen con diferentes normas a los dispositivos y sistemas, tales como una televisión y un teléfono móvil. Con el fin de permitir decodificar la pluralidad de datos de vídeo que cumplen con las diferentes normas, se necesita que la unidad de procesamiento de señales ex507 del LSI ex500 cumpla con las diferentes normas Sin embargo, surgen los problemas de aumentar la escala del circuito del LSI ex500 y aumentar el coste con el uso individual de las unidades de procesamiento de señales ex507 que cumplen con las normas respectivas.
Con el fin de resolver el problema, lo que se concibe es una configuración en la que la unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de decodificación que cumple con la norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, se comparten parcialmente. Ex900 en la figura 33A muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y el método de decodificación de imágenes en movimiento que cumple con MPEG-4 AVC tienen, parcialmente en común, los detalles de procesamiento, tal como codificación de entropía, cuantificación inversa,
5
10
15
20
25
30
35
40
45
filtrado con desbloqueo y predicción con compensación de movimiento. Los detalles de procesamiento que van a compartirse incluyen probablemente el uso de una unidad de procesamiento de decodificación ex902 que cumple con la norma MPEG-4 AVC. En cambio, probablemente se usa una unidad de procesamiento de decodificación dedicada ex901 para otro procesamiento único para la presente invención. Dado que la presente invención se caracteriza en particular por el procesamiento intrapredicción, por ejemplo, la unidad de procesamiento de decodificación dedicada ex901 se usa para procesamiento intrapredicción. De lo contrario, la unidad de procesamiento de decodificación se comparte probablemente para uno de la codificación de entropía, cuantificación inversa, filtrado con desbloqueo y compensación de movimiento, o todos los procesamientos. La unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones puede compartirse para que se comparta el procesamiento, y puede usarse una unidad de procesamiento de decodificación dedicada para el procesamiento único al de la norma MPEG-4 AVC.
Además, ex1000 en la figura 33B muestra otro ejemplo en el que el procesamiento se comparte parcialmente. Este ejemplo usa una configuración que incluye una unidad de procesamiento de decodificación dedicada ex1001 que soporta el procesamiento único para la presente invención, una unidad de procesamiento de decodificación dedicada ex1002 que soporta el procesamiento único para otra norma convencional, y una unidad de procesamiento de decodificación ex1003 que soporta el procesamiento que va a compartirse entre el método de decodificación de imágenes en movimiento en la presente invención y el método de decodificación de imágenes en movimiento convencional. En este caso, las unidades de procesamiento de decodificación dedicadas ex1001 y ex1002 no están necesariamente especializadas para el procesamiento de la presente invención y el procesamiento de la norma convencional, respectivamente, y pueden ser unidades que pueden implementar procesamiento general. Además, la configuración de la presente realización puede implementarse mediante el LSI ex500.
Como tal, una reducción de la escala del circuito de un LSI y una reducción del coste son posibles compartiendo la unidad de procesamiento de decodificación para el procesamiento que va a compartirse entre el método de decodificación de imágenes en movimiento en la presente invención y el método de decodificación de imágenes en movimiento de conformidad con la norma convencional.
Aplicabilidad industrial
La presente invención puede aplicarse a métodos de filtrado, aparatos de codificación de imágenes en movimiento y aparatos de decodificación de imágenes en movimiento. Por ejemplo, la presente invención puede aplicarse a aparatos de visualización de imágenes en alta definición y aparatos de captación de imágenes tales como receptores de televisión, grabadores de vídeo digital, sistemas de navegación de coches, cámaras digitales y videocámaras digitales.
[Lista de signos de referencia]
100
Aparato de codificación de imágenes en movimiento
101
Restador
102
Unidad de transformada ortogonal
103
Unidad de cuantificación
104, 204
Unidad de cuantificación inversa
105, 205
Unidad de transformada ortogonal inversa
106, 206
Sumador
107, 207, 301, 302, 311, 322, 323, 332, 342, 343, 344, 351, 352, 353, 361, 362, 372
108, 112, 208, 312, 324, 333, 354, 363, 371 Unidad de selección
109, 209, 373 Memoria
110, 210 Unidad de predicción
111 Unidad de codificación de longitud variable
113, 213 Unidad de control
115, 215 Unidad de filtrado
120 Señal de imagen de entrada
121 Señal residual
Unidad de filtro
10
122,
124, 224
123,
223
125,
225
126,
226
127,
128, 227, 228
130,
230
131
132,
232
200
211
212,
321, 331, 341
220
Coeficiente de transformada Coeficiente cuantificado Señal residual decodificada Señal de imagen decodificada Señal de imagen Señal de imagen de predicción Señal codificada Flujo de bits codificado
Aparato de decodificación de imágenes en movimiento Unidad de decodificación de longitud variable Unidad de distribución Señal de imagen de salida

Claims (5)

10
15 2.
3.
20
4. 25
5. 30
35
40
6. 45
REIVINDICACIONES
Método de filtrado con desbloqueo de filtrado de una pluralidad de bloques incluidos en una imagen, comprendiendo dicho método de filtrado:
filtrar con desbloqueo dos bloques adyacentes para generar datos filtrados, usando valores de píxeles incluidos respectivamente en los dos bloques;
caracterizado por
determinar si cada uno de los dos bloques es un bloque de modulación de impulsos intracodificados, IPCM, o un bloque distinto de IPCM, y cuando los dos bloques son un bloque de IPCM y un bloque distinto de IPCM,
emitir los datos filtrados como valores de los píxeles en el bloque distinto de IPCM, y emitir, como valores de los píxeles en el bloque de IPCM, valores sin filtrar de los píxeles en el bloque de IPCM, en el que
en el filtrado, una intensidad de filtro para el bloque distinto de IPCM se deriva basándose únicamente en un parámetro de cuantificación del bloque distinto de IPCM, sin usar ningún parámetro de cuantificación del bloque de IPCM ni ningún otro valor fijado sustituto.
Método de filtrado con desbloqueo según la reivindicación 1,
en el que, en dicho filtrado, los datos filtrados se generan realizando un filtrado usando tanto los valores de los píxeles en el bloque de IPCM como los valores de los píxeles en el bloque distinto de IPCM.
Método de filtrado con desbloqueo según la reivindicación 1, que comprende además
establecer una primera intensidad de filtro para el bloque distinto de IPCM, y establecer una segunda intensidad de filtro para el bloque de IPCM, siendo la segunda intensidad de filtro inferior a la primera intensidad de filtro, en el que en dicho filtrado, el bloque distinto de IPCM se filtra usando la primera intensidad de filtro, y en el que la segunda intensidad de filtro especifica que se omite el filtrado para el bloque de IPCM.
Método de filtrado con desbloqueo según la reivindicación 3, que comprende además:
determinar si el bloque distinto de IPCM es o no un bloque que va a intracodificarse; y
establecer la primera intensidad de filtro para un bloque distinto de IPCM que se determina que no va a intracodificarse, siendo la primera intensidad de filtro inferior a una intensidad de filtro para un bloque distinto de IPCM que va a intracodificarse.
Método de codificación para codificar una imagen, comprendiendo dicho método de codificación:
desbloquear dos bloques adyacentes para generar datos filtrados, usando valores de píxeles incluidos respectivamente en los dos bloques
caracterizado por
determinar si cada uno de los dos bloques es un bloque de modulación de impulsos intracodificados, IPCM, o un bloque distinto de IPCM; y cuando los dos bloques son un bloque de IPCM y un bloque distinto de IPCM, generar una imagen reconstruida que incluye los datos filtrados como valores de píxeles en el bloque distinto de IPCM, y valores sin filtrar de píxeles en el bloque de IPCM como valores de los píxeles en el bloque de IPCM, en el que
en el filtrado, la intensidad de filtro para el bloque distinto de IPCM se deriva basándose únicamente en un parámetro de cuantificación del bloque distinto de IPCM, sin usar ningún parámetro de cuantificación del bloque de IPCM ni ningún otro valor fijado sustituto; y
generar un flujo de bits codificado (132, 232) usando la imagen reconstruida.
Aparato de codificación (100) para codificar una imagen (120), comprendiendo dicho aparato:
una unidad de filtrado (107, 207) configurada para aplicar un filtro con desbloqueo a dos bloques adyacentes para generar un valor filtrado, usando valores de píxeles incluidos respectivamente en los dos bloques;
caracterizado porque
una unidad de determinación configurada para determinar si cada uno de los dos bloques es un bloque de
10
modulación de impulsos intracodificados, IPCM, o un bloque distinto de IPCM que no es el bloque de IPCM; y cuando los dos bloques son un bloque de IPCM y un bloque distinto de IPCM, una unidad de reconstrucción (200) configurada para generar una imagen reconstruida que incluye datos filtrados como valores de píxeles en el bloque distinto de IPCM, y valores sin filtrar de píxeles en el bloque de IPCM como valores de los píxeles en el bloque de IPCM, en el que
en el filtrado, la intensidad de filtro para el bloque distinto de IPCM se deriva basándose únicamente en un parámetro de cuantificación del bloque distinto de IPCM, sin usar ningún parámetro de cuantificación del bloque de IPCM ni ningún otro valor fijado sustituto, y
una unidad de codificación configurada para generar un flujo de bits codificado (132, 232) usando la imagen reconstruida.
ES12749678.4T 2011-02-22 2012-02-21 Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas Active ES2669978T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161445115P 2011-02-22 2011-02-22
US201161445115P 2011-02-22
PCT/JP2012/001167 WO2012114724A1 (ja) 2011-02-22 2012-02-21 フィルタ方法、動画像符号化装置、動画像復号装置及び動画像符号化復号装置

Publications (1)

Publication Number Publication Date
ES2669978T3 true ES2669978T3 (es) 2018-05-29

Family

ID=46652730

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12749678.4T Active ES2669978T3 (es) 2011-02-22 2012-02-21 Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas

Country Status (15)

Country Link
US (5) US9826230B2 (es)
EP (1) EP2680583B1 (es)
JP (4) JP5342069B2 (es)
KR (5) KR102030977B1 (es)
CN (3) CN102907097B (es)
AU (2) AU2012221587B9 (es)
BR (1) BR112012021600B1 (es)
CA (2) CA3027092C (es)
ES (1) ES2669978T3 (es)
HU (1) HUE038308T2 (es)
LT (1) LT2680583T (es)
MX (1) MX2013000093A (es)
PL (1) PL2680583T3 (es)
TW (3) TWI562643B (es)
WO (1) WO2012114724A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123651A (ko) * 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
WO2012114725A1 (ja) 2011-02-22 2012-08-30 パナソニック株式会社 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置および画像符号化復号化装置
CN102907097B (zh) * 2011-02-22 2016-01-20 太格文-Ii有限责任公司 滤波方法、动态图像编码装置、动态图像解码装置和动态图像编码解码装置
US20120230423A1 (en) * 2011-03-10 2012-09-13 Esenlik Semih Line memory reduction for video coding and decoding
EP2693750A4 (en) * 2011-03-30 2016-09-28 Lg Electronics Inc IN-LOOP FILTER PROCESS AND DEVICE THEREFOR
EP2736253B1 (en) 2011-07-19 2020-03-11 Tagivan Ii Llc Filtering method, moving image decoding method, moving image encoding method, moving image decoding apparatus, moving image encoding apparatus, and moving image encoding/decoding apparatus
CN110234012B (zh) * 2012-01-17 2021-12-31 华为技术有限公司 用于高性能视频编码中的无损编码模式的环内滤波的装置
GB2503658B (en) * 2012-06-29 2015-07-01 Canon Kk Method and device for encoding and decoding data in a video encoder and a video decoder
AU2014202921B2 (en) * 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
JP6413381B2 (ja) * 2014-06-19 2018-10-31 日油株式会社 ゲル状栄養組成物
TW201842768A (zh) * 2017-04-06 2018-12-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
TWI774750B (zh) * 2017-04-06 2022-08-21 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
JP7260665B2 (ja) 2019-04-20 2023-04-18 エルジー エレクトロニクス インコーポレイティド Bdpcmに基づく映像コーディング方法、及びその装置

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0085066B1 (de) 1981-07-30 1986-10-08 GAO Gesellschaft für Automation und Organisation mbH Verfahren zur aufrasterung von halbtonbildmotiven
US5178418A (en) 1991-06-25 1993-01-12 Canadian Bank Note Co., Ltd. Latent images comprising phase shifted micro printing
AU699124B2 (en) 1994-11-01 1998-11-26 De La Rue Giori S.A. Method of generating a security design with the aid of electronic means
US6104812A (en) 1998-01-12 2000-08-15 Juratrade, Limited Anti-counterfeiting method and apparatus using digital screening
US6377706B1 (en) 1998-05-12 2002-04-23 Xerox Corporation Compression framework incorporating decoding commands
US6473516B1 (en) 1998-05-22 2002-10-29 Asa Systems, Inc. Large capacity steganography
US20050160271A9 (en) 1998-11-19 2005-07-21 Brundage Trent J. Identification document and related methods
EP1240731B1 (en) 1999-12-23 2006-04-05 Institut National de la Recherche Scientifique Interference suppression in cdma systems
US6615890B1 (en) * 2000-06-09 2003-09-09 Venture Tape Corp. Tape applicator for glazing applications
US6692030B1 (en) 2000-07-21 2004-02-17 Verify First Technologies, Inc. Security document with nano-pattern
DE10044403A1 (de) 2000-09-08 2002-03-21 Giesecke & Devrient Gmbh Datenträger mit Stichtiefdruckbild und Verfahren zur Umsetzung von Bildmotiven in Linienstrukturen sowie in eine Stichtiefdruckplatte
US6931062B2 (en) * 2001-04-11 2005-08-16 Koninklijke Philips Electronics N.V. Decoding system and method for proper interpolation for motion compensation
EP2320661B8 (en) 2001-11-29 2015-09-02 Godo Kaisha IP Bridge 1 Coding distortion removal method
EP1978747B1 (en) 2001-11-29 2014-05-21 Panasonic Corporation Coding distortion removal method
US20050035590A1 (en) 2003-05-16 2005-02-17 Jones Robert L. Identification document usable with D2T2 printing
JP4130783B2 (ja) 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
EP2479896A1 (en) 2002-04-26 2012-07-25 NTT DoCoMo, Inc. Signal encoding method, signal decoding method, signal encoding device, signal decoding device, signal encoding program, and signal decoding program
JP4144258B2 (ja) 2002-05-29 2008-09-03 ソニー株式会社 画像出力装置及び画像出力方法
EP3223186B1 (en) 2002-07-09 2021-03-31 Smartrac Technology Fletcher, Inc. System and method for providing secure identification solutions
CA2448064C (en) 2002-07-11 2012-08-07 Matsushita Electric Industrial Co., Ltd. Filtering strength determination method, moving picture coding method and moving picture decoding method
US6922492B2 (en) 2002-12-27 2005-07-26 Motorola, Inc. Video deblocking method and apparatus
US8223393B2 (en) 2003-03-31 2012-07-17 Eastman Kodak Company Post rip image rendering for microprinting
EP1625488A2 (en) * 2003-05-20 2006-02-15 Lego A/S Method and system for manipulating a digital representation of a three-dimensional object
CA2532296A1 (en) 2003-07-17 2005-02-03 Digimarc Corporation Uniquely linking security elements in identification documents
KR100995445B1 (ko) 2003-08-19 2010-11-18 파나소닉 주식회사 동영상 부호화 방법 및 동영상 복호화 방법
US7457362B2 (en) 2003-10-24 2008-11-25 Texas Instruments Incorporated Loop deblock filtering of block coded video in a very long instruction word processor
KR101000926B1 (ko) 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
ATE471562T1 (de) 2004-04-28 2010-07-15 Panasonic Corp Stream-erzeugungsvorrichtung für bewegliche bilder, kodierungsvorrichtung für bewegliche bilder, multiplex-vorrichtung für bewegliche bilder und decodierungsvorrichtung für bewegliche bilder
US20050243914A1 (en) 2004-04-29 2005-11-03 Do-Kyoung Kwon Adaptive de-blocking filtering apparatus and method for mpeg video decoder
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
US7630902B2 (en) * 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
US7450121B2 (en) 2004-10-19 2008-11-11 Canon Kabushiki Kaisha Dynamic bit depth rendering
US20060126744A1 (en) * 2004-12-10 2006-06-15 Liang Peng Two pass architecture for H.264 CABAC decoding process
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4148228B2 (ja) 2005-02-10 2008-09-10 ソニー株式会社 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
JP4784188B2 (ja) 2005-07-25 2011-10-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8625914B2 (en) 2013-02-04 2014-01-07 Sony Corporation Image processing system, image processing method and program
WO2007116551A1 (ja) 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
JP5017555B2 (ja) 2006-04-10 2012-09-05 株式会社メガチップス 画像符号化装置及び画像復号化装置
EP1844929A1 (fr) 2006-04-13 2007-10-17 Kba-Giori S.A. Procédé de génération de motifs représentant une image en demi-teintes
US7965422B2 (en) 2006-04-28 2011-06-21 Xerox Corporation Super resolution encoded microprinting through postscript
JP4584871B2 (ja) 2006-06-09 2010-11-24 パナソニック株式会社 画像符号化記録装置および画像符号化記録方法
US8036270B2 (en) * 2006-07-27 2011-10-11 Sharp Laboratories Of America, Inc. Intra-frame flicker reduction in video coding
JP2008042497A (ja) 2006-08-04 2008-02-21 Seiko Epson Corp デコード装置、情報再生装置及び電子機器
JP5093877B2 (ja) 2006-09-29 2012-12-12 株式会社ユニバーサルエンターテインメント 紙葉識別装置
KR100827106B1 (ko) 2006-10-20 2008-05-02 삼성전자주식회사 디블록킹 필터에서의 필터 조건 영역 판별을 위한 장치 및방법
EP3484154A1 (en) 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
CN101193305B (zh) 2006-11-21 2010-05-12 安凯(广州)微电子技术有限公司 用于视频编解码芯片中帧内预测的数据存储和交换方法
KR100837410B1 (ko) 2006-11-30 2008-06-12 삼성전자주식회사 주관적인 무손실 이미지 데이터 압축 방법 및 장치
CN101290774B (zh) * 2007-01-31 2011-09-07 广州广晟数码技术有限公司 音频编码和解码系统
US8767834B2 (en) * 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
CN101682759B (zh) 2007-06-27 2013-01-09 汤姆森许可贸易公司 增强数字图像的图像质量的方法和设备
CN101796579B (zh) 2007-07-06 2014-12-10 法国电信公司 数字音频信号的分级编码
JP2009017505A (ja) 2007-07-09 2009-01-22 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
US20090315319A1 (en) 2007-07-17 2009-12-24 Jimmy Kendrick Security documents and methods of deterring counterfeiting
US20090021000A1 (en) 2007-07-17 2009-01-22 Mccartney Larry G Security documents and methods of deterring counterfeiting
US20090020999A1 (en) 2007-07-17 2009-01-22 Jimmy Kendrick Security documents and methods of deterring counterfeiting
US9521433B2 (en) 2007-09-06 2016-12-13 Nec Corporation Video encoding device, video decoding device, video encoding method, video decoding method, video encoding or decoding program
CN101389016B (zh) 2007-09-13 2010-10-20 华为技术有限公司 获得块边界强度和去除块效应的方法和装置
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
EP2213098A2 (en) * 2007-10-16 2010-08-04 Thomson Licensing Methods and apparatus for video encoding and decoding geometrically partitioned super blocks
US8477847B2 (en) 2007-12-17 2013-07-02 Vixs Systems, Inc. Motion compensation module with fast intra pulse code modulation mode decisions and methods for use therewith
US9225996B2 (en) 2007-12-19 2015-12-29 Vixs Systems, Inc. Motion refinement engine with flexible direction processing and methods for use therewith
US8743972B2 (en) 2007-12-20 2014-06-03 Vixs Systems, Inc. Coding adaptive deblocking filter and method for use therewith
JP2011509631A (ja) 2008-01-11 2011-03-24 トムソン ライセンシング ビデオおよび奥行きの符号化
JP5593596B2 (ja) 2008-02-04 2014-09-24 ソニー株式会社 映像信号送信装置および映像信号送信方法
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US9788018B2 (en) * 2008-06-30 2017-10-10 Microsoft Technology Licensing, Llc Error concealment techniques in video decoding
TWI386068B (zh) 2008-10-22 2013-02-11 Nippon Telegraph & Telephone 解塊處理方法、解塊處理裝置、解塊處理程式及記錄該程式之可由電腦讀取之記錄媒體
TW201028018A (en) * 2009-01-07 2010-07-16 Ind Tech Res Inst Encoder, decoder, encoding method and decoding method
JP5126096B2 (ja) 2009-02-05 2013-01-23 日本電気株式会社 画像符号化処理方法、画像符号化処理装置、画像符号化プログラム
WO2010125606A1 (en) 2009-04-29 2010-11-04 Aspa-Japan Co., Ltd. Method for image data compression and compression system of image data
TWI400955B (zh) 2009-07-20 2013-07-01 Mstar Semiconductor Inc 一種去區塊裝置及方法
CN101621692B (zh) 2009-07-27 2011-04-20 宁波大学 一种基于预测模式的h.264/avc视频信息隐藏方法
KR20120089561A (ko) 2009-09-22 2012-08-13 파나소닉 주식회사 이미지 부호화 장치, 이미지 복호화 장치, 이미지 부호화 방법, 및 이미지 복호화 방법
EP2595379B1 (en) * 2010-07-13 2020-10-21 Nec Corporation Video decoder, video decoding method, and video decoding program
US8896647B2 (en) 2010-11-08 2014-11-25 U-Nica Technology Ag Method and device for producing colour images by way of a UV laser on pigmented substrates, and products produced as a result
CN103229503B (zh) 2010-11-26 2016-06-29 日本电气株式会社 图像编码设备、图像解码设备、图像编码方法、图像解码方法和程序
KR101912307B1 (ko) 2010-12-08 2018-10-26 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
CN102025997A (zh) 2010-12-22 2011-04-20 中兴通讯股份有限公司 隐藏信息的方法和装置、提取隐藏信息的方法和装置
EP2658260B1 (en) 2010-12-22 2020-12-09 Panasonic Corporation Image encoding apparatus, image decoding apparatus, image encoding method, and image decoding method for bit-depth scalability
JP5850214B2 (ja) 2011-01-11 2016-02-03 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
CN102907097B (zh) 2011-02-22 2016-01-20 太格文-Ii有限责任公司 滤波方法、动态图像编码装置、动态图像解码装置和动态图像编码解码装置
WO2012114725A1 (ja) 2011-02-22 2012-08-30 パナソニック株式会社 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置および画像符号化復号化装置
WO2012131474A1 (en) 2011-03-29 2012-10-04 Jura Trade, Limited Method and apparatus for generating and authenticating security documents
EP2693750A4 (en) 2011-03-30 2016-09-28 Lg Electronics Inc IN-LOOP FILTER PROCESS AND DEVICE THEREFOR
US9317933B2 (en) 2011-05-27 2016-04-19 Sony Corporation Image processing device and method
US20140241422A1 (en) 2011-06-28 2014-08-28 Samsung Electronics Co., Ltd. Method and apparatus for image encoding and decoding using adaptive quantization parameter differential
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
US9161046B2 (en) 2011-10-25 2015-10-13 Qualcomm Incorporated Determining quantization parameters for deblocking filtering for video coding

Also Published As

Publication number Publication date
JP5559918B2 (ja) 2014-07-23
KR20190112836A (ko) 2019-10-07
TW201611588A (zh) 2016-03-16
US20180249165A1 (en) 2018-08-30
CN105245904A (zh) 2016-01-13
TWI547152B (zh) 2016-08-21
JP2014003659A (ja) 2014-01-09
BR112012021600A2 (pt) 2020-06-16
AU2017203193A1 (en) 2017-06-08
HUE038308T2 (hu) 2018-10-29
US20140105294A1 (en) 2014-04-17
TWI562643B (en) 2016-12-11
CN105245903B (zh) 2018-09-07
KR102112241B1 (ko) 2020-05-19
AU2012221587A2 (en) 2013-01-24
KR20200055153A (ko) 2020-05-20
TW201611589A (zh) 2016-03-16
AU2012221587B9 (en) 2017-10-12
JP5342069B2 (ja) 2013-11-13
AU2017203193B2 (en) 2018-04-26
TW201242370A (en) 2012-10-16
US20120213274A1 (en) 2012-08-23
AU2012221587A1 (en) 2013-01-10
PL2680583T3 (pl) 2018-08-31
US9729874B2 (en) 2017-08-08
JP2014003660A (ja) 2014-01-09
MX2013000093A (es) 2013-02-27
KR20200143512A (ko) 2020-12-23
JP2014017847A (ja) 2014-01-30
US20170280146A1 (en) 2017-09-28
BR112012021600B1 (pt) 2021-02-09
EP2680583A1 (en) 2014-01-01
TWI574555B (zh) 2017-03-11
KR102194079B1 (ko) 2020-12-23
CA2801215C (en) 2020-06-30
JPWO2012114724A1 (ja) 2014-07-07
US10015498B2 (en) 2018-07-03
LT2680583T (lt) 2018-07-10
US20200077101A1 (en) 2020-03-05
US10511844B2 (en) 2019-12-17
AU2012221587B2 (en) 2017-06-01
US10798391B2 (en) 2020-10-06
JP5422773B2 (ja) 2014-02-19
KR20190021478A (ko) 2019-03-05
CA3027092C (en) 2019-12-31
JP5843818B2 (ja) 2016-01-13
KR101954461B1 (ko) 2019-03-05
EP2680583A4 (en) 2016-01-20
CN102907097A (zh) 2013-01-30
KR102215469B1 (ko) 2021-02-16
KR20130139220A (ko) 2013-12-20
CA3027092A1 (en) 2012-08-30
CN102907097B (zh) 2016-01-20
US9826230B2 (en) 2017-11-21
CN105245904B (zh) 2018-09-18
KR102030977B1 (ko) 2019-10-10
CN105245903A (zh) 2016-01-13
WO2012114724A1 (ja) 2012-08-30
EP2680583B1 (en) 2018-04-11
CA2801215A1 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP6216021B2 (ja) フィルタ方法及び画像処理システム
ES2669978T3 (es) Método de filtrado, dispositivo de codificación de imágenes dinámicas, dispositivo de decodificación de imágenes dinámicas y dispositivo de codificación/decodificación de imágenes dinámicas
ES2843502T3 (es) Señalización de banderas de bloque codificado (CBF) de luminancia-crominancia en codificación de vídeo
ES2844148T3 (es) Procedimiento de descodificación de imágenes, dispositivo de descodificación de imágenes
ES2961495T3 (es) Procedimiento de decodificación de imágenes y procedimiento de codificación de imágenes
ES2625097T3 (es) Método de codificación de imágenes y aparato de codificación de imágenes
ES2800049T3 (es) Procedimientos y aparatos para codificar y decodificar vídeo utilizando una descripción actualizada de memoria intermedia
ES2923648T3 (es) Procedimiento de codificación de imágenes de vídeo, procedimiento de decodificación de imágenes de vídeo
ES2865101T3 (es) Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes
ES2802073T3 (es) Procedimiento de codificación de imagen, procedimiento de decodificación de imagen, dispositivo de codificación de imagen, dispositivo de decodificación de imagen y dispositivo de codificación/decodificación de imagen
ES2782227T3 (es) Procedimiento de codificación de imagen, procedimiento de decodificación de imagen, dispositivo de codificación de imagen, dispositivo de decodificación de imagen y dispositivo de codificación/decodificación de imagen
WO2016103542A1 (ja) 符号化方法、復号方法、符号化装置および復号装置
JP6489337B2 (ja) 算術復号方法および算術符号化方法
KR101815723B1 (ko) 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 및 화상 복호화 장치
ES2874762T3 (es) Procedimiento de codificación de vídeo y procedimiento de decodificación de vídeo
WO2012090495A1 (ja) 画像符号化方法および画像復号方法
JP6391018B2 (ja) 画像符号化方法、及び、画像符号化装置
WO2013153808A1 (ja) 画像復号方法および画像復号装置