MX2013014207A - Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes. - Google Patents

Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes.

Info

Publication number
MX2013014207A
MX2013014207A MX2013014207A MX2013014207A MX2013014207A MX 2013014207 A MX2013014207 A MX 2013014207A MX 2013014207 A MX2013014207 A MX 2013014207A MX 2013014207 A MX2013014207 A MX 2013014207A MX 2013014207 A MX2013014207 A MX 2013014207A
Authority
MX
Mexico
Prior art keywords
parameter
unit
value
block
filtering
Prior art date
Application number
MX2013014207A
Other languages
English (en)
Inventor
Matthias Narroschke
Thomas Wedi
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2013014207A publication Critical patent/MX2013014207A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Abstract

Un método de procesamiento de imágenes para realizar una filtración en bloques de imagen utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro incluye: un primer paso de cálculo de parámetros para calcular un primer parámetro (BS) que indica una intensidad de límite; un segundo paso de cálculo de parámetros para calcular un segundo parámetro (Tc) que indica un valor límite para cada uno de los filtros de desbloqueo, con base en el primer parámetro (BS) y un parámetro de cuantificación (QP) ; y un paso de selección para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre los filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro (Tc).

Description

METODO DE PROCESAMIENTO DE IMAGENES Y APARATO DE PROCESAMIENTO DE IMAGENES CAMPO DE LA INVENCION La presente invención se refiere a un método de procesamiento de imágenes y a un aparato de procesamiento de imágenes para filtrar imágenes utilizando filtros de desbloqueo .
ANTECEDENTES DE LA INVENCION Para los procesos de codificación de video, se han normalizado varios estándares. En la actualidad, la mayoría de procesos de codificación de video estandarizados se realizan utilizando procesos de codificación de video híbrida. En la codificación de video híbrida, la compresión reversible y la comprensión irreversible se combinan generalmente con el propósito de obtener una ganancia de compresión deseable. La codificación de video híbrida es la base para los estándares de ITU-T (estándares H.26x tales como H.261 y H.263) así como también los estándares de ISO/IEC (estándares MPEG-X tales como MPEG-1, MPEG-2 y MPTE-4) .
Un aparato de codificación de video el cual ejecuta una codificación de video híbrida recibe, como una entrada, una señal de video que representa una secuencia de imágenes que incluye una secuencia de tramas. En la codificación de REF: 245166 video híbrida, cada una de las imágenes de entrada (tramas) se divide en una pluralidad de bloques y la imagen se codifica en una base por bloques divididos. Entre los bloques divididos, el bloque que tiene el tamaño más grande es referido como la unidad de codificación más grande (LCU, por sus siglas en inglés) . Por ejemplo en la HEVC, el tamaño de la unidad de codificación más grande LCU es 64x64 pixeles. Además, en H.264/MPEG-4 AVC, la LCU se divide adicionalmente en unidades de codificación (CU, por sus siglas en inglés) cada una que tiene 16x16 pixeles más o menos, y la imagen se codifica en una base por CU. Además, la unidad de codificación CU se puede dividir adicionalmente en unidades de predicción (FU, por sus siglas en inglés) o unidades de transformación (TU, por sus siglas en inglés) cada una que tiene un tamaño más pequeño . Se debe observar que los tamaños de estos bloques pueden variar dependiendo de las clases del contenido de imágenes. Además, los esquemas de codificación pueden variar dependiendo de los bloques.
Puesto que la codificación se ejecuta en una base por bloques como se describiera anteriormente, cuando una corriente de bits codificada se decodifica, una imagen decodificada de la misma puede tener un límite de bloque evidente (un sonido de bloque) . Un sonido de bloque significativamente evidente aparece cuando se realiza una cuantificación aproximada en un proceso de cuantificación . Este sonido de bloque afecta adversamente el reconocimiento visual humano. En resumen, un sonido de bloque disminuye la calidad de la imagen.
Un método ejemplar para reducir los ruidos de bloque es un método para filtrar utilizando un filtro de desbloqueo en el estándar de codificación de video H.264/MPEG-4 AVC o HM (HM es un modelo de prueba de HEVC en el reporte de tendencias sobre la estandarización de codificación de video, véase la Bibliografía que no es Patente 3) . Un filtro de desbloqueo se utiliza para una imagen reconstruida que es referida en un proceso de predicción.
Lista de Referencias Bibliografía de Patente PTL 1 Publicación de Solicitud de Patente de los Estados Unidos No. 2008/0025632, Especificación Bibliografía que no es Patente NPL 1 JCT-VC, "WD3: Working Draft 3 of High-Eff iciency Video Coding" , JCTVC-E603, Marzo de 2011, Sección 8.6.1 NPL 2 JCT-VC, "Common test conditions and software reference conf igurations"., JCTVC-F900, Julio de 2011 NPL 3 JCT-VC, " D4:Working Draft 4 of High-Efficiency Video Coding", JCTVC-F803_d2 , Julio de 2011.
BREVE DESCRIPCION DE LA INVENCION Problema Técnico En la técnica convencional mencionada anteriormente, los ruidos de bloque se reducen en los procesos de filtración utilizando filtros de desbloqueo.
La presente invención se proporciona con el objetivo de proporcionar un método de procesamiento de imágenes y un aparato de procesamiento de imágenes para realizar, utilizando filtros de desbloqueo, procesos de filtración adaptados más adecuadamente para reducir estos ruidos de bloque .
Solución al Problema Con el propósito de alcanzar el objetivo mencionado anteriormente, un método de procesamiento de imágenes de acuerdo con un aspecto de la presente invención es un método de procesamiento de imágenes para realizar la filtración en bloques de imágenes utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro y el método de procesamiento de imágenes incluye: un primer paso de cálculo de parámetros para calcular un primer parámetro que indica una intensidad de límite entre dos bloques de imagen adyacentes; un segundo paso de cálculo de parámetros para calcular un segundo parámetro que indica un valor límite para cada uno de los filtros de desbloqueo, con base en el primer parámetro y un parámetro de cuantificación; y una paso de selección para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre los filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro.
Estos aspectos generales y específicos se pueden implementar utilizando un sistema, método, circuito integrado, programa de computadora o medio de grabación legible por computadora tal como un CD-ROM, o cualquier combinación de sistemas, métodos, circuitos integrados, programas dé computadora, o medios de grabación legibles por computadora.
Efectos Ventajosos de la Invención De acuerdo con la presente invención, es posible realizar un método de procesamiento de imágenes utilizando filtros de desbloqueo y un aparato de procesamiento de imágenes que incluye filtros de desbloqueo adaptados más adecuadamente a estos ruidos de bloque .
BREVE DESCRIPCION DE LAS FIGURAS La FIGURA 1 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de codificación de imágenes en movimiento de acuerdo con la Modalidad 1.
La FIGURA 2A es un diagrama que muestra dos unidades de bloques de codificación CU ejemplares que son adyacentes entre sí en una dirección horizontal.
La FIGURA 2B es un diagrama que muestra dos unidades de bloques de codificación CU ejemplares que son adyacentes entre sí en una dirección vertical.
La FIGURA 3A es un diagrama que muestra valores de pixel ejemplares de los pixeles en las dos unidades de bloques de codificación CU adyacentes entre sí en la dirección horizontal.
La FIGURA 3B es un diagrama que muestra específicamente un bloque adyacente A y un bloque objetivo B mostrados en la FIGURA 2A.
La FIGURA 4A es un diagrama que muestra un procedimiento de procesamiento de pasos de filtración en un ejemplo de comparación.
La FIGURA 4B es un diagrama que muestra dos bloques adyacentes entre sí en una dirección horizontal.
La FIGURA 4C es un diagrama que muestra dos bloques adyacentes entre sí en una dirección vertical.
La FIGURA 5 es un diagrama que muestra procedimientos de procesamiento de pasos para calcular intensidades de límites BS en el ejemplo de comparación.
La FIGURA 6 es un diagrama de bloques que muestra una estructura ejemplar de una unidad de filtración de desbloqueo., en el aparato de codificación de imágenes en movimiento de acuerdo con las modalidades.
La FIGURA 7A es un diagrama que muestra procedimientos de procesamiento de pasos de filtración en las modalidades.
La FIGURA 7B es un diagrama que muestra dos bloques adyacentes entre sí en una dirección horizontal.
La FIGURA 7C es un diagrama que muestra dos bloques adyacentes entre sí en una dirección vertical.
La FIGURA 8 es un diagrama de flujo que muestra procedimientos de procesamiento para calcular intensidades de límites BS y para establecer valores de compensación tc_offset de valores umbral tc en las modalidades.
La FIGURA 9A es un diagrama que muestra pixeles ejemplares que se utilizan en la filtración fuerte.
La FIGURA 9B es un diagrama que muestra pixeles ejemplares que se filtran utilizando la filtración fuerte.
La FIGURA 10A es un diagrama que muestra pixeles ejemplares que se utilizan en la filtración débil.
La FIGURA 10B es un diagrama que muestra pixeles ejemplares que se filtran utilizando la filtración débil.
La FIGURA 11 es un diagrama de flujo que muestra procedimientos de procesamiento para calcular intensidades de límites BS y para establecer valores de compensación tc_offset de valores umbral tc .
La FIGURA 12A es un diagrama que muestra eficiencias de codificación en el ejemplo de comparación y eficiencias de codificación en las modalidades.
La FIGURA 12B es un diagrama que muestra eficiencias de codificación en el ejemplo de comparación y eficiencias de codificación en las modalidades.
La FIGURA 13 es un diagrama de flujo que muestra procedimientos de procesamiento de pasos para calcular intensidades de límites BS en la Variación 1.
La FIGURA 14 es un diagrama que muestra eficiencias de codificación en el ejemplo de comparación y eficiencias de codificación en las modalidades.
La FIGURA 15 es un diagrama que muestra un valor umbral, establecido, ejemplar tc en la Variación 1.
La FIGURA 16 es un diagrama que muestra un valor umbral, establecido, ejemplar tc en la Variación 2.
La FIGURA 17 es un diagrama que muestra un valor umbral, establecido, ejemplar tc en la Variación 3.
La FIGURA 18A es un diagrama que muestra un procedimiento de procesamiento de pasos para filtrar en la Variación 4.
La FIGURA 18B es un diagrama que muestra un valor umbral, establecido, ejemplar tc en la Variación 4.
La FIGURA 19 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de decodificación de imágenes en movimiento de acuerdo con la Modalidad 2.
La FIGURA 20 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de codificación de imágenes en movimiento de acuerdo con la Modalidad 2.
La FIGURA 21 muestra una configuración completa de un sistema de provisión de contenido para implementar servicios de distribución de contenido.
La FIGURA 22 muestra una configuración completa de un sistema de difusión digital.
La FIGURA 23 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión.
La FIGURA 24 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información de y en un medio de grabación que es un disco óptico .
La FIGURA 25 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico .
La FIGURA 26A muestra un ejemplo de un teléfono celular .
La FIGURA 26B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular.
La FIGURA 27 ilustra una estructura de datos multiplexados .
La FIGURA 28 muestra esquemáticamente como cada corriente es multiplexada en datos multiplexados .
La FIGURA 29 muestra con mayor detalle como una corriente de video se almacena en una corriente de paquetes PES.
La FIGURA 30 muestra una estructura de paquetes TS y paquetes fuente en los datos multiplexados .
La FIGURA 31 muestra una estructura de datos de una PMT.
La FIGURA 32 muestra una estructura interna de información de datos multiplexados.
La FIGURA 33 muestra una estructura interna de información de atributos de corriente.
La FIGURA 34 muestra pasos para identificar datos de video.
La FIGURA 35 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento de acuerdo con cada una de las modalidades.
La FIGURA 36 muestra una configuración para conmutar entre frecuencias impulsoras.
La FIGURA 37 muestra pasos para identificar datos de video y conmutar entre frecuencias impulsoras.
La FIGURA 38 está asociada con frecuencias impulsoras .
La FIGURA 39A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señales.
La FIGURA 39B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señales .
DESCRIPCION DETALLADA DE LA INVENCION Conocimiento Fundamental que Forma la Base de la Presente invención/Destalles de Problemas en la Presente Invención En general, en la codificación de video híbrida, un aparato de codificación de imágenes en movimiento ejecuta un proceso de predicción para generar datos de imagen de predicción, y ejecuta por lo menos uno de un proceso de transformación y un proceso de cuantificación en datos de imagen residuales los cuales son una diferencia entre datos de imagen de entrada y los datos de imagen de predicción. En el proceso de predicción, la predicción espacial o la predicción temporal se utiliza en general. En la predicción espacial, un bloque espacialmente cercano entre bloques ya codificados se utiliza para la predicción. En la predicción temporal, un bloque temporalmente cercano entre bloques ya codificados se utiliza para la predicción. En el proceso de transformación, los datos residuales de predicción (bloque residual de predicción) se transforman de un dominio espacial (pixel) a un dominio de frecuencia, dando por resultado coeficientes de transformación. Esta transformación se realiza con el objetivo de reducir la correlación entre bloques de entrada. En el proceso de cuantificación, los coeficientes de transformación se cuantifican para generar coeficientes cuantificados . Esta cuantificación se realiza utilizando una compresión irreversible. En general, el aparato de codificación de imágenes en movimiento realiza una codificación entrópica en los coeficientes cuantificados para comprimir adicionalmente (comprimir de manera reversible) los coeficientes cuantificados comprimidos, para generar una señal de video codificada. Adicionalmente, el aparato de codificación de imágenes en movimiento codifica información de control de decodificación que es necesaria para decodificar una corriente de bits codificada. Esta información de control de decodificación es, por ejemplo, información relacionada con la predicción espacial y/o la predicción temporal, la cantidad de cuantificación y así por el estilo. El aparato de codificación de imágenes en movimiento genera la corriente de bits codificada que incluye la señal de video codificada y la información de control de decodificación .
Estructura del Aparato de Codificación de Imágenes en Movimiento en el Ejemplo de Comparación La FIGURA 1 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de codificación de imágenes en movimiento el cual soporta el H.264/MPEG AVC o HEVC .
Como se muestra en la FIGURA 1, el aparato de codificación de imágenes en movimiento 100 incluye un sustractor 105, unidad de transformación 110, unidad de cuantificación 120, unidad de cuantificación inversa/transformación inversa 130, sumador 140, unidad de filtración de desbloqueo 150, unidad de compensación adaptable a la muestra 155, unidad de filtración de bucle adaptable 165, memoria de tramas 170, unidad de predicción 180 y codificador entrópico 190.
En la FIGURA 1, el sustractor 105 genera, para cada bloque, datos de error de predicción (una señal de error de predicción eO) al sustraer datos de imagen de predicción (una señal de imagen de predicción s5) que corresponden a un bloque actual que es codificado a partir de datos de imagen de entrada de un bloque actual que es codificado el cual está incluido en una señal de entrada sO.
La unidad de transformación 110 transforma los datos de error de predicción generados (señal de error de predicción eO) de un dominio de imagen a un dominio de frecuencia .
La unidad de cuantificación 120 realiza un proceso de cuantificación en los datos de error de predicción (señal de error de predicción el) transformados al dominio de frecuencia, para calcular coeficientes cuantificados . En este documento, la unidad de cuantificación 120 transforma los datos de error de predicción utilizando una transformación de coseno discreta bidimensional (DCT, por sus siglas en inglés) . Los coeficientes cuantificados que se calculan utilizando la DCT tienden a ser componentes de baja frecuencia. Se debe observar que la unidad de cuantificación 120 puede transformar los datos de error de predicción utilizando una transformación de números enteros o similares.
La unidad de cuantificación inversa/transformación inversa 130 realiza una cuantificación inversa en los datos de error de predicción (señal de error de predicción e2) cuantificados por la unidad de cuantificación 120 y realiza además una transformación inversa para transformar del dominio de frecuencia al dominio de imagen. Se debe observar que la señal de error de predicción e3 es diferente de la señal de error de predicción original eO debido a la influencia de un error de cuantificación también llamado un ruido de cuantificación el cual ocurre en el proceso de cuantificación .
El sumador 140 genera datos de imagen reconstruida (señal de imagen reconstruida si) al agregar los datos de imagen de predicción (señal de imagen de predicción s5) y los datos de error de predicción (señal de error de predicción e3) ya sujetados a la cuantificación inversa y la transformación inversa por medio de la unidad de cuantificación inversa/transformación inversa 130.
La unidad de filtración de desbloqueo 150 realiza una filtración en los datos de imagen reconstruida (señal de imagen reconstruida si) . En este documento, la unidad de filtración de desbloqueo 150 ejecuta una filtración en los bordes de CU, bordes de PU y bordes de TU. Cada uno de los bordes de CU significa un borde el cual aparece debido a ruidos de bloque, etcétera en el proceso de cuantificación en el límite entre dos unidades de codificación adyacentes CU. Del mismo modo, los bordes cada uno de los cuales está en el límite entre dos unidades de predicción (PU) son referidos como bordes de PU y los bordes cada uno de los cuales está en el límite entre dos unidades de transformación son referidos como bordes de TU.
La unidad de filtración de desbloqueo 150 incluye una pluralidad de filtros de desbloqueo que tienen diferentes intensidades y una unidad de control de filtros la cual controla la pluralidad de filtros de desbloqueo (ambos no se muestran en la FIGURA 1) . En este documento, se proporciona una descripción de un caso donde la unidad de filtración de desbloqueo 150 incluye dos clases de filtros de desbloqueo una de las cuales es para bandas estrechas y la otra de las cuales es para bandas anchas. Por ejemplo, en el H.264/MPEG-4 AVC, en el caso de un sonido de bloque grande, un filtro de paso bajo fuerte (banda estrecha) se utiliza como filtro de desbloqueo. En el otro caso de un sonido de bloque pequeño, un filtro de paso bajo débil (banda ancha) se utiliza como filtro de desbloqueo. La intensidad del filtro de paso bajo se determina por medio de una señal de predicción s' y una señal de error de predicción cuantificada e' . El filtro de desbloqueo alisa generalmente los bordes de bloques y de esta manera la imagen decodificada tiene una calidad de imagen subjetiva, incrementada. Adicionalmente , los datos filtrados de imagen reconstruida (señal de imagen reconstruida s2) se utilizan en la predicción compensada por movimiento la cual es realizada por la unidad de predicción 180 para generar datos de imagen de predicción. De esta manera, los datos de imagen de predicción tienen un error de predicción reducido. De esta manera, se logra una eficiencia de codificación incrementada .
Los procesos de filtración se describen con detalle posteriormente .
La unidad de compensación adaptable a la muestra 155 realiza, en una base por unidad de pixeles, un proceso para asignar un valor de compensación para la aproximación a los valores de pixel originales en los datos de imagen reconstruida (señal de imagen reconstruida s2) filtrados por la unidad de filtración de desbloqueo 150.
La unidad de filtración de bucle adaptable 165 incluye un filtro de bucle adaptable y realiza un proceso para compensar una distorsión de imagen debida a la compresión en los datos de imagen reconstruida (señal de imagen reconstruida s3) fuera de la unidad de compensación adaptable a la muestra 155. Como este filtro de bucle adaptable, un filtro de Wiener se utiliza generalmente el cual tiene coeficientes de filtro determinados para minimizar el error cuadrado medio entre la señal de imagen reconstruida si y la señal de imagen de entrada sO.
Por medio del uso de la unidad de compensación adaptable a la muestra 155 y la unidad de filtración de bucle adaptable 165, es posible incrementar la adaptabilidad a la imagen original en una unidad por pixeles e incrementar de ese modo la calidad de la imagen.
La memoria de trama 170, almacena en una base por tramas, los datos de imagen reconstruida (señal de imagen reconstruida s4) ya sujetados a la aplicación del filtro de bucle adaptable.
La unidad de predicción 180 incluye una unidad de intraprediccion la cual realiza una predicción espacial (intraprediccion) para generar una imagen de predicción y una unidad de interprediccion la cual realiza una predicción temporal (interprediccion) para generar una imagen de predicción (la unidad de intraprediccion y la unidad de interprediccion no se muestran en las figuras) . La unidad de predicción 180 puede seleccionar el tipo de predicción en una base por tramas o una base por bloques. La unidad de intraprediccion realiza una intraprediccion utilizando la imagen reconstruida en una base por bloques almacenada en la memoria de tramas 170 para generar datos de imagen de intraprediccion de un bloque actual que es codificado. La unidad de interprediccion realiza una interprediccion utilizando los datos de imagen reconstruida en una base por tramas almacenados en la memoria de tramas 170 y un vector de movimiento deducido por medio de la estimación de movimiento etcétera, para generar datos de imagen de interprediccion de un bloque actual que es codificado. Se debe observar que se puede determinar que cada uno de los vectores de movimiento tiene una resolución de sub-pixeles espacial de 1/2 pixel, 1/4 pixel o similares.
El codificador entrópico 190 realiza una codificación de longitud variable en los datos de error de predicción (señal de error de predicción e2) para generar una corriente de bits codificada. La codificación de longitud variable se realiza utilizando, por ejemplo, códigos de longitud de corrida. Esta codificación de longitud variable reduce adicionalmente la cantidad de datos.
Método de Filtración de Desbloqueo en el Ejemplo de Comparación En lo sucesivo, los procesos de filtración que utilizan filtros de desbloqueo se describen con detalle con referencia a las FIGURAS 2A a 5.
Se debe observar que cada uno de los procesos de filtración que utilizan los filtros de desbloqueo puede incluir un paso para establecer un filtro y un paso para filtrar un bloque objetivo de codificación CU de acuerdo con el establecimiento en el paso de control. El paso de control incluye (i) un paso para determinar si una filtración es ejecutable o no y (ii) un paso para seleccionar un filtro de desbloqueo que se utiliza. El paso de selección (ii) incluye calcular cada uno de los parámetros los cuales definen una operación del filtro de' desbloqueo, por ejemplo, calculando, etcétera el tc que indica un intervalo límite en el proceso de filtración. (1) Determinación de la Ejecutabilidad de la Filtración Es deseable que una filtración que utiliza un filtro de desbloqueo se deba aplicar a un borde del límite de bloque el cual aparece debido a un sonido de bloque pero no se debe aplicar a un borde de imagen de entrada el cual aparece sin ser afectado por ningún sonido de bloque. Por ejemplo, esto es debido a que si un borde de imagen de entrada no afectado por ningún sonido de bloque se filtra utilizando un filtro de desbloqueo, la imagen puede ser alisada innecesariamente o puede sufrir una distorsión de imagen. Por otra parte, si un borde del límite de bloque afectado por un sonido de bloque no es filtrado utilizando un filtro de desbloqueo, el sonido de bloque puede permanecer.
Por esta razón, en la filtración utilizando un filtro de desbloqueo, es importante diferenciar de manera exacta un borde de límite de bloque afectado por un sonido de bloqueo generado en un proceso de cuantificación etcétera y un borde de imagen de entrada no afectado por ningún sonido de bloque .
En lo sucesivo, los pasos para determinar la ej ecutabilidad de filtración se describen con referencia a las FIGURAS 2A a 3B.
Aunque existen varios esquemas para determinar la ej ecutabilidad de la filtración, cada uno de los esquemas descritos en este documento es para la determinación con base en los valores de pixeles en ambos lados de un límite de bloque.
La FIGURA 2A es un diagrama que muestra pixeles que se utilizan en un paso para determinar la ej ecutabilidad de la filtración en el límite entre dos unidades de bloques de codificación CU ejemplares que son adyacentes entre sí en una dirección horizontal. La FIGURA 2B es un diagrama que muestra pixeles que se utilizan en un paso para determinar la ej ecutabilidad de la filtración en el límite entre dos unidades de bloques de codificación CU ejemplares que son adyacentes entre sí en una dirección vertical. Se debe observar que, en la FIGURA 2A y la FIGURA 2B, un bloque 340 es un bloque actual que es procesado, y los bloques 310, 320 y 330 son bloques procesados (codificados o decodificados) . Además, en la FIGURA 2A, las líneas de pixeles 360 cada una hecha de pixeles dispuestos en la dirección horizontal se establecen en una base por líneas. Cada línea de pixeles 360 está hecha de seis pixeles en total, específicamente tres pixeles en cada uno de los lados con respecto a un límite. Del mismo modo, en la FIGURA 2B, las líneas de pixeles 370 cada una hecha de pixeles dispuestos en la dirección vertical se establecen en una base por líneas. Cada línea de pixeles 370 está hecha de seis pixeles en total, específicamente tres pixeles en cada uno de los lados con respecto a un límite. El paso de determinación de la e ecutabilidad se ejecuta en una base por líneas de pixeles.
La FIGURA 3A es una gráfica que muestra ejemplos de valores de pixeles de los pixeles incluidos en la línea de pixeles 360 mostrada en la FIGURA 2A. Además, la FIGURA 3B es un diagrama que muestra específicamente el ejemplo del bloque adyacente 330 mostrado en la FIGURA 2A (un bloque A en las FIGURAS 3A y 3B) y el bloque objetivo de procesamiento 340 (un bloque B en las FIGURAS 3A y 3B) . Una línea 410 mostrada en la FIGURA 3A muestra el límite entre el bloque A y el bloque B. En la FIGURA 3B, un pixel prc es un pixel incluido en el bloque A. El pixel qrc es un pixel incluido en el bloque B. Se debe observar que r representa un índice para especificar una línea de pixeles y representa 0, 1, ... para el pixel más cercano a la línea 410, el siguiente pixel más cercano a la línea 410,..., respectivamente. Además, c representa un índice para especificar una línea de pixeles y representa 0, 1, ... para el pixel de la parte más alta, el siguiente pixel de la parte más alta,..., respectivamente.
Por ejemplo, en el H.264/MPEG-4 AVC, el paso para determinar la e j ecutabilidad se realiza de acuerdo con el esquema indicado posteriormente. El H.264/MPEG-4 AVC implica la evaluación de los valores absolutos de la primera deducción (primea función deducida) en el bloque adyacente A y el bloque objetivo de procesamiento B (por ejemplo, véase la Bibliografía de Patente 1) . En este documento, se proporciona una descripción de una determinación la cual se hace utilizando la línea de pixeles 360 mostrada en la FIGURA 2A. Además, la determinación en este documento se hace para cada una de las líneas de pixeles en una base por líneas de pixeles. Para cada uno de los pixeles pO y qO, una determinación de que se debe ejecutar la filtración se hace cuando se satisface las condiciones mostradas por las Expresiones 1 a 3.
Ecuación Matemática 1 Po -<Io < a H264 (Expresión 1) Ecuación Matemática 2 Pl -Po\ < fiH2(*(QPNeW). . . (Expresión 2) Ecuación Matemática 3 H26^QPNew) . . . (Expresión 3) En este documento, en general ß ?; 264 (QPNew) < 01?264 (QP ew) se satisface.
Además de las tres condiciones, anteriores, un pixel pl se filtra cuando se satisface una condición mostrada por la siguiente Expresión 4.
Ecuación Matemática 4 . . . (Expresión 4) Además de las tres condiciones anteriores mostradas por las Expresiones 1 a 3, un pixel ql se filtra cuando satisface una condición mostrada por siguiente Expresión 5. Ecuación Matemática 5 (Expresión 5) s condiciones mostradas por las Expresiones 1 a 5 corresponden a la evaluación de una primera deducción en un primer bloque y la evaluación de una primera deducción en un segundo bloque. En las Expresiones 1 a 5, un QP es un parámetro de cuantificación que muestra la cantidad de cuantificación (un tamaño de paso de cuantificación) aplicada en un proceso de cuantificación y cada uno de ß y a es una constante escalar. En particular, un QPNew es un parámetro de cuantificación deducido con base en los parámetros de cuantificación QPA y QPB utilizados para el primer bloque A y el segundo bloque B, como se muestra por la siguiente Expresión 6 Ecuación Matemática 6 . (Expresión 6) En este documento, ">> n" muestra un cambio a la derecha por n bits (1 bit en la expresión anterior) .
Como se describiera anteriormente, en el H.264/MPEG-4 AVC, la ej ecutabilidad se determina utilizando todas las líneas de pixeles 360, pero esto es ejemplar.
Por ejemplo, en la HEVC, la ej ecutabilidad se determina utilizando algunas de las líneas de pixeles 360 en una base por bloques (véase la Bibliografía que no es Patente 1) · En lo sucesivo, un paso para determinar la ej ecutabilidad de la filtración en la HEVC se describe con referencia a las FIGURAS 3A y 3B. En la HEVC, los valores absolutos de la segunda deducción (segundas funciones deducidas) en un bloque adyacente A y un bloque objetivo de procesamiento B se evalúan. Se debe observar que, en las FIGURAS 3A y 3B, la e ecutabilidad se determina en una base por bloques utilizando las dos líneas de pixeles 430 de la tercera línea y la sexta línea desde la línea superior.
Más específicamente, en primer lugar, un valor de evaluación dp y un valor de evaluación dq para determinar la ej ecutabilidad se calculan utilizando la siguiente Expresión 7.
Ecuación Matemática 7 dp =dP2+dP5 dq=dq2+dq5 . . . (Expresión 7) En este documento, el valor de evaluación dp y el valor de evaluación dq corresponden a los resultados de la evaluación de la segunda deducción en el primer bloque y la evaluación de la segunda deducción en el segundo bloque. Cuando se satisface una condición mostrada por la siguiente Expresión 8, una determinación de que se debe realizar la filtración se hace para todas las ocho líneas de pixeles mostradas en la FIGURA 3B.
Ecuación Matemática 8 d = d + dq< r'{xQ>£'P) / . . . (Expresión 8) Se debe observar que no se ejecuta la filtración cuando no se satisfacen todas las condiciones anteriores. (2) Selección de Filtro de Desbloqueo Para el Uso Cuando se determina, en el paso de determinación mencionado anteriormente, que la filtración se debe ejecutar, se ejecuta un paso de selección el cual es para seleccionar un filtro de desbloqueo para el uso de entre una pluralidad de filtros de desbloqueo que tienen diferentes intensidades.
El ejemplo de comparación describe un caso de selección de un filtro de desbloqueo para el uso con base en una intensidad de límite BS .
La FIGURA 4A es un diagrama de flujo que muestra un procedimiento de procesamiento de pasos de filtración. Además, la FIGURA 4B muestra dos bloques los cuales son los bloques BP y BQ adyacentes entre sí en una dirección horizontal. La FIGURA 4C muestra dos bloques los cuales son los bloques BP y BQ adyacentes entre sí en una dirección vertical.
En el Paso S1000, la unidad de control de filtros de la unidad de filtración de desbloqueo 150 mostrada en la FIGURA 1 calcula una intensidad de límite BS como un primer parámetro. El valor de la intensidad de límite BS es un número entero mayor que o igual a 0. El procedimiento para calcular está intensidad de límite BS se describe con detalle posteriormente .
En la Paso S1010, la unidad de control de filtros determina si la intensidad de límite BS calculada en el Paso S1000 es o no un número entero. Cuando se determina que la BS no es un valor positivo (BS = 0) en el Paso S1010 (No en S1010) , la unidad de control de filtros termina el procesamiento sin ejecutar la filtración.
Por otra parte, cuando se determina que la BS es un valor positivo en el Paso S1010 (Si en S1010) , la unidad de control de filtros calcula un valor umbral tc el cual define un intervalo de salida para un filtro de desbloqueo y un valor umbral ß para seleccionar el filtro de desbloqueo. El valor umbral tc el cual define el intervalo de salida para el filtro de desbloqueo y el valor umbral ß para seleccionar el filtro de desbloqueo se describen con detalle posteriormente.
En el Paso S1030, la unidad de control de filtros selecciona el filtro de desbloqueo con base en el valor umbral ß. Esta selección puede significar que no se seleccione un filtro de desbloqueo. Más específicamente, con base en el valor umbral ß, la unidad de control de filtros selecciona cualquiera de un filtro fuerte, un filtro débil o ningún filtro.
Cuando el filtro fuerte se selecciona en el Paso S1030, la unidad de control de filtros realiza una filtración en un límite de bloque actual que es procesado, utilizando un filtro de desbloqueo para bandas estrechas (S1032) . Cuando el filtro débil se selecciona en el Paso S1030, la unidad de control de filtros realiza una filtración en un límite de bloque actual que es procesado, utilizando un filtro de desbloqueo para bandas anchas (S1034). Cuando no se selecciona un filtro en el Paso S1030, la unidad .de control de filtros no realiza una filtración (S1036).
Con la ejecución de estos pasos de filtración, es posible alisar cada uno de los bordes en límites de bloques en datos de imagen reconstruida e incrementar de ese modo la calidad de la imagen reconstruida.
Los pasos para calcular varias clases de parámetros que se utilizan en los pasos de selección de filtros de desbloqueo mencionados anteriormente se describen con detalle en este documento.
En primer lugar, se describe como calcular una intensidad de límite El esquema para calcular una intensidad de límite BS en el Paso S1000 mostrado en la FIGURA 4A se describe con base en la FIGURA 5. La FIGURA 5 es un diagrama de flujo que muestra posibles procedimientos de procesamiento de pasos para calcular la intensidad de límite BS en el Paso S1000.
En este documento, existe una correlación entre el valor de una intensidad de límite BS y el tamaño de un sonido de bloque. En general, mientras más grande sea la intensidad de límite BS, más grande es el sonido de bloque. En el diagrama de flujo de la FIGURA 5, las condiciones para determinar una intensidad de límite BS se establecen de la siguiente manera: (i) si un bloque actual es o no una imagen intracodificada; (ii) si un borde actual es o no un borde de CU; (iii) si un indicador CBF es o no 0 (el indicador cbf muestra si un coeficiente se mantiene o no) ; (iv) si los dos bloques que comparten un límite se refieren o no a la misma imagen de referencia; y (v) la diferencia absoluta en los 2 valores de pixeles entre pixeles es más grande que un valor umbral predeterminado. Se debe observar que las condiciones de determinación en el establecimiento de está intensidad de límite BS pueden ser otra condición de determinación tal como la condición sobre si un vector de movimiento que se utiliza en la predicción compensada por movimiento para un bloque actual que es codificado es o no el mismo que un vector de movimiento utilizado la predicción compensada por movimiento para un bloque adyacente .
En el Paso S210, la unidad de control de filtros 153 (FIGURA 6) de la unidad de filtración de desbloqueo 150 (FIGURA 1 y FIGURA 6) determina si por lo menos uno de los bloques BP y BQ es o no una imagen intracodificada . La imagen intracodificada (imagen I) tiende a tener un error de cuantificación grande que es generado en la cuantificación, en comparación con una imagen inter-codificada . Por esta razón, cuando por lo menos uno de los bloques BP y BQ es una imagen intracodificada, un valor comparativamente grande se establece como una intensidad de límite.
Cuando se determina que por lo menos uno de los bloques BP y BQ es una imagen intracodificada (SI en el Paso S210) , en el Paso S212, la unidad de control de filtros 153 determina si un límite de bloque actual que es procesado es o no un límite entre unidades de codificación CU (si un borde actual que es procesado es o no un borde de CU) .
Cuando se determina que el límite de bloque actual que es procesado es un borde de CU (SI en el Paso S212) , el valor de la intensidad de límite BS se establece a 4 (Paso S216) . Por otra parte, cuando se determina que el límite de bloque actual que es procesado no es un borde de CU (NO en el Paso S212) , por ejemplo, cuando el límite de bloque actual que es procesado es un borde de PU o un borde de TU, el valor de la intensidad de límite BS se estable a 3 (Paso S214) .
Cuando se determina que ambos bloques BP y BQ no son imágenes intracodificadas en el Paso S210 (No en S210) , se determina si uno de los valores de un indicador cbf-P y un indicador cbf-Q es o no no-0 (S220) . En este documento, el indicador cbf-P es un indicador que muestra si el bloque BP tiene o no un coeficiente. El indicador muestra la presencia del coeficiente cuando el valor es no-0 y el indicador muestra la ausencia del coeficiente cuando el valor es 0. Del mismo modo, el indicador cbf-Q es una indicador que muestra si el bloque BQ tiene o no un coeficiente.
Cuando se determina que tanto el indicador cbf-P como el indicador cbf-Q son 0 (SI en S220) , en el Paso S222, el valor de la intensidad de límite BS se establece a 2.
Por otra parte, cuando se determina que uno del indicador cbf-P y el indicador cbf-Q es 0 (NO en S220) , se hace una determinación en lo que se refiere a si un índice de imagen de referencia Refldx-P del bloque BP y un índice de imagen de referencia Refldx-Q del bloque BQ son o no diferentes entre sí (S230) . Se debe observar que el índice de imagen de referencia Refldx-P es un índice que muestra una imagen que es referida en la predicción del bloque BP. El índice de imagen de referencia Refldx-Q es un índice que muestra una imagen que es referida en la predicción del bloque BQ.
Cuando se determina que el índice de imagen de referencia Refldx-P y el índice de imagen de referencia Refldx-Q son diferentes (SI en S230) , el valor de la intensidad de límite BS se establece a 1.
Por otra parte, cuando se determina que el índice de imagen de referencia Refldx-P y el índice de imagen de referencia Refldx-Q son los mismos (NO en S230) , se determina si uno de un parámetro AbsHor y un parámetro AbsVer es o no más grande que 3 (S240) . En este documento, el parámetro AbsHor es representado por la diferencia absoluta en los componentes horizontales entre un vector de movimiento que se utiliza en la predicción del bloque BP y un vector de movimiento que se utiliza en la predicción del bloque BQ. En este documento, el parámetro AbsVer es representado por la diferencia absoluta entre el componente vertical del vector de movimiento que se utiliza en la predicción del bloque BP y el componente vertical del vector de movimiento que se utiliza en la predicción del bloque BQ. Aunque 3 se utiliza como el valor de determinación para los parámetros AbsHor y AbsVer en el Paso S240, el valor de determinación no está limitado al mismo.
Cuando se determina que uno de los parámetros AbsHor y AbsVer es más grande que 3 (SI en S240) , el valor de la intensidad de límite BS se establece a 1 (S242) .
Cuando se determina que ambos parámetros AbsHor y AbsVer son más pequeños que o iguales a 3 (NO en S240) , el valor de la intensidad de límite BS se establece a 0 (S244) .
La unidad de filtración de desbloqueo 150 realiza una filtración utilizando un filtro más fuerte conforme el valor de la intensidad de límite BS es más grande. Cuando el valor de la intensidad de límite BS es 0, la unidad de filtración de desbloqueo 150 no ejecuta ninguna filtración. Mientras más fuerte sea el filtro de desbloqueo ("un filtro más fuerte"), la unidad de filtración de desbloqueo 150 modifica sustancialmente los valores de pixeles de los pixeles en el límite.
Después, se describe como calcular un parámetro tc. Se proporciona una descripción de un esquema para calcular un valor umbral tc para un filtro de desbloqueo en el Paso S1020 de la FIGURA 4A.
Como un esquema para calcular este valor umbral tc para un filtro de desbloqueo, por ejemplo, la AVC proporciona, como se muestra en la siguiente Expresión 9, un esquema para deducir un tc utilizando una tabla de codificación bidimensional de índices los cuales son parámetros de cuantificación QP y los valores de intensidades de límite BS .
Ecuación Matemática 9 tc = cliptable[OP][BS ] (Expresíón 9) Sin embargo, este esquema tiene el problema de que se requiere una memoria de gran capacidad para almacenar la tabla de codificación bidimensional debido a la gran cantidad de datos que se almacenan en la tabla de codificación bidimensional. Además, puesto que una cantidad grande de datos se lee de la memoria de gran capacidad, es difícil incrementar la eficiencia de procesamiento.
Como otro esquema para calcular este valor umbral tc para un filtro de desbloqueo, por ejemplo, la HEVC (iniciando desde la HM versión 1.0) proporciona un esquema para deducir el valor umbral tc utilizando una tabla de codificación unidimensional de índices los cuales son variables tc_offset . El parámetro tc_offset se calcula con base en el valor de la intensidad de límite BS deducida en el Paso S1000 mostrado en la FIGURA 4A. La unidad de control de filtros establece 0 para tc_offset cuando la intensidad de límite BS es 2 o menos y establece 2 para tc_offset cuando la intensidad de límite BS es más grande que 2. De acuerdo con la siguiente Expresión 10, se determina un parámetro tc.
Ecuación Matemática 10 tc =Tctable\QP+tc _offset] .. (Expresión 10) En este documento, el valor de tc_offset se establece a 2 cuando la intensidad de límite BS es más grande que 2 y el valor de tc_offset se establece a 0 cuando la intensidad de límite BS es más pequeña que o igual a 2. Una función tcTable [ ] es una función de tabla y el tc se deduce con base en los argumentos en el [ ] . Esta tabla se define en la Bibliografía que no es Patente 3 citada anteriormente.
Detalles del Problema La filtración en un ejemplo de comparación se ha descrito anteriormente.
Como se describiera anteriormente, existen exigencias para la adaptabilidad adicional a ruidos de bloque en procesos de filtración por medio de filtros de desbloqueo. Con el propósito de incrementar adicionalmente la adaptabilidad a los ruidos de bloque, por ejemplo, es deseable que un filtro de desbloqueo actual que se utiliza en un proceso de filtración se deba seleccionar apropiadamente de entre diferentes filtros de desbloqueo.
Con el propósito de resolver el problema, un esquema de filtración de desbloqueo de acuerdo con un aspecto de la presente invención es un método de procesamiento de imágenes para realizar una filtración en bloques de imágenes utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro, el método de procesamiento de imágenes incluye: un primer paso de cálculo de parámetros para calcular un primer parámetro que indica una intensidad de límite entre dos bloques de imagen adyacentes; un segundo paso de cálculo de parámetros para calcular un segundo parámetro que indica un valor límite de cada uno de los filtros de desbloqueo, con base en el primer parámetro y un parámetro de cuantificación; y un paso de selección para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre los filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro .
De acuerdo con el método de procesamiento de imágenes que incluye estos pasos, el segundo parámetro Te se utiliza para seleccionar uno de los filtros de desbloqueo. De esta manera, es posible incrementar adicionalmente la adaptabilidad a ruidos de bloque en el proceso de filtración utilizando el filtro de desbloqueo. De esta manera, es posible incrementar adicionalmente la calidad de la imagen después de ser sujetada al proceso de filtración.
Adicionalmente, por ejemplo, en el segundo paso de cálculo de parámetros, el segundo parámetro se puede calcular utilizando una suma lineal del primer parámetro y el parámetro de cuantificación .
Como se describiera anteriormente, en el esquema de HEVC, los pasos de cálculo de una variable tc_offset, con referencia a una tabla de codificación unidimensional, y similares tienden a ser complejos. Por esta razón, existen exigencias por reducir los pasos intermedios y parámetros intermedios en el cálculo de parámetros que se utilizan en el paso de selección de un filtro de desbloqueo sin requerir un espacio de memoria grande, con el fin de incrementar la eficiencia de procesamiento.
De acuerdo con un método de procesamiento de imágenes que incluye esos pasos, puesto que el segundo parámetro Te se define con base en una suma lineal del primer parámetro (la intensidad de límite BS) y el parámetro de cuantificación QP, es posible deducir el segundo parámetro Te utilizando una operación simple. Con esto, no se requiere un espacio de memoria grande. Adicionalmente , de acuerdo con el esquema de filtración de desbloqueo, puesto que el segundo parámetro Te se define con base en una suma lineal del primer parámetro (la intensidad de límite BS) y el parámetro de cuantificación QP, es posible suprimir el incremento de pasos intermedios y parámetros intermedios.
Adicionalmente, la selección de uno de los filtros de desbloqueo utilizando el segundo parámetro Te deducido utilizando esta operación simple hace posible reducir la cantidad de procesamiento requerida para la selección y de ese modo se incrementa la eficiencia de procesamiento.
Adicionalmente , de acuerdo con el método de procesamiento de imágenes que incluye esos pasos, puesto que el segundo parámetro Te se define con base en una suma lineal del primer parámetro (la intensidad de límite BS) y el parámetro de cuantificación QP, es posible incrementar la calidad de la imagen después de ser sujetada al proceso de filtración .
Además, por ejemplo, en el segundo paso de cálculo de parámetros, el segundo parámetro se puede calcular de tal manera que un valor del segundo parámetro sea más grande cuando un valor del primer parámetro es más grande. Adicionalmente, por ejemplo, en el segundo paso de cálculo de parámetros, el segundo parámetro se puede calcular de tal manera que el valor del segundo parámetro sea más grande cuando un valor del parámetro de cuantificación es más grande .
De acuerdo con el método de procesamiento de imágenes que incluye esos pasos, puesto que el segundo parámetro Te (por ejemplo, el valor umbral para un filtro de bucle) se cambia dependiendo de una intensidad de límite BS, es posible incrementar la calidad de la imagen después de ser sujetada al proceso de filtración.
Por ejemplo, en un ejemplo de comparación mostrado en la FIGURA 5, por ejemplo, Te = 0 se establece en cada uno de los casos donde BS = 1 y BS = 2. En otras palabras, por ejemplo, el mismo valor umbral se establece para un filtro de bucle independientemente de las intensidades de límite BS.
En contraste, de acuerdo con el método de procesamiento de imágenes, los segundos parámetros Te se establecen dependiendo de las intensidades de límite. Por ejemplo, Te se establece que es 1 cuando BS = 2 y Te se establece a 0 cuando BS = 1. De esta manera, es posible establecer filtros adaptados adicionalmente a las imágenes.
Además, por ejemplo, en el paso de selección, cada uno de uno o más valores umbral se pueden calcular de tal manera que el valor umbral sea más grade cuando un valor del segundo parámetro es más grande .
De acuerdo con el método de procesamiento de imágenes, es posible establecer apropiadamente los valores umbral.
Además, por ejemplo, en el paso de selección: se puede determinar un primer valor umbral y un segundo valor umbral, el primer valor umbral es para seleccionar uno de los filtros de desbloqueo y el segundo valor umbral es para determinar si se selecciona o no alguno de los filtros de desbloqueo; y se puede seleccionar o no uno de los filtros de desbloqueo para utilizar cualquiera de los filtros de desbloqueo.
Además, por ejemplo, el método de procesamiento de imágenes puede incluir además un paso de determinación de ej ecutabilidad para determinar si se realiza o no la filtración utilizando el primer parámetro antes de ejecutar el paso de selección.
Además, por ejemplo, el primer paso de cálculo de parámetros puede incluir: un primer paso de determinación para determinar si por lo menos uno de los dos bloques de imagen adyacentes es o no un bloque que es intracodificado ; y un paso de establecimiento para establecer un primer valor fijo para el primer parámetro cuando se determina en el primer paso de determinación que por lo menos uno de los dos bloques de imagen adyacentes es el bloque que es intracodificado .
Además, por ejemplo, el primer paso de cálculo de parámetros puede incluir además un paso de establecimiento para establecer, para el primer parámetro, un segundo valor fijo diferente del primer valor fijo cuando se determinada en el paso de determinación que los dos bloques de imagen adyacentes son ambos bloques que no son intracodificados .
Además, por ejemplo, el primer paso de cálculo de parámetros puede incluir además : un segundo paso de determinación para determinar si por lo menos uno de los dos bloques de imagen adyacentes incluye o no por lo menos un coeficiente de transformación que no es cero cuando se determina en el primer paso de determinación que los dos bloques de imagen adyacentes son ambos bloques que no son intracodificados ; y un paso de establecimiento para establecer el primer parámetro utilizando un resultado del segundo paso de determinación.
Además, por ejemplo, cuando se determina en el primer paso de determinación que los dos bloques de imagen adyacentes son ambos bloques que no son intracodificados, el primer paso de cálculo de parámetros puede incluir además: un segundo paso de determinación para determinar si por lo menos uno de los dos bloques adyacentes incluye o no por lo menos un coeficiente que no es cero; un tercer paso de determinación para determinar si los dos bloques de imagen adyacentes tienen o no diferentes índices de referencia cada uno que indican una imagen de referencia en la inter-codificación; un cuarto paso de determinación para determinar si una valor absoluto de diferencia entre los dos bloques de imagen adyacentes excede o no un valor umbral predeterminado, el valor absoluto de diferencia es uno de un valor absoluto de diferencia entre componentes de vectores de movimiento horizontales de los dos bloques de imagen adyacentes y un valor absoluto de diferencia entre componentes de vectores de movimiento verticales de los dos bloques de imagen adyacentes; y un paso de establecimiento para establecer el primer valor fijo para el primer parámetro en el caso donde (i) se determina en el segundo paso de determinación que está incluido por lo menos el coeficiente de transformación que no es cero, (ii) se determina en el tercer paso de determinación que los índices de imagen de referencia son los mismos y (iii) se determina en el cuarto paso de determinación que el valor absoluto de diferencia excede el valor umbral predeterminado; o en casos diferentes de ese caso, un paso de establecimiento para establecer un segundo valor fijo diferente del primer valor fijo para el primer parámetro.
Además, por ejemplo, el método de procesamiento de imágenes puede incluir un paso de compresión para comprimir un bloque de error de predicción el cual es una diferencia entre un bloque actual que es codificado y un bloque de predicción cada uno de los cuales incluye una pluralidad de pixeles; un paso de reconstrucción para generar un bloque reconstruido al decodificar el bloque de error de predicción comprimido y agregar el bloque de error de predicción decodificado al bloque de predicción; un paso de filtración que incluye el primer paso de cálculo de parámetros, el segundo paso de cálculo de parámetros y el paso de selección, el paso de filtración se ejecuta para el bloque reconstruido; un paso de predicción para generar un bloque de predicción utilizando el bloque reconstruido que es filtrado en el paso de filtración; y un paso de codificación para codificar el bloque de error de predicción comprimido para generar una corriente de bits codificada.
Además, por ejemplo, el método de procesamiento de imágenes puede incluir un paso de obtención para obtener una corriente de bits que incluye un bloque actual que es decodificado; un paso de generación para generar un bloque reconstruido al decodificar el bloque actual que es decodificado y agregar el bloque actual decodificado a un bloque de predicción, un paso de filtración que incluye el primer paso de cálculo de parámetros, el segundo paso de cálculo de parámetros y el paso de selección, el paso de filtración se ejecuta para el bloque reconstruido; y un paso de predicción para generar un bloque de predicción utilizando el bloque reconstruido que es filtrado en el paso de filtración.
Con el propósito de resolver el problema mencionado anteriormente, un aparato de procesamiento de imágenes de acuerdo con un aspecto de la presente invención es un aparato de procesamiento de imágenes el cual realiza una filtración en bloques de imagen utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro, el aparato de procesamiento de imágenes incluye: una primera unidad de cálculo de parámetros configurada para calcular un primer parámetro que indica una intensidad de límite entre dos bloques de imagen adyacentes; una segunda unidad de cálculo de parámetros configurada para calcular un segundo parámetro que indica un valor límite para cada uno de la pluralidad de filtros de desbloqueo, con base en el primer parámetro y un parámetro de cuantificación; y una unidad de selección configurada para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre la pluralidad de filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro, en donde la segunda unidad de cálculo de parámetros se configura para calcular, como el valor del segundo parámetro, un valor total del primer parámetro y el parámetro de cuantificación .
Estos aspectos generales y específicos se pueden implementar utilizando un sistema, método, circuito integrado, programa de computadora o medio de grabación legible por computadora tal como un CD-ROM, o cualquier combinación de sistemas, métodos, circuitos integrados, programas de computadora o medios de grabación legibles por computadora .
En lo sucesivo, los esquemas de filtración de desbloqueo (métodos de procesamiento de imágenes) de acuerdo con un aspecto de esta invención y los aparatos de filtración de desbloqueo (aparatos de procesamiento de imágenes) se describen con detalle con referencia a las figuras.
Cada una de las modalidades ejemplares descritas posteriormente muestra un ejemplo general o específico. Los valores numéricos, formas, materiales, elementos estructurales, las posiciones de ordenación y formas de conexión de los elementos estructurales, pasos, el orden de los pasos, etcétera que se muestran en las siguientes modalidades ejemplares son solo ejemplos y por lo tanto no limitan el alcance de la presente invención. Además, entre los elementos estructurales mostrados en las siguientes modalidades ejemplares, los elementos estructurales que no son expuestos en ninguna de las reivindicaciones independientes las cuales definen el concepto más genérico se describen como elementos estructurales arbitrarios.
Modalidad 1 Un método de procesamiento de imágenes y un aparato de procesamiento de imágenes de acuerdo con la Modalidad 1 se describen con referencia a las FIGURAS 1 a 3B y las FIGURAS 7A a 9. Se debe observar que esta modalidad describe casos donde el método de procesamiento de imágenes y el aparato de procesamiento de imágenes se aplican a un método de codificación de imágenes en movimiento y un aparato de codificación de imágenes en movimiento, respectivamente.
El aparato de codificación de imágenes en movimiento en esta modalidad tiene una estructura similar a la estructura del aparato de codificación de imágenes en movimiento en el ejemplo de comparación mostrado en la FIGURA 1. El aparato de codificación de imágenes en movimiento mostrado en esta modalidad es diferente en la estructura de una unidad de filtración de desbloqueo 150 del aparato de codificación de imágenes en movimiento 100 mostrado en el ejemplo de comparación.
La unidad de filtración de desbloqueo 150 mostrada en esta modalidad incluye una pluralidad de filtros de desbloqueo que tienen diferentes intensidades y una unidad de control de filtros la cual controla la pluralidad de filtros de desbloqueo.
La FIGURA 6 es un diagrama de bloques que muestra una estructura ejemplar de la unidad de filtración de desbloqueo 150. Como se muestra en la FIGURA 1, la unidad de filtración de desbloqueo 150 mostrada en esta modalidad incluye un primer filtro de desbloqueo 151, un segundo filtro de desbloqueo 152 y la unidad de control de filtros 153. El primer filtro de desbloqueo es un filtro de desbloqueo fuerte para bandas estrechas. El segundo filtro de desbloqueo es un filtro de desbloqueo débil para bandas anchas. Se debe observar que el número y las estructuras de los filtros de desbloqueo no están limitados a los mismos.
Como se muestra en la FIGURA 6, la unidad de control de filtros 153 incluye una unidad de cálculo de intensidad de límite 154, una unidad de cálculo de Te 155 y una unidad de selección de filtros 156. 1.1 Descripción Global del Esquema de Filtración de Desbloqueo En lo sucesivo, la filtración por medio de la unidad de filtración de desbloqueo 150 mostrado en esta modalidad se describe con detalle con referencia a las FIGURAS 2A a 3B y las FIGURAS 7A a 9B .
Como en el ejemplo de comparación descrito anteriormente, en la filtración, se ejecutan los siguientes paso: (1) determinar si la filtración es ejecutable o no (este paso corresponde a un paso de determinación de ej ecutabilidad; y (2) seleccionar uno de los filtros de desbloqueo que se utilizan. El paso (1) que consiste en determinar si la filtración es ejecutable o no es el mismo que en el ejemplo de comparación. 1.1.1 (2) Selección de Filtro de Desbloqueo que se Utiliza Cuando se determina, en el paso de determinación mencionado anteriormente, que se debe ejecutar una filtración, se ejecuta un paso de selección el cual es para seleccionar un filtro de desbloqueo que se utiliza de entre la pluralidad de filtros de desbloqueo que tienen diferentes intensidades.
La FIGURA 7A es un diagrama de flujo que muestra procedimientos de procesamiento de pasos de filtración de acuerdo con modalidades. Además, la FIGURA 7B muestra dos bloques los cuales son los bloques BP y BQ adyacentes entre sí en la dirección horizontal. La FIGURA 7C muestra dos bloques los cuales son los bloques BP y BQ adyacentes entre sí en la dirección vertical.
En el Paso S100, la unidad de cálculo de intensidad de límite 154 de la unidad de control de filtros 153 calcula la intensidad de límite BS como un primer parámetro (un primer paso de cálculo de parámetros) . La FIGURA 8 es un diagrama de flujo que muestra procedimientos de procesamiento para calcular intensidades de límite BS y para establecer valores de compensación tc_offset de valores umbral tc en las modalidades. Los valores de las intensidades de límite BS son números enteros más grandes que o iguales a 0. Se debe observar que el procedimiento (de S210 a S244) para calcular una intensidad de límite BS es el mismo que en el ejemplo de comparación.
Adicionalmente , la unidad de cálculo de intensidad de límite 154 establece un valor de compensación tc_offset como un valor umbral tc de acuerdo con el valor de la intensidad de límite BS como se muestra en la FIGURA 8 en esta modalidad. En esta modalidad, los valores de tc_offset son diferentes cuando los valores de la BS son diferentes. Más específicamente, tc_offset = 3 se establece cuando BS = 4 se satisface, tc_offset = 2 se establece cuando BS = 3 se satisface, tc_offset = 1 se establece cuando BS = 2 se satisface y tc_offset = 0 se establece cuando BS = 1 se satisface. En el ejemplo de comparación, el valor de tc_offset es constante independientemente de una intensidad de límite BS (AVC) o el mismo tc_offset se asigna a una pluralidad de intensidades de límite BS (HEVC) .
En el Paso S110, la unidad de control de filtros 153 determina si la intensidad de límite BS calculada en el Paso S100 es o no un valor positivo. Cuando se determina que la BS no es un valor positivo (BS = 0) en el Paso S110 (No en S110) , la unidad de control de filtros 153 termina el procesamiento sin ejecutar la filtración.
Por otra parte, cuando se determina que la BS es un valor positivo (BS = 0) en el Paso S110 (Si en S110) , una unidad de cálculo de Tc de la unidad de control de filtros 153 calcula un valor umbral tc el cual define un intervalo de salida para un filtro de desbloqueo en el Paso S120 (un segundo paso de cálculo de parámetros) .
En esta modalidad, el valor umbral tc se representa utilizando una función de tabla que incluye, como argumentos, una intensidad de límite BS, un parámetro de cuantificación QP y un tc_offset. En esta modalidad, puesto que los valores de tc_offset son diferentes cuando las intensidades de límite BS son diferentes, el número de valores posibles como el valor umbral tc tiende a ser más grande que en el ejemplo de comparación. De esta manera, es posible incrementar la adaptabilidad del filtro de desbloqueo.
Adicionalmente , la unidad de control de filtros 153 calcula un valor umbral ß para seleccionar un filtro de desbloqueo que se utiliza. El valor umbral ß se puede representar como una función ( (ß (QP) ) de un parámetro de cuantificación QP .
En el Paso S130, la unidad de selección de filtros 156 de la unidad de control de filtros 153 selecciona el filtro de desbloqueo con base en el valor umbral tc y el valor umbral ß (un paso de selección) . Esta selección puede significar que no se selecciona un filtro de desbloqueo. Más específicamente, la unidad de selección de filtros 156 determina si el filtro fuerte se debe seleccionar o no con base en el valor umbral ß.
Más específicamente, por ejemplo, el filtro fuerte se selecciona cuando se satisface la condición mostrada por la siguiente Expresión 11.
Ecuación Matemática 11 {p3,.-Po;I+193,.-^ofI<0(ß>)» 3)} A{d<(j3(QP)»2)} AÍp0,-?0 <((íc(e¿>)-5 + l)>>l)} . . . (Expresión 11) En la condición anterior, cada uno de los valores umbral ß y tc se representa como una función del parámetro de cuantificación QP como se mencionara al principio. El parámetro de cuantificación QP se puede establecer para, por ejemplo, una parte de una imagen. En general, un valor umbral ß se deduce con base en QP, utilizando una tabla de consulta.
Cuando el filtro fuerte se selecciona, el primer filtro de desbloqueo 151 realiza una filtración fuerte (S132) . Esta filtración fuerte se describe con detalle posteriormente.
Cuando no se satisface la condición mostrada por la Expresión 11, la unidad de selección de filtros 156 determina si se selecciona un filtro débil o si no se selecciona un filtro.
Más específicamente, la unidad de selección de filtros 156 calcula un valor de determinación ? (un valor absoluto), utilizando la siguiente Expresión 12.
Ecuación Matemática 12 ? = 1(9¦ (q i - p0.)-3¦ (gl, - pl,)+8) » 4 . . . (Expresión 12) El filtro débil se selecciona cuando se satisface la siguiente Expresión 13.
Ecuación Matemática 13 ?<10??c . . . r (FExpres.ió.n 113¾)- Cuando se selecciona el filtro débil, el segundo filtro de desbloqueo 152 realiza una filtración débil (S134) . Esta filtración débil se describe con detalle posteriormente.
Cuando no se satisface la Expresión 13, no se selecciona un filtro y de esta manera no se realiza ninguna filtración utilizando un filtro de desbloqueo (S136) . 1.1.2 Filtración Utilizando un Filtro de Desbloqueo Fuerte Como se describiera anteriormente, cuando "el filtro fuerte" se selecciona a través de la determinación de acuerdo con la Expresión 11 en el Paso S130 mostrado en la FIGURA 4A, el primer filtro de desbloqueo 151 realiza una filtración fuerte (S132) . Más específicamente, el primer filtro de desbloqueo 151 filtra los pixeles 2i, pli, pOi, qOi, qli y q2i utilizando los pixeles p3i, p2i( pli, pOi, qOi, qli, q2i y q3i de acuerdo con un modelo de HEVC .
La FIGURA 9A es un diagrama que muestra pixeles ejemplares que se utilizan en la filtración fuerte. La FIGURA 9A muestra pixeles (muestras) de dos bloques adyacentes que comparten un borde vertical en la dirección horizontal. Estos pixeles se utilizan en la filtración horizontal. Los pixeles en un área 610 encerrados por líneas discontinuas son los pixeles que se utilizan en la filtración fuerte. La FIGURA 9B es un diagrama que muestra pixeles que son filtrados. Los pixeles en un área 620 encerrados por líneas discontinuas son los pixeles que se filtran utilizando la filtración fuerte.
El primer filtro de desbloqueo 151 mostrado en esta modalidad filtra los tres pixeles adyacentes al lado izquierdo del límite, utilizando los cuatro pixeles adyacentes al lado izquierdo del límite, de acuerdo con la Expresión 14.
Ecuación Matemática 14 P0\ = Clip((p2i + 2¦ p +2· pO. + 2 · qO¡ + q2, +4) » 3) p\ = Oip((p2t + pl, + pO, + qO¡ +2) » 2) p2'¡ = Clip((2¦ 3f +3· p2¡ + p\¡ + pOt + qOt +4) » 3) . . . (Expresión 14) Del mismo modo, el primer filtro de desbloqueo 151 en esta modalidad filtra los tres pixeles adyacentes al lado derecho del límite, utilizando los cuatro pixeles adyacentes al lado derecho del límite, de acuerdo con la Expresión 15. Ecuación Matemática 15 qO = Clip{{q2i + 2 - qlt + 2 - qOi + 2¦ p ¡ + p2¡ +4) » 3) q\ = Clip({q2. + q + qOt + pO, +2) » 2) q2 = Clip((2¦ q3¡ +3· q2¡ + ql. + qOi + pOt +4) » 3) . . . (Expresión 15) Se debe observar que una función Clip(x) se define por medio de la siguiente Expresión 16 Ecuación Matemática 16 JC<0 Clip(x) = _value x > max._allowed _value else . . . (Expresión 16) En este documento, max_allowed_value es un valor máximo que es posible como x en Clip(x) . En el caso de la codificación PCM utilizando muestras de k bits, el valor máximo se considera que es max_allowed_value = 2k - 1. Por ejemplo, en el caso de la codificación PCM utilizando muestras de 8 bits, el valor máximo se considera que es max_allowed_value = 255. En el caso de la codificación PCM utilizando muestras de 10 bits, el valor máximo se considera que es max_allowed_value = 1023.
Como se sabe que a partir de las ecuaciones anteriores, la filtración se realiza en una base lineal. El primer filtro de desbloqueo 151 filtra cada una de las líneas mientras que cambia secuencialmente el índice i a 0, 1, 2, 3, 4, 5, 6 y 7. 1.1.3 Filtración Utilizando un Filtro de Desbloqueo Débil Como se describiera anteriormente, cuando "el filtro débil" que utiliza la Expresión 12 se selecciona en el Paso S130 mostrado en la FIGURA 4A, un segundo filtro de desbloqueo 152 para bandas anchas realiza una filtración débil (S134) .
Cuando "el filtro débil" se selecciona, el segundo filtro de desbloqueo 152 realiza la filtración débil (S134) . Más específicamente, el segundo filtro de desbloqueo 152 filtra los pixeles l , pOi, qOi y qli utilizando los pixeles P2i, pli, pOi, qOi, qli y q2i de acuerdo con un modelo de HEVC.
La FIGURA 10A es un diagrama que muestra pixeles ejemplares que se utilizan en la filtración débil. La FIGURA 10A muestra pixeles (muestras) de dos bloques adyacentes que comparten un borde vertical en la dirección horizontal. Estos pixeles se utilizan en la filtración horizontal. Los pixeles en un área 630 encerrada por líneas discontinuas son los pixeles que se utilizan en la filtración fuerte. La FIGURA 10B es un diagrama que muestra pixeles que se filtran. Los pixeles en un área 640 encerrada por líneas discontinuas son los pixeles que se filtran utilizando la filtración débil. , segundo filtro de desbloqueo 152 mostrado esta modalidad filtra el pixel POi más cercano al límite en el lado izquierdo y el pixel qOi adyacente al límite en el lado derecho de acuerdo con la siguiente Expresión 17.
Ecuación Matemática 17 ?????,.+?,) qQ' Clip(? -^) . . . (Expresión 17) En este documento, qOi' es un valor de pixel obtenido al filtrar el pixel qOi y qOi' es un valor de pixel obtenido al filtrar el pixel qOi . Además, ?? se calcula de acuerdo con la siguiente Expresión 18.
Ecuación Matemática 18 = Clip3{-tc,te,A) . . . (Expresión 18) Una función Clip3 (x) se define por medio de siguiente Expresión 19.
Ecuación Matemática 19 a ; x < a Clip3(x,a,b) = b ; x > b x ; else . . . (Expresión 19) Después de filtrar los pixeles pO y qO , el segundo filtro de desbloqueo 152 determina si se filtran o no los pixeles pli y qli segundos más cercanos al límite. Se debe observar que estas determinaciones para los pixeles pli y qli se hacen por separado.
La determinación para el pixel pli se hace utilizando un valor de evaluación dp mostrado en la Expresión 7 descrita en el paso de determinación de ej ecutabilidad de filtración (1) en el ejemplo de comparación. Más específicamente, cuando dp < (ß/6) se satisface, el segundo filtro de desbloqueo 152 filtra el pixel pli de acuerdo con la siguiente Expresión 20.
Ecuación Matemática 20 ??; = a??(??,.+?2?) . . . (Expresión 20) En este documento, pli' es un valor de pixel obtenido al filtrar el pixel pli- Además ?2? se calcula de acuerdo con la siguiente Expresión 21.
Ecuación Matemática 21 ?2 = Clip - tc2 , tc2 , {((pli + ??; + 1) » 1) - p + ?, ) » l) . . . (Expresión 21) Por otra parte, la determinación para el pixel qli se hace utilizando un valor de evaluación dq mostrado en la Expresión 7 descrita en el paso de determinación de ej ecutabilidad de filtración (1) en el ejemplo de comparación. Más específicamente, cuando dq < (ß/6) se satisface, el segundo filtro de desbloqueo 152 filtra el pixel pli de acuerdo con la siguiente Expresión 22.
Ecuación Matemática 22 . . . (Expresión 22) En este documento, pli' es un valor de pixel obtenido al filtrar el pixel pli- Además acuerdo con la siguiente Expresión 23.
Ecuación Matemática 23 ?, = C/i 3(- íc2, íc2, (((?2, + q0, + l) » l)- qli - ?, ) » l) . . . (Expresión 23) En este documento, tc2 = tc >> 1.
Aunque esta modalidad describe un caso para realizar una filtración horizontal en el borde vertical, la presente invención es aplicable a un caso para realizar una filtración vertical en un borde horizontal al cambiar la dirección horizontal y la dirección vertical y cambiar las líneas de pixeles en la dirección horizontal y las líneas de pixeles en la dirección vertical. 1.1.4 Efecto Ventajoso que se Puede Obtener Utilizando tc en la Determinación de un Filtro de Desbloqueo En el ejemplo de comparación descrito anteriormente, una función de tabla se utiliza para calcular un valor umbral tc para un filtro de bucle. De esta manera, es difícil reducir el área de memoria que se utiliza y reducir la cantidad de procesamiento. Por otra parte, en esta modalidad, un valor umbral tc para un filtro de bucle se calcula utilizando una función con base en una suma lineal de un parámetro de cuantificacion QP y una intensidad de límite BS. Además, puesto que tc_offset se calcula con base en la BS, el cálculo no es complejo. Por esta razón, es posible reducir el área de memoria que se utiliza y reducir la cantidad de procesamiento.
Aunque el tc_offset en el ejemplo de comparación puede tomar solo un valor común para todas las intensidades de límite BS o dos valores, el tc_offset en esta modalidad puede tomar diferentes valores dependiendo de las intensidades de límite BS . De esta manera, la filtración se adapta a sonido de bloques con una precisión más alta.
En este documento, la FIGURA 11 es un diagrama que muestra el procedimiento para establecer un valor de compensación tc_offset para un valor umbral tc en el ejemplo de comparación. Se debe observar que los mismos pasos mostrados en la FIGURA 11 que los pasos mostrados en la FIGURA 8 se asignan con los mismos números de referencia.
Como se sabe a partir de la FIGURA 11, en este ejemplo de comparación, el mismo tc_offset se asigna tanto a una intensidad de límite BS = 2 como a una intensidad de límite BS = 1. Por esta razón, en cada uno de los casos donde la intensidad de límite BS = 2 y la intensidad de límite BS = 1, el mismo valor se establece como el valor umbral tc. Por otra parte, en esta modalidad, como se muestra en la FIGURA 8, diferentes valores se establecen como los valores umbral tc para los casos respectivos donde la intensidad de límite BS = 2 y la intensidad de límite BS = 1. En esta modalidad, puesto que los diferentes valores umbral tc se calculan para las diferentes intensidades de límite BS, es posible incrementar la adaptabilidad del filtro de desbloqueo para la imagen. De esta manera, es posible incrementar la eficiencia de codificación e incrementar la calidad subjetiva.
La FIGURA 12A es un diagrama que muestra las eficiencias de codificación en el ejemplo de comparación y en las modalidades obtenidas utilizando condiciones de prueba comunes. Además, la FIGURA 12B es un diagrama que muestra el caso que utiliza parámetros de transformación altos (QP = 39, 41, 43 y 45). En cada una de la FIGURA 12A y la FIGURA 12B, el lado izquierdo de la tabla muestra las eficiencias de codificación en el ejemplo de comparación y el lado derecho de la tabla muestra las eficiencias de codificación en esta modalidad. Las eficiencias de codificación se muestran como tasas de BD calculadas utilizando una interpolación cúbica por piezas. 1.1.5 Determinación de Te Dependiendo de un Valor de BS (Variación 1) La Variación 1 de esta modalidad se describe con base en las FIGURAS 13 a 15.
La Variación 1 describe un caso donde los pasos (Paso S100 mostrado en la FIGURA 7A) para calcular una intensidad de límite BS son diferentes de los pasos correspondientes mostrados en la modalidad anterior.
La FIGURA 13 es un diagrama de flujo que muestra procedimientos de procesamiento de pasos para calcular intensidades de límite BS en esta Variación.
Como en la Modalidad 1, la unidad de control de filtros 153 (FIGURA 6) determina si por lo menos uno de los bloques BP y BQ es o no una imagen intracodificada en el Paso S210.
Cuando se determina que por lo menos uno de los bloques BP y BQ es una imagen intracodificada (SI en el Paso S210) , la unidad de control de filtros 153 establece 3 como el valor de la intensidad de límite BS (S218) . Se debe observar que el valor de la intensidad de límite BS en el Paso S218 no está limitado a 3 y es posible cualquier valor siempre y cuando el valor sea más grande que el valor de la intensidad límite BS que se establece en otro Paso.
El mismo procesamiento que en la Modalidad 1 se realiza cuando se determina en el Paso S210 que los bloques BP y BQ no son una imagen intracodificada (NO en el Paso S210) .
En este documento, la FIGURA 14 es un diagrama de comparación entre las eficiencias de codificación (el lado derecho en el diagrama) en la Variación 1 mostrada en la FIGURA 13 como se muestra en la Bibliografía que no es Patente 2 y las eficiencias de codificación (el lado izquierdo en el diagrama) en el ejemplo de comparación mostrado en la FIGURA 5.
Como se muestra en la FIGURA 14, las eficiencias de codificación son aproximadamente las mismas que las eficiencias de codificación en el ejemplo de comparación. Sin embargo, como se describiera anteriormente, es posible reducir la carga de procesamiento e incrementar la eficiencia de procesamiento.
Se describe un esquema para establecer un valor umbral tc en la Variación 1. En la Variación 1, el valor umbral tc se calcula de acuerdo con la Expresión 24 ut i l izando una función de tabla de consulta Tctable .
Ecuación Matemática 24 tc = Tctable[BS - 1 + QP] . . . (Expresión 24) La FIGURA 15 es un diagrama que muestra el valor umbral tc que se establece en esta Variación. Como se muestra en la FIGURA 14 , también en esta Variación 1, diferentes valores umbral tc se asignan a diferentes intensidades de límite BS .
En la Variación 1 , como se muestra en la FIGURA 13 , a) puesto que no se requiere el procesamiento para verif icar si un borde actual es o no un borde de CU, es posible reducir la carga de procesamiento que se coloca sobre el aparato de codi f icación de imágenes en movimiento 100 . Adicionalmente , de acuerdo con la Expresión 24 , b) puesto que no se utiliza un valor de compensación tc_offset en el cálculo de un valor umbral tc, el paso que consiste en deducir el valor umbral tc se simplifica y es posible reducir la carga de procesamiento que se coloca sobre el aparato de codificación de imágenes en movimiento 100 . 1 . 1 . 6 Determinación de Tc Dependiendo del Valor de BS (Variación 2 ) La Variación 2 de esta modalidad se describe con base en la FIGURA 16 .
La Variación 2 describe un caso donde los procedimientos de pasos para calcular la intensidad de límite Bs son los mismos que los procedimientos en la Variación 1, pero los valores de las intensidades de límite BS que se establecen son diferentes de los valores en la variación 1. Por consiguiente, la Variación 2 es diferente en los esquemas para deducir los valores umbral tc de la Variación 1.
Los valores de las intensidades de límite BS que se establecen en la Variación 2 se describen con base en la FIGURA 16. En la FIGURA 16, los valores de las intensidades de límite que se establecen son más pequeños que los valores de las intensidades de límite en la Variación 1.
Más específicamente, cuando se determina en el Paso S210 que por lo menos uno de los bloques BP y BQ es una imagen intracodificada (SI en el Paso S210) , el valor de la las intensidades de límite BS se establece a 2 (S211) .
Cuando se determina en el Paso S220 que el valor de por lo menos un indicador cbf-P y un indicador cbf-Q no es 0 (SI en el Paso S220) , el valor de la intensidad de límite BS se establece a 1 (S224) .
Cuando se determina en el Paso S230 que un índice de imagen de referencia Refldx-P y un índice de imagen de referencia RefId-Q son diferentes (Si en S230) , el valor de la intensidad de límite BS se establece a 1 (S234) .
Cuando, en el Paso S240, uno de los parámetros AbsHor y AbsVer es más grande que 3 (SI en S240) , el valor de la intensidad de límite BS se establece a O (S246) . Por otra parte, cuando se determina que ambos parámetros AbsHor y AbsVer son más pequeños que o iguales a 3 (NO en S240) , el valor de la intensidad de límite BS se establece a 0 (S248) .
Se describe un esquema para establecer un valor umbral tc en la Variación 2. En la Variación 2, una función de tabla de consulta Tctable se utiliza como en la Variación 1, pero los esquemas para calcular índices son diferentes. En la Variación 2, un valor umbral tc se calcula de acuerdo con la siguiente Expresión 25.
Ecuación Matemática 25 tc = Tctable[BS + QP] . . . (Expresión 25) En la Variación 2, a) no se requiere un procesamiento para verificar si un borde actual es o no un borde de CU y b) ningún valor de compensación tc_offset se utiliza en el cálculo del valor umbral tc como en la Variación 1. De esta manera, es posible reducir la carga de procesamiento que se coloca sobre el aparato de codificación de imágenes en movimiento 100. 1.1.7 Determinación de Tc Dependiendo del Valor de BS (Variación 3) La Variación 3 de esta modalidad se describe con base en la FIGURA 17.
La Variación 3 describe un caso donde el paso (Paso S100 en la FIGURA 7A) para calcular intensidades de límite BS es diferente del paso mostrado en la modalidad anterior, Variación 1 y Variación 2.
La FIGURA 17 es un diagrama de flujo que muestra procedimientos de procesamiento de pasos para calcular intensidades de límite BS en esta Variación.
En el Paso S210, la unidad de control de filtros 153 (FIGURA 6) de la unidad de filtración de desbloqueo 150 (FIGURA 1 y FIGURA 6) determina si por lo menos uno de los bloques BP y BQ es o no una imagen intracodificada , como en la modalidad anterior.
Más específicamente, cuando se determina que por lo menos uno de los bloques BP y BQ es una imagen intracodificada (SI en el Paso S210) , el valor de la intensidad de límite BS se establece a 2 (S211) .
Cuando se determina en el Paso S210 que ambos bloques BP y BQ se determina que no son imágenes intracodificadas (No en S210) , se determina si uno de los valores de un indicador cbf-P y un indicador cbf-Q es o no es no-0 (S220) .
Por otra parte, cuando se determina que uno del indicador cbf-P y el indicador cbf-Q no es 0 (NO en S220) , se hace una determinación con respecto a si un índice de imagen de referencia Refldx-P del bloque BP y un índice de imagen de 5 referencia Refldx-Q del bloque BQ son o no diferentes entre sí (S230) .
Cuando se determina en el Paso S230 que un índice de imagen de referencia Refldx-P y un índice de imagen de referencia Refldx-Q son diferentes (SI en S230) , el valor de la intensidad de límite BS se establece a 0 (S236) .
Por otra parte, cuando se determina que el índice de imagen de referencia Refldx-P y el índice de imagen de referencia Refldx-Q son los mismos (NO en S230) , se determina si uno de un parámetro AbsHor y AbsVer es o no más grande que 3 (S240) .
Cuando se determina en el Paso S240 que uno de los parámetros AbsHor y AbsVer es más grande que 3 (SI en S240) , el valor de la intensidad de límite BS se establece a 0 (S246) . Por otra parte, cuando se determina en el Paso S240 que los parámetros AbsHor y AbsVer son más pequeños que o iguales a 3 (NO en S240) , no se establece una filtración de desbloqueo (S248) .
Cuando se determina en el Paso S220 que un indicador cbf-P y un indicador cbf-Q son 0 (SI en S220) , se hace una determinación en cuanto a si un índice de imagen de referencia Refldx-P de un bloque BP y un índice de imagen de referencia Refldx-Q de un bloque BQ son o no diferentes entre sí (S250) .
Cuando se determina en el Paso S250 que el índice de imagen de referencia Refldx-P del bloque BP y el índice de imagen de referencia Refldx-Q del bloque BQ son los mismos (NO en S250) , el valor de la intensidad de límite BS se establece a 1 (S252) .
Cuando se determina en el Paso S250 que el índice de imagen de referencia Refldx-P y el índice de imagen de referencia Refldx-Q son diferentes entre sí, se hace una determinación en cuanto a si uno de los parámetros AbsHor y AbsVer es o no más grande que 3 (S260) .
Cuando se determina en el Paso S260 que uno de los parámetros AbsHor y AbsVer es más grande que 3 (SI en S260) , el valor de la intensidad de límite BS se establece a 2 (S264) . Cuando se determina en el Paso S260 que ambos parámetros AbsHor y AbsVer son más pequeños que o iguales a 3 (NO en S240) , el valor de la intensidad de límite BS se establece a 1 (S262) .
Como se muestra en la FIGURA 17, la Variación 3 hace posible realizar pasos adicionales para verificar si los índices de referencia son o no los mismos y hacer la determinación con base en la magnitud de la diferencia absoluta entre vectores de movimiento incluso cuando se determina en el Paso S220 que tanto el indicador cbf-P como el indicador cbf-Q son 0 (SI en S220) y de ese modo se establecen de manera más precisa los valores de las intensidades de límite BS . 1.1.8 Determinación de Te Dependiendo de un Valor de BS (Variación 4) La Variación 4 de esta modalidad se describe con base en las FIGURAS 18A y 18B.
La Variación 4 describe un caso donde los procedimientos de procesos de filtración y los procedimientos para calcular intensidades de límite BS son diferentes de aquellos de la modalidad anterior y las Variaciones 1 a 3.
La FIGURA 18A es un diagrama de flujo que muestra un procedimiento de procesamiento de pasos de filtración en la Variación 4.
Como se muestra en la FIGURA 18A, en el Paso S300, la unidad de control de filtro 153 calcula una intensidad de límite BS como un primer parámetro (un primer paso de cálculo de parámetros) .
En este documento, la FIGURA 18B es un diagrama de flujo que muestra los procedimientos para establecer intensidades de límite BS . Como se muestra en la FIGURA 18B, se hace una determinación en cuanto a si por lo menos uno de los bloques BP y BQ es o no una imagen intracodificada (S210) . Cuando se determina que por lo menos uno de los bloques de BP y BQ es una imagen intracodificada (SI en S210) , el valor de la intensidad de límite BS se establece a 2 (S211) . Por otra parte, cuando se determina que cada uno de los bloques BP y BQ no es una imagen intracodificada (NO en S210) , el valor de la intensidad de límite BS se establece a 0 (S213) . Se debe observar que posible otro valor para que el valor se establezca como la intensidad de límite BS .
En el Paso S120, la unidad de control de filtros 153 calcula un valor umbral tc el cual define un intervalo de salida para un filtro de desbloqueo (una segundo paso de cálculo de parámetros) . Adicionalmente, en el Paso S120, la unidad de control de filtros 153 calcula un valor umbral ß para seleccionar un filtro de desbloqueo que se utiliza.
En el Paso S330, la unidad de control de filtros 153 selecciona el filtro de desbloqueo con base en el valor umbral tc y el valor umbral ß (un paso de selección) .
Cuando el filtro fuerte se selecciona en el Paso S330, el primer filtro de desbloqueo 151 realiza una filtración fuerte (S132) . Cuando el filtro débil se selecciona en el Paso S330, el segundo filtro de desbloqueo 152 realiza una filtración débil (S134) .
Cuando no se selecciona la filtración en el Paso S330, no se realiza una filtración utilizando un filtro de desbloqueo (S136) .
En esta variación, puesto que los procedimientos de procesamiento de procesos de filtración y los procedimientos para calcular intensidades de límite BS se simplifican, es posible reducir la carga de procesamiento que se coloca sobre un aparato de codificación de imágenes en movimiento 100. Adicionalmente, es posible reducir la capacidad de memoria que se utiliza en los procedimientos para calcular las intensidades de límite BS . En otras palabras, puesto que los posibles valores de las intensidades de límite son de 0 a 3 , es posible representar cada una de las intensidades de límite BS como información de 2 bits. De esta manera, los efectos ventajosos de esta variación son que el procesamiento se realiza utilizando una cantidad más pequeña de capacidad de memoria y que los resultados de desbloqueo son los mismos que los resultados que se pueden obtener en el HM-4.0 actual.
Modalidad 2 Un método de decodificación de imágenes en movimiento y un aparato de decodificación de imágenes en movimiento de acuerdo con la Modalidad 2 se describen con base en la FIGURA 19.
La FIGURA 19 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de decodificación de imágenes en movimiento el cual soporta el H .264/MPEG-4AVC o el estándar de codificación de video HEVC.
Como se muestra en la FIGURA 19, el aparato de decodificación de imágenes en movimiento 200 incluye un decodificador entrópico 290, unidad de cuantificación inversa/transformación inversa 230, sumador 240, unidad de filtración de desbloqueo 250, unidad de compensación adaptable a la muestra 260, unidad de filtración de bucle adaptable 255, memoria de tramas 270 y unidad de predicción 280.
En la FIGURA 19, el decodificador entrópico 290 realiza una decodificación de longitud variable en una corriente de bits codificada de entrada para decodificar información necesaria para decodificar modos de predicción etcétera y coeficientes cuantificados .
La unidad de cuantificación inversa/transformación inversa 230 genera datos de errores de predicción e3 al realizar una cuantificación inversa en los coeficientes cuantificados que se obtienen a través de la decodificación de longitud variable y al realizar una transformación de un dominio de frecuencia a un dominio de imagen en los coeficientes cuantificados que se obtienen a través de la cuantificación inversa.
El sumador 240 genera datos de imagen reconstruida (señal de imagen reconstruida si) al agregar los datos de imagen de predicción (una señal de imagen de predicción s5) y los datos de errores de predicción (la señal de error de predicción e3) ya sujetados a la cuantificación inversa y la transformación inversa por medio de la unidad de cuantificación inversa/transformación inversa 230.
La unidad de filtración de desbloqueo 250 incluye una pluralidad de filtros de desbloqueo que tienen diferentes intensidades y una unidad de control de filtros la cual controla la pluralidad de filtros de desbloqueo (ambos no se muestran en las figuras) . La unidad de filtración de desbloqueo 250 incluye la pluralidad de filtros de desbloqueo que corresponden en clase a los filtros de desbloqueo incluidos en el aparato de codificación de imágenes en movimiento 100. Por ejemplo, la unidad de filtración de desbloqueo 250 puede incluir dos clases de filtros de desbloqueo para bandas estrechas y para bandas anchas, como en la Modalidad 1. Se debe observar que la unidad de filtración de desbloqueo 250 corresponde en estructura a la unidad de filtración de desbloqueo 150 mostrada en la Modalidad 1.
La unidad de compensación adaptable a la muestra 260 realiza, en una base por unidades de pixeles, un proceso para asignar un valor de compensación para la aproximación a los valores de pixeles originales en los datos de imagen reconstruida (señal de imagen reconstruida s2) filtrados por la unidad de filtración de desbloqueo 250.
La unidad de filtración de bucle adaptable 255 incluye un filtro de bucle adaptable tal como un filtro de Wiener y realiza un proceso para compensar una distorsión de imagen debida a la compresión en los datos de imagen reconstruida (señal de imagen reconstruida s3) fuera de la unidad de compensación adaptable a la muestra 260. La señal de imagen de salida s4 de la unidad de filtración de bucle adaptable 255 se envía como una señal decodificada que representa una imagen decodificada.
La memoria de tramas 270, almacena en una base por tramas, los datos de imagen reconstruida (señal de imagen reconstruida s4) ya sujetados a la aplicación del filtro de bucle adaptable.
La unidad de predicción 280 incluye una unidad de intraprediccion la cual realiza una predicción espacial ( intraprediccion) para generar una imagen de predicción y una unidad de interprediccion la cual realiza una predicción temporal (interprediccion) para generar una imagen de predicción (la unidad de intraprediccion y la unidad de interprediccion no se muestran en la figura) . La unidad de predicción 280 puede seleccionar el tipo de predicción en una base por tramas o una base por bloques .
Modalidad 3 Un método de codificación de imágenes en movimiento y un aparato de codificación de imágenes en movimiento de acuerdo con la Modalidad 3 se describen con base en la FIGURA 20.
La FIGURA 20 es un diagrama de bloques que muestra una estructura ejemplar de un aparato de codificación de imágenes en movimiento (un codificador de video híbrido) en esta modalidad.
Como se muestra en la FIGURA 20, el aparato de codificación de imágenes en movimiento 300 incluye un sustractor 105, unidad de transformación 110, unidad de cuantificación 120, unidad de cuantificación inversa/transformación inversa 130, sumador 140, unidad de filtración de desbloqueo horizontal 310, unidad de filtración de desbloqueo vertical 320, unidad de filtración de bucle adaptable 165, unidad de compensación adaptable a la muestra 160, unidad de predicción 180 y codificador entrópico 190.
Cada uno del sustractor 105, unidad de transformación 110, unidad de cuantificación 120, unidad de cuantif icación inversa/transformación inversa 130, sumador 140, unidad de filtración de bucle adaptable 165, unidad de compensación adaptable a la muestra 160, unidad de predicción 180 y codificador entrópico 190 mostrados en esta modalidad son los mismos en estructura que el sustractor 105, unidad de transformación 110, unidad de cuantificación 120, unidad de cuantificación inversa/transformación inversa 130, sumador 140, unidad de filtración de bucle adaptable 165, unidad de compensación adaptable a la muestra 155, unidad de predicción 180 y el codificador entrópico 190 mostradas en la Modalidad 1 (ejemplo de comparación) , respectivamente.
El aparato de codificación de imágenes en movimiento 300 mostrado en esta modalidad es diferente del aparato de codificación de imágenes en movimiento 100 mostrado en la Modalidad 1 en la cuestión de que la unidad de filtración de desbloqueo 150 mostrada en la FIGURA 1 se divide a (i) una unidad de filtración de desbloqueo horizontal 310 la cual ejecuta la filtración en bordes verticales y (ii) una unidad de filtración de desbloqueo vertical 320 la cual ejecuta una filtración en bordes horizontales .
Se debe observar que, en esta modalidad, la unidad de filtración de desbloqueo horizontal 310 genera una señal reconstruida s6 al ejecutar una filtración sobre un borde vertical representado por una señal reconstruida si fuera del sumador 140. Además, la unidad de filtración de desbloqueo vertical 320 ejecuta una filtración sobre un borde horizontal representado por una señal reconstruida s6.
Se debe observar que, la FIGURA 20 muestra que un parámetro de cuantificación QP es introducido al codificador entrópico 190, la unidad de filtración de desbloqueo horizontal 310 y la unidad de filtración de desbloqueo vertical 320.
Modalidad 4 El procesamiento descrito en cada una de las modalidades puede ser implementado simplemente en un sistema de computadora independiente, al grabar, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de imágenes en movimiento (método de codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las modalidades. Los medios de grabación pueden ser cualquier medio de grabación siempre y cuando el programa pueda ser grabado, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta IC y una memoria semiconductora.
En lo sucesivo, se describirán las aplicaciones para el método de codificación de imágenes en movimiento (método de ^ codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las modalidades y sistemas utilizando los mismos. El sistema tiene una característica que consiste en tener un aparato de codificación y decodificación de imágenes que incluye un aparato de codificación de imágenes que utiliza el método de codificación de imágenes y un aparato de decodificación de imágenes que utiliza el método de decodificación de imágenes. Otras configuraciones en el sistema se pueden cambiar apropiadamente dependiendo de las situaciones.
La FIGURA 21 ilustra una configuración completa de un sistema de provisión de contenido exlOO para implementar los servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en celdas del tamaño deseado y las estaciones base exl06, exl07, exl08, exl09 y exllO las cuales son estaciones inalámbricas fijas se colocan en cada una de las celdas.
El sistema de provisión de contenido exlOO se conecta a dispositivos, tal como una computadora exlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una cámara exll3, un teléfono celular exll4 y una consola de videojuegos exll5, por vía de la Internet exlOl, un proveedor de servicios de Internet exl02, una red telefónica exl04, así como también las estaciones base exl06 a exllO, respectivamente.
Sin embargo, la configuración del sistema de provisión de contenido exlOO no está limitada a la configuración mostrada en la FIGURA 21 y es aceptable una combinación en la cual cualquiera de los elementos se conecta. Además, cada dispositivo se puede conectar directamente a la red telefónica exl04, preferiblemente que por vía de las estaciones base exl06 a exllO las cuales son las estaciones inalámbricas fijas. Adicionalmente , los dispositivos se pueden interconectar entre sí por vía de una comunicación inalámbrica a corta distancia y otras.
La cámara exll3, tal como una cámara de video digital, es capaz de capturar video. Una cámara exll6, tal como una cámara digital, es capaz de capturar tanto imágenes fijas como video. Adicionalmente, el teléfono celular exll4 puede ser aquel que cumpla con cualquiera de los estándares tales como el Sistema Global para Comunicaciones Móviles (GSM, por sus siglas en inglés) (marca registrada) , Acceso Múltiple por División de Código (CDMA, por sus siglas en inglés) , Acceso Múltiple por División de Código de Banda Ancha (W-CDMA, por sus siglas en inglés) , Evolución a Largo Plazo (LTE, por sus siglas en inglés) y Acceso de Paquetes a Alta Velocidad (HSPA, por sus siglas en inglés) . Alternativamente, el teléfono celular exll4 puede ser un Sistema de Teléfonos Personales (PHS, por sus siglas en inglés) .
En el sistema de provisión de contenido exlOO, un servidor de transmisión ininterrumpida exl03 se conecta a la cámara exll3 y otros por vía de la red telefónica exl04 y la estación base exl09, lo cual hace posible la distribución de imágenes de un espectáculo en vivo y otros. En esta distribución, un contenido (por ejemplo, video de un espectáculo musical en vivo) capturado por el usuario utilizando la cámara exll3 se codifica como se describiera anteriormente en cada una de las modalidades (es decir, la cámara funciona como el aparato de codificación de imágenes de acuerdo con un aspecto de la presente invención) , y el contenido codificado se transmite al servidor de transmisión ininterrumpida exl03. Por otra parte, el servidor de transmisión ininterrumpida exl03 lleva a cabo la distribución ininterrumpida de los datos de contenido transmitidos a los clientes cuando lo soliciten. Los clientes incluyen la computadora exlll, el PDA exll2, la cámara exll3, el teléfono celular exll4 y la consola de videojuegos exll5 que son capaces de decodificar los datos codificados que se mencionaron anteriormente. Cada uno de los dispositivos que ha recibido los datos distribuidos decodifica y reproduce los datos codificados (es decir, funciona como el aparato de decodificación de imágenes de acuerdo con un aspecto de la presente invención) .
Los datos capturados pueden ser codificados por la cámara exll3 o el servidor de transmisión ininterrumpida exl03 que transmite los datos, o los procesos de codificación pueden ser compartidos entre la cámara exll3 y el servidor de transmisión ininterrumpida exl03. Similarmente, los datos distribuidos pueden ser decodificados por los clientes o el servidor de transmisión ininterrumpida exl03, o los procesos de decodificación pueden ser compartidos entre los clientes y el servidor de transmisión ininterrumpida exl03. Adicionalmente, los datos de las imágenes fijas y video capturados no solo por la cámara exll3 sino también la cámara exll6 pueden ser transmitidos al servidor de transmisión ininterrumpida exl03 a través de la computadora exlll. Los procesos de codificación pueden ser realizados por la cámara exll6, la computadora exlll o el servidor de transmisión ininterrumpida exl03, o pueden ser compartidos entre los mismos.
Adicionalmente, los procesos de codificación y decodificación pueden ser realizados por un LSI ex500 incluido generalmente en cada uno de la computadora exlll y los dispositivos. El LSI ex500 se puede configurar de un chip 7 individual o una pluralidad de chips. El software para codificar y decodificar video puede ser integrado en algún tipo de medio de grabación (tal como un CD-ROM, disco flexible y disco duro) que es legible por la computadora exlll y otros, y los procesos de codificación y decodificación se pueden realizar utilizando el software. Adicionalmente , cuando el teléfono celular exll4 se equipa con una cámara, los datos de video obtenidos por la cámara se pueden transmitir. Los datos de video son datos codificados por el LSI ex500 incluido en el teléfono celular exll4.
Adicionalmente, el servidor de transmisión ininterrumpida exl03 puede estar compuesto de servidores y computadoras y puede descentralizar datos y procesar los datos descentralizados, grabar o distribuir datos.
Como se describiera anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema de provisión de contenido exlOO. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario y pueden reproducir los datos decodificados en tiempo real en el sistema de provisión de contenido exlOO, de modo que el usuario que no tiene ningún derecho y equipo particular puede implementar una difusión personal.
Además del ejemplo del sistema de provisión de contenido exlOO, por lo menos uno del aparato de codificación de imágenes en movimiento (aparato de codificación de imágenes) y el aparato de decodificación de imágenes en movimiento (aparato de decodificación de imágenes) descritos en cada una de las modalidades se puede implementar en un sistema de difusión digital ex200 ilustrado en la FIGURA 22. Más específicamente, una estación de difusión ex201 comunica o transmite, por vía de ondas de radio a un satélite de difusión ex202, datos multiplexados que se obtienen al multiplexar datos de audio y otros en datos de video. Los datos de video son datos codificados por medio del método de codificación de imágenes en movimiento descrito en cada una de las modalidades (es decir, los datos codificados por el aparato de codificación de imágenes de acuerdo con un aspecto de la presente invención) . Con la recepción de los datos multiplexados , el satélite de difusión ex202 transmite ondas de radio para la difusión. Luego, una antena de uso casero ex204 con una función de recepción de difusión satelital recibe las ondas de radio. Después, un dispositivo tal como una televisión (receptor) ex300 y un sintonizador externo (STB, por sus siglas en inglés) ex217 decodifica los datos multiplexados recibidos y reproduce los datos decodificados (es decir, funciona como el aparato de decodificación de imágenes de acuerdo con un aspecto de la presente invención) .
Adicionalmente, un lector/grabador ex218 (i) lee y decodifica los datos multiplexados que están grabados en un medio de grabación ex215, tal como un DVD y un BD o (i) codifica señales de video en el medio de grabación ex215, y en algunos casos, escribe datos obtenidos al multiplexar una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de decodificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento como se muestra en cada una de las modalidades. En este caso, las señales de video reproducidas son exhibidas en el monitor ex219 y pueden ser reproducidas por otro dispositivo o sistema utilizando el medio de grabación ex215 en el cual se graban los datos multiplexados . También es posible implementar el aparato de decodificación de imágenes en movimiento en el sintonizador externo ex217 conectado al cable ex203 para una televisión de cable o a la antena ex204 para la difusión satelital y/o terrestre, con el fin de exhibir las señales de video en el monitor ex219 de la televisión ex300. El aparato de decodificación de imágenes en movimiento puede no ser implementado en el sintonizador externo sino en la televisión ex300.
La FIGURA 23 ilustra la televisión (receptor) ex300 que utiliza el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en cada una de las modalidades. La televisión ex300 incluye: un dispositivo de sintonización ex301 que obtiene o proporciona datos multiplexados obtenidos al multiplexar datos de audio en datos de video, a través de la antena ex204 o el cable ex203, etcétera que recibe una difusión; una unidad de modulación/desmodulación ex302 que desmodula los datos multiplexados recibidos o modula datos en datos multiplexados para ser suministrados al exterior; y una unidad de multiplexión/desmultiplexión ex303 que desmultiplexa los datos multiplexados modulados en datos de video y datos de audio o multiplexa datos de video y datos de audio codificados por una unidad de procesamiento de señales ex306 en datos.
La televisión ex300 incluye además: una unidad de procesamiento de señales ex306 que incluye una unidad de procesamiento de señales de audio ex304 y una unidad de procesamiento de señales de video ex305 que decodifican datos de audio y datos de video y codifican datos de audio y datos de video, respectivamente (las cuales funcionan como el aparato de codificación de imágenes y el aparato de decodificación de imágenes de acuerdo con los aspectos de la presente invención) ; y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio decodificada y una unidad de exhibición ex308 que exhibe la señal de video decodificada, tal como una pantalla. Adicionalmente , la televisión ex300 incluye una unidad de interconexión ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación del usuario. Adicionalmente, la televisión ex300 incluye una unidad de control ex310 que controla en conjunto cada 8 elemento constituyente de la televisión ex300 y una unidad de circuitos de suministro de energía ex311 que suministra energía a cada uno de los elementos. A diferencia de la unidad de entrada de operación ex312, la unidad de interconexión ex317 puede incluir: un puente ex313 que se conecta a un dispositivo externo, tal como el lector/grabador ex218; una unidad de ranura ex314 para hacer posible la unión del medio de grabación ex216, tal como una tarjeta SD; un controlador ex315 que es conectado a un medio de grabación externo, tal como un disco duro; y un módem ex316 que es conectado a una red telefónica. En este documento, el medio de grabación ex216 puede grabar eléctricamente información utilizando un elemento de memoria semiconductora no volátil/volátil para el almacenamiento. Los elementos constituyentes de la televisión ex300 se conectan entre sí a través de una barra colectora sincrónica.
En primer lugar, se describirá la configuración en la cual la televisión ex300 decodifica los datos multiplexados obtenidos del exterior a través de la antena ex204 y otros y reproduce los datos decodificados . En la televisión ex300, con la operación de un usuario a través de un controlador distante ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 desmultiplexa los datos multiplexados que son desmodulados por la unidad de modulación/desmodulación ex302, bajo control de la unidad de control ex310 que incluye una CPU. Adicionalmente , la unidad de procesamiento de señales de audio ex304 decodifica los datos de audio desmultiplexados y la unidad de procesamiento de señales de video ex305 decodifica los datos de video desmultiplexados, utilizando el método de decodificación descrito en cada una de las modalidades, en la televisión ex300. La unidad de salida ex309 proporciona la señal de video y la señal de audio decodificadas al exterior, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de video y la señal de audio, las señales pueden ser almacenadas temporalmente en las memorias intermedias ex318 y ex319 y otras de modo que las señales sean reproducidas en sincronización entre sí. Adicionalmente, la televisión ex300 puede leer datos multiplexados no a través de una difusión y otros sino de los medios de grabación ex215 y ex216, tal como un disco magnético, un disco óptico y una tarjeta SD . Después, se describirá una configuración en la cual la televisión ex300 codifica una señal de audio y una señal de video y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, con la operación de un usuario a través del controlador distante ex220 y otros, la unidad de procesamiento de señales de audio ex304 codifica una señal de audio y la unidad de procesamiento de señales de video ex305 codifica una señal de video, bajo control de la unidad de control ex310 utilizando el método de codificación descrito en cada una de las modalidades. La unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio codificadas y proporciona la señal resultante al exterior. Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio, las señales pueden ser almacenadas temporalmente en las memorias intermedias ex320 y ex321 y otras de modo que las señales sean reproducidas en sincronización entre sí. En este documento, las memorias intermedias ex318, ex319, ex320 y ex32l pueden ser plurales como se ilustra o por lo menos una memoria intermedia puede ser compartida en la televisión ex300. Adicionalmente , se pueden almacenar datos en una memoria intermedia de modo que se puede evitar el desbordamiento y subdesbordamiento del sistema entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexión/desmultiplexión ex303, por ejemplo.
Adicionalmente, la televisión ex300 puede incluir una configuración para recibir una entrada de AV de un micrófono o una cámara diferente de la configuración para obtener datos de audio y video de una difusión o un medio de grabación y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar y proporcionar datos al exterior en la descripción, puede ser capaz de únicamente recibir, decodificar y proporcionar datos al exterior pero no de codificar, multiplexar y proporcionar datos al exterior.
Adicionalmente, cuando el lector/grabador ex218 lee o escribe datos multiplexados de o en un medio de grabación, uno de la televisión ex300 y el lector/grabador ex218 puede decodificar o codificar los datos multiplexados y la televisión ex300 y el lector/grabador ex218 pueden compartir la decodificación o codificación.
Como un ejemplo, la FIGURA 24 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos son leídos o escritos de o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye los elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407 que se describen posteriormente en este documento. La cabeza óptica ex401 irradia un foco de láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información y detecta la luz reflejada de la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 impulsa eléctricamente un láser semiconductor incluido en la cabeza óptica ex401 y modula la luz láser de acuerdo con datos grabados. La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida al detectar eléctricamente la luz reflejada de la superficie de grabación utilizando un fotodetector incluido en la cabeza óptica ex401 y desmodula la señal de reproducción al separar un componente de señal grabado en el medio de grabación ex215 7 para reproducir la información necesaria. La memoria intermedia ex404 mantiene temporalmente la información a ser grabada en el medio de grabación ex215 y la información reproducida del medio de grabación ex215. El motor del disco ex405 hace girar el medio de grabación ex215. La unidad de servomando ex406 mueve la cabeza óptica ex401 a una pista de información predeterminada mientras que controla el impulso de rotación del motor del disco ex405 con el fin de seguir el foco de láser. La unidad de control del sistema ex407 controla en conjunto la unidad de reproducción/grabación de información ex400. Los procesos de lectura y escritura pueden ser implementados por la unidad de control del sistema ex407 utilizando diversa información almacenada en la memoria intermedia ex404 y generando y agregando nueva información como sea necesario y por medio de la unidad de grabación de modulación ex402, la unidad de desmodulación de reproducción ex403 y la unidad de servomando ex406 que graban y reproducen información a través de la cabeza óptica ex401 mientras que son operados de manera coordinada. La unidad de control del sistema ex407 incluye, por ejemplo, un microprocesador y ejecuta el procesamiento al causar que una computadora ejecute un programa para leer y escribir.
Aunque la cabeza óptica ex401 irradia un foco de láser en la descripción, puede realizar la grabación de alta densidad utilizando luz de campo próximo.
La FIGURA 25 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex215, las acanaladuras guía se forman en espiral y una pista de información ex230 graba, anticipadamente, información de dirección que indica una posición absoluta en el disco de acuerdo con un cambio en una forma de las acanaladuras guía. La información de dirección incluye información para determinar posiciones de bloques de grabación ex231 que son una unidad para grabar datos. La reproducción de la pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Adicionalmente , el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interior ex232 y un área de circunferencia exterior ex234. El área de grabación de datos ex233 es un área para el uso en la grabación de los datos del usuario. El área de circunferencia interior ex232 y el área de circunferencia exterior ex234 que son el interior y el exterior del área de grabación de datos ex233, respectivamente, son para uso específico excepto para la grabación de los datos del usuario. La unidad de reproducción/grabación de información 400 lee y escribe datos de audio codificados, datos de video codificados o datos multiplexados que se obtienen al multiplexar los datos de audio y video codificados, de y sobre el área de grabación de datos ex233 del medio de grabación ex215.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD se proporciona como un ejemplo en la descripción, el disco óptico no está limitado a ese tipo y puede ser un disco óptico que tenga una estructura de múltiples capas y que pueda ser grabado en una parte diferente de la superficie. Adicionalmente , el disco óptico puede tener una estructura para la grabación/reproducción multidimensional , tal como la grabación de información utilizando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas desde varios ángulos.
Adicionalmente, un carro ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y puede reproducir video en un dispositivo de exhibición tal como un sistema de navegación de carro ex211 establecido en el carro ex210, en el sistema de difusión digital ex200. En este documento, una configuración del sistema de navegación de carro ex211 será una configuración, por ejemplo, que incluye una unidad de recepción de GPS de la configuración ilustrada en la FIGURA 23. Lo mismo será cierto para la configuración de la computadora exlll, el teléfono celular exll4 y otros.
La FIGURA 26A ilustra el teléfono celular exll4 que utiliza el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en las modalidades. El teléfono celular exll4 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base exllO; una unidad de cámara ex365 capaz de capturar imágenes en movimiento y fijas; y una unidad de exhibición ex358 tal como una pantalla de cristal líquido para exhibir los datos tales como video decodificado que es capturado por la unidad de cámara ex365 o es recibido por la antena ex350. El teléfono celular exll4 incluye además: una unidad de cuerpo principal que incluye una unidad de teclas de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar video o imágenes fijas capturados, audio grabado, datos codificados o decodificados del video recibido, las imágenes fijas, correos electrónicos u otros; y una unidad de ranura ex364 que es una unidad de interconexión para un medio de grabación que almacena datos de la misma manera que la unidad de memoria ex367.
Después, un ejemplo de una configuración del teléfono celular exll4 se describirá con referencia a la FIGURA 26B. En el teléfono celular exll4, una unidad de control principal ex360 diseñada para controlar en conjunto cada unidad del cuerpo principal que incluye la unidad de exhibición ex358, así como también la unidad de teclas de operación ex366 se conecta mutuamente, por vía de una barra colectora sincrónica ex370, a una unidad de circuitos de suministro de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señales de video ex355, una unidad de interconexión de cámara ex363, una unidad de control de la pantalla de cristal líquido (LCD) ex359, una unidad de modulación/desmodulación ex352, una unidad de multiplexión/desmultiplexión ex353, una unidad de procesamiento de señales de audio ex354, la unidad de ranura ex364 y la unidad de memoria ex367.
Cuando una tecla de final de llamada o una tecla de energía es encendida por la operación de un usuario, la unidad de circuitos de suministro de energía ex361 provee a las unidades respectivas con energía de un empaque de baterías con el fin de activar el teléfono celular exll4.
En el teléfono celular exll4, la unidad de procesamiento de señales de audio ex354 convierte las señales de audio recolectadas por la unidad de entrada de audio ex356 en modo de conversación de voz en señales de audio digital bajo el control de la unidad de control principal ex360 que incluye una CPU, ROM y RAM. Luego, la unidad de modulación/desmodulación ex352 realiza un procesamiento de espectro expandido en las señales de audio digital y la unidad de transmisión y recepción ex351 realiza la conversión de digital a análogo y la conversión de frecuencia en los datos, con el fin de transmitir los datos resultantes por vía de la antena ex350. También, en el teléfono celular exll4, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en modo de conversación de voz y realiza la conversión de frecuencia y la conversión de análogo a digital en los datos. Luego, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro expandido inverso en los datos y la unidad de procesamiento de señales de audio ex354 los convierte en señales de audio análogo, con el fin de enviarlos por vía de la unidad de salida de audio ex357.
Adicionalmente , cuando un correo electrónico en modo de comunicación de datos se transmite, los datos de texto del correo electrónico introducidos por medio de la operación de la unidad de teclas de operación ex366 y otros del cuerpo principal se envían a la unidad de control principal ex360 por vía de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 causa que la unidad de modulación/desmodulación ex352 realice un procesamiento de espectro expandido en los datos de texto y la unidad de transmisión y recepción ex351 realiza la conversión de digital a análogo y la conversión de frecuencia en los datos resultantes para transmitir los datos a la estación base exllO por vía de la antena ex350. Cuando se recibe un correo electrónico, el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico se realiza en los datos recibidos y los datos resultantes se proporcionan a la unidad de exhibición ex358.
Cuando se transmite video, imágenes fijas o video y audio en el modo de comunicación de datos, la unidad de procesamiento de señales de video ex355 comprime y codifica señales de video suministradas de la unidad de cámara ex365 utilizando el método de codificación de imágenes en movimiento mostrado en cada una de las modalidades (es decir, funciona como el aparato de codificación de imágenes de acuerdo con el aspecto de la presente invención) , y transmite los datos de video codificados a la unidad de multiplexión/desmultiplexión ex353. En contraste, cuando la unidad de cámara ex365 captura video, imágenes fijas y otros, la unidad de procesamiento de señales de audio ex354 codifica señales de audio recolectadas por la unidad de entrada de audio ex356 y transmite los datos de audio codificados a la unidad de multiplexión/desmultiplexión ex353.
La unidad de multiplexión/desmultiplexión ex353 multiplexa los datos de video codificados que son suministrados de la unidad de procesamiento de señales de video ex355 y los datos de audio codificados que son suministrados de la unidad de procesamiento de señales de audio ex354, utilizando un método predeterminado. Luego, la unidad de modulación/desmodulación (unidad de circuito de modulación/desmodulación) ex352 realiza el procesamiento de espectro expandido en los datos multiplexados y la unidad de transmisión y recepción ex351 realiza la conversión de digital a análogo y la conversión de frecuencia en los datos con el fin de transmitir los datos resultantes por vía de la antena ex350.
Cuando se reciben datos de un archivo de video el cual está vinculado con una página Web y otros en el modo de comunicación de datos o cuando se recibe un correo electrónico con video y/o audio anexo, con el propósito de decodificar los datos multiplexados que son recibidos por vía de la antena ex350, la unidad de multiplexión/desmultiplexión ex353 desmultiplexa los datos multiplexados en una corriente de bits de datos de video y una corriente de bits de datos de audio y provee a la unidad de procesamiento de señales de video ex355 con los datos de video codificados y la unidad de procesamiento de señales de audio ex354 con los datos de audio codificados, a través de la barra colectora sincrónica ex370. La unidad de procesamiento de señales de video ex355 decodifica la señal de video utilizando un método de decodificación de imágenes en movimiento que corresponde al método de codificación de imágenes en movimiento mostrado en cada una de las modalidades (es decir, funciona como el aparato de decodificación de imágenes de acuerdo con el aspecto de la presente invención) , y luego la unidad de exhibición ex358 exhibe, por ejemplo, el video y las imágenes fijas que están incluidos en el archivo de video vinculado con la página Web por vía de la unidad de control de LCD ex359. Adicionalmente , la unidad de procesamiento de señales de audio ex354 decodifica la señal de audio y la unidad de salida de audio ex357 proporciona el audio.
Adicionalmente, de manera similar a la televisión ex300, es posible que una terminal tal como el teléfono celular exll4 tenga 3 tipos de configuraciones de implementación que incluyen no únicamente (i) una terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de decodificación, sino también (ii) una terminal de transmisión que incluye únicamente un aparato de codificación y (iii) una terminal de recepción que incluye únicamente un aparato de decodificación. Aunque el sistema de difusión digital ex200 recibe y transmite los datos multiplexados que se obtienen al multiplexar datos de audio en datos de video en la descripción, los datos multiplexados pueden ser datos obtenidos al multiplexar no datos de audio sino datos de carácter relacionados con video en datos de video y pueden no ser datos multiplexados sino datos de video mismos.
Como tal, el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento en cada una de las modalidades se pueden utilizar en cualquiera de los dispositivos y sistemas descritos. De esta manera, se pueden obtener las ventajas descritas en cada una de las modalidades.
La presente invención no está limitada a las modalidades anteriores y se pueden hacer varias modificaciones y revisiones sin desviarse del alcance de la presente invención.
Modalidad 5 Los datos de video se pueden generar al conmutar, como sea necesario, entre (i) el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento mostrados en cada una de las modalidades y (ii) un método de codificación de imágenes en movimiento o un aparato de codificación de imágenes en movimiento de conformidad con un estándar diferente, tal como MPEG-2, MPEG-4 AVC y VC-1.
En este documento, cuando una pluralidad de datos de video que cumplen con los diferentes estándares se generan y luego se decodifican, es necesario que los métodos de decodificación se seleccionen para cumplir con los diferentes estándares. Sin embargo, puesto que no se puede detectar que estándar cumple cada uno de la pluralidad de datos de video que son decodificados , existe el problema respecto a que no se puede seleccionar un método de decodificación apropiado.
Con el propósito de resolver el problema, los datos multiplexados que se obtienen al multiplexar datos de audio y otros en datos de video tienen una estructura que incluye información de identificación que indica que estándar cumplen los datos de video. La estructura específica de los datos multiplexados que incluyen los datos de video generados en el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento mostrados en cada una de las modalidades se describirá en lo sucesivo. Los datos multiplexados son una corriente digital en el formato de Corriente de Transporte de MPEG-2.
La FIGURA 27 ilustra una estructura de los datos multiplexados. Como se ilustra en la FIGURA 27, los datos multiplexados se pueden obtener al multiplexar por lo menos una de una corriente de video, una corriente de audio, una corriente de gráficos de presentación (PG, por sus siglas en inglés) y una corriente de gráficos interactivos. La corriente de video representa video primario y video secundario de una película, la corriente de audio (IG) representa una parte de audio primario y una parte de audio secundario que se mezcla con la parte de audio primario y la corriente de gráficos de presentación representa subtítulos de la película. En este documento, el video primario es video normal que es exhibido en una pantalla y el video secundario es video que es exhibido en una ventana más pequeña en el video primario. Adicionalmente , la corriente de gráficos interactivos representa una pantalla interactiva que es generada al ordenar los componentes de GUI en una pantalla. La corriente de video se codifica en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento mostrados en cada una de las modalidades, o en un método de codificación de imágenes en movimiento o por un aparato de codificación de imágenes en movimiento de conformidad con un estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1. La corriente de audio se codifica de acuerdo con un estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada corriente incluida en los datos multiplexados es identificada por un PID. Por ejemplo, 0x1011 se asigna a la corriente de video que se utiliza para el video de una película, de 0x1100 a OxlllF se asignan a las corrientes de audio, de 0x1200 a 0xl21F se asignan a las corrientes de gráficos de presentación, de 0x1400 a 0xl41F se asignan a las corrientes de gráficos interactivos, de OxlBOO a OxlBlF se asignan a las corrientes de video que se utilizan para el video secundario de la película y de OxlAOO a OxlAlF se asignan a las corrientes de audio que se utilizan para el audio secundario que se mezcla con el audio primario.
La FIGURA 28 ilustra esquemáticamente como se multiplexan los datos. En primer lugar, una corriente de video ex235 compuesta de tramas de video y una corriente de audio ex238 compuesta de tramas de audio se transforman en una corriente de paquetes PES ex236 y una corriente de paquetes PES ex239 y además en paquetes TS ex237 y paquetes TS ex240, respectivamente. Similarmente , los datos de una corriente de gráficos de presentación ex241 y los datos de una corriente de gráficos interactivos ex244 se transforman en una corriente de paquetes PES ex242 y una corriente de paquetes PES ex245 y además en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS son multiplexados en una corriente para - obtener datos multiplexados ex247.
La FIGURA 29 ilustra con mayor detalle como se almacena una corriente de video en una corriente de paquetes PES. La primera barra en la FIGURA 29 muestra una corriente de tramas de video en una corriente de video. La segunda barra muestra la corriente de paquetes PES. Como es indicado por las flechas designadas como yyl, yy2 , yy3 e yy4 en la FIGURA 29, la corriente de video se divide en imágenes como imágenes I, imágenes B e imágenes P cada una de las cuales es una unidad de presentación de video y las imágenes se almacenan en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezado de PES y el encabezado de PES almacena un Registro de Tiempos de Presentación (PTS, por sus siglas en inglés) que indica un tiempo de exhibición de la imagen y un Registro de Tiempos de 1 Decodificación (DTS, por sus siglas en inglés) que indica un tiempo de decodificación dé la imagen.
La FIGURA 30 ilustra un formato de paquetes TS que se escriben finalmente en los datos multiplexados . Cada uno de los paquetes TS es un paquete de longitud fija de 188 bytes, que incluye un encabezado de TS de 4 bytes que tiene información, tal como un PID para identificar una corriente y una carga útil de TS de 184 bytes para almacenar datos. Los paquetes PES se dividen y se almacenan en las cargas útiles de TS, respectivamente. Cuando se utiliza un BD ROM, a cada uno de los paquetes TS se proporciona un TP_Extra_Header (Encabezado Adicional TP) de 4 bytes, dando por resultado de esta manera paquetes fuente de 192 bytes. Los paquetes fuente se escriben en los datos multiplexados. El TP_Extra_Header almacena información tal como un Arrival_Time_Stamp (Registro de Tiempos de Llegada) (ATS, por sus siglas en inglés) . El ATS muestra un tiempo de inicio de transferencia en el cual cada uno de los paquetes TS deben ser transferidos a un filtro de PID. Los paquetes fuente se ordenan en los datos multiplexados como se muestra en el fondo de la FIGURA 30. Los números que incrementan desde la cabeza de los datos multiplexados son llamados números de paquete fuente (SPNs, por sus siglas en inglés) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no únicamente corrientes de audio, video, subtítulos y otros, sino también una Tabla de Asociación de Programas (PAT, por sus siglas en inglés) , una Tabla de Mapa de Programas (PMT, por sus siglas en inglés) y una Referencia de Reloj de Programa (PCR, por sus siglas en inglés) . La PAT muestra lo que indica un PID en una PMT utilizada en los datos multiplexados y un PID de la PAT misma se registra como cero. La PMT almacena PIDs de las corrientes de video, audio, subtítulos y otros incluidas en los datos multiplexados y la información de atributos de las corrientes correspondientes a los PIDs. La PMT también tiene varios descriptores que se refieren a los datos multiplexados. Los descriptores tienen información tal como información de control de copias que muestra si se permite o no el copiado de los datos multiplexados. La PCR almacena la información de tiempo de STC que corresponde a un ATS que muestra cuando el paquete de PCR se transfiere a un decodificador, con el propósito de lograr una sincronización entre un Reloj de Tiempo de Llegada (ATC) que es un eje de tiempo de ATSs y un Reloj de Tiempo de Sistema (STC) que es un eje de tiempo de PTSs y DTSs.
La FIGURA 31 ilustra detalladamente la estructura de datos de la PMT. Un encabezado de PMT se coloca en la parte más alta de la PMT. El encabezado de PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores que se refieren a los datos multiplexados se coloca después del encabezado de PMT. Información tal como la información de control de copias se describe en los descriptores. Después de los descriptores, se coloca una pluralidad de piezas de información de corriente que se refiere a las corrientes incluidas en los datos multiplexados . Cada pieza de información de corriente incluye descriptores de corriente cada uno que describe información, tal como un tipo de corriente para identificar un codee de compresión de una corriente, un PID de corriente e información de atributos de corriente (tal como una velocidad de tramas o una relación dimensional) . Los descriptores de corriente son iguales en número al número de corrientes en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de gestión de los datos multiplexados como se muestra en la FIGURA 32. Los archivos de información de datos multiplexados están en correspondencia de uno a uno con los datos multiplexados y cada uno de los archivos incluye información de datos multiplexados, información de atributos de corriente y un mapa de entrada.
Como se ilustra en la FIGURA 32, la información de datos multiplexados incluye una velocidad de sistema, un tiempo de inicio de reproducción y un tiempo de final de reproducción. La velocidad de sistema indica la velocidad de transferencia máxima a la cual un decodificador objetivo del sistema que se describe posteriormente transfiere los datos multiplexados a un filtro de PID. Los intervalos de los ATSs incluidos en los datos multiplexados se establecen a un nivel no más alto que una velocidad de sistema. El tiempo de inicio de reproducción indica un PTS en una trama de video en la cabeza de los datos multiplexados. Un intervalo de una trama se agrega a un PTS en una trama de video al final de los datos multiplexados y el PTS se establece al tiempo de final de reproducción.
Como se muestra en la FIGURA 33, una pieza de información de atributos se registra en la información de atributos de corriente, para cada PID de cada corriente incluida en los datos multiplexados. Cada pieza de información de atributos tiene diferente información dependiendo si la corriente correspondiente es una corriente de video, una corriente de audio, una corriente de gráficos de presentación o una corriente de gráficos interactivos. Cada pieza de información de atributos de corriente de video lleva información que incluye que clase de codee de compresión se utiliza para la compresión de la corriente de video y la resolución, relación dimensional y velocidad de trama de las piezas de datos de imagen que se incluyen en la corriente de video. Cada pieza de información de atributos de corriente de audio lleva información que incluye que clase de codee de compresión se utiliza para comprimir la corriente de audio, cuantos canales se incluyen en la corriente de audio, que lenguaje soporta la corriente de audio y que tan alta es la frecuencia de muestreo. La información de atributos de corriente de video y la información de atributos de corriente de audio se utilizan para la inicialización de un decodificador antes de que el reproductor repita la información .
En la presente modalidad, los datos multiplexados que se utilizan son de un tipo de corriente incluido en la PMT. Adicionalmente, cuando los datos multiplexados se graban en un medio de grabación, la información de atributos de corriente de video incluida en la información de datos multiplexados se utiliza. Más específicamente, el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades incluye un paso o una unidad para asignar información única que indica los datos de video generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las modalidades, al tipo de corriente incluido en la PMT o la información de atributos de corriente de video. Con la configuración, los datos de video generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades se pueden distinguir de los datos de video que cumplen con otro estándar.
Adicionalmente , la FIGURA 34 ilustra pasos del método de decodificación de imágenes en movimiento de acuerdo con la presente modalidad. En el Paso exSlOO, el tipo de corriente incluido en la PMT o la información de atributos de corriente de video incluida en la información de datos multiplexados se obtiene de los datos multiplexados . Después, en el Paso exSlOl, se determina si el tipo de corriente o la información de atributos de corriente de video indica o no que los datos mult plexados son generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las modalidades. Cuando se determina que el tipo de corriente o la información de atributos de corriente de video indica que los datos multiplexados, son generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las modalidades, en el Paso exS102, la decodificación es realizada por el método de decodificación de imágenes en movimiento en cada una de las modalidades. Adicionalmente, cuando el tipo de corriente o la información de atributos de corriente de video indica el cumplimiento de los estándares convencionales, tales como MPEG-2, MPEG-4 AVC y VC-1, en el Paso exS103, la decodificación es realizada por un método de decodificación de imágenes en movimiento de conformidad con los estándares convencionales.
Como tal, la asignación de un nuevo valor único al tipo de corriente o a la información de atributos de corriente de video hace posible la determinación si el método de decodificación de imágenes en movimiento o el aparato de decodificación de imágenes en movimiento que se describen en cada una de las modalidades pueden realizar o no la decodificación. Incluso cuando se introducen datos multiplexados que cumplen con un estándar diferente, se puede seleccionar un método o aparato de decodificación apropiado. De esta manera, se hace posible decodificar información sin ningún error. Adicionalmente , el método o aparato de codificación de imágenes en movimiento, o el método o aparato de decodificación de imágenes en movimiento en la presente modalidad se puede utilizar en los dispositivos y sistemas descritos anteriormente.
Modalidad 6 Cada uno del método de codificación de imágenes en movimiento, el aparato de codificación de imágenes en movimiento, el método de decodificación de imágenes en movimiento y el aparato de decodificación de imágenes en movimiento en cada una de las modalidades se logra típicamente en la forma de un circuito integrado o un circuito Integrado a Gran Escala (LSI) . Como un ejemplo del LSI, la FIGURA 35 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que se describen posteriormente, y los elementos se conectan entre sí a través de una barra colectora ex510. La unidad de circuitos de suministro de energía ex505 es activada al proveer a cada uno de los elementos con energía cuando la unidad de circuitos de suministro de energía ex505 se enciende.
Por ejemplo, cuando se realiza la codificación, el LSI ex500 recibe una señal de AV de un micrófono exll7, una cámara exll3 y otros a través de una 10 de AV ex509 bajo control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de corriente ex504 y una unidad de control de frecuencia impulsora ex512. La señal de AV recibida se almacena temporalmente en la memoria externa ex511, tal como una SDRAM. Bajo control de la unidad de control ex501, los datos almacenados son segmentados en porciones de datos de acuerdo con la cantidad y velocidad de procesamiento que se transmite a una unidad de procesamiento de señales ex507. Luego, la unidad de procesamiento de señales ex507 codifica una señal de audio y/o una señal de video. En este documento, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Adicionalmente , la unidad de procesamiento de señales ex507 multiplexa algunas veces los datos de audio codificados y los datos de video codificados, y una 1/0 de corriente ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados son transmitidos a la estación base exl07, o se escriben en el medio de grabación ex215. Cuando se multiplexan los conjuntos de datos, los datos se deben almacenar temporalmente en la memoria intermedia ex508 de modo que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento fuera del LSI ex500, se puede incluir en el LSI ex500. La memoria intermedia ex508 no está limitada a una memoria intermedia, sino que puede estar compuesta de memorias intermedias. Adicionalmente , el LSI ex500 se puede hacer en un chip o una pluralidad de chips .
Adicionalmente, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de corriente ex504 y la unidad de control de frecuencia impulsora ex512, la configuración de la unidad de control ex501 no está limitada a éstos. Por ejemplo, la unidad de procesamiento de señales ex507 puede incluir además una CPU. La inclusión de otra CPU en la unidad de procesamiento de señales ex507 puede mejorar la velocidad de procesamiento. Adicionalmente, como otro ejemplo, la CPU ex502 puede servir como o puede ser una parte de la unidad de procesamiento de señales ex507 y, por ejemplo, puede incluir una unidad de procesamiento de señales de audio. En este caso, la unidad de control ex501 incluye la unidad de procesamiento de señales ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señales ex507.
El nombre utilizado en este documento es LSI, pero también se puede llamar IC, sistema LSI, super LSI o ultra-LSI dependiendo del grado de integración.
Por otra parte, las maneras para lograr la integración no están limitadas al LSI y un circuito especial o un procesador de uso general y así por el estilo también puede lograr la integración. La Matriz de Puerta Programable de Campo (FPGA, por sus siglas en inglés) que se puede programar después de la manufactura de LSIs o un procesador reconfigurable que permite la reconfiguración de la conexión o la configuración de un LSI se puede utilizar para el mismo propósito.
En el futuro, con el avance en la tecnología de los semiconductores, una nueva tecnología puede reemplazar el LSI. Los bloques funcionales se pueden integrar utilizando esta tecnología. La posibilidad es que la presente invención se aplique a la biotecnología.
Modalidad 7 Cuando los datos de video generados en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades se decodifican, en comparación a cuando los datos de video que cumplen con un estándar convencional, tales como MPEG-2, MPEG-4 AVC y VC-l se decodifican, es posible que la cantidad de procesamiento se incremente. De esta manera, el LSI ex500 necesita ser establecido a una frecuencia impulsora más alta que aquella de la CPU ex502 que se utiliza cuando se decodifican datos de video de conformidad con el estándar convencional. Sin embargo, cuando la frecuencia impulsora se establece más alto, existe el problema respecto a que se incrementa el consumo de energía.
Con el propósito de resolver el problema, el aparato de decodificación de imágenes en movimiento, tal como la televisión ex300 y el LSI ex500 se configuran para determinar que estándar cumplen los datos de video y conmutar entre las frecuencias impulsoras de acuerdo con el estándar determinado. La FIGURA 36 ilustra una configuración ex800 en la presente modalidad. Una unidad de conmutación de frecuencias impulsoras ex803 establece una frecuencia impulsora a una frecuencia impulsora más alta cuando los datos de video son generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades. Luego, la unidad de conmutación de frecuencias impulsoras ex803 da instrucciones a una unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las modalidades para decodificar los datos de video. Cuando los datos de video cumplen con el estándar convencional, la unidad de conmutación de frecuencias impulsoras ex803 establece una frecuencia impulsora a una frecuencia impulsora más baja que aquella de los datos de video generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades. Luego, la unidad de conmutación de frecuencias impulsoras ex803 da instrucciones a la unidad de procesamiento de decodificación ex802 que cumple con el estándar convencional para decodificar los datos de video.
Más específicamente, la unidad de conmutación de frecuencias impulsoras ex803 incluye la CPU ex502 y la unidad de control de frecuencias impulsoras ex512 en la FIGURA 35. En este documento, cada unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las modalidades y la unidad de procesamiento de decodificación ex802 que cumple con el estándar convencional corresponde a la unidad de procesamiento de señales ex507 de la FIGURA 35. La CPU ex502 determina que estándar cumplen los datos de video. Luego, la unidad de control de frecuencias impulsoras ex512 determina una frecuencia impulsora con base en una señal de la CPU ex502. Adicionalmente, la unidad de procesamiento de señales ex507 decodifica los datos de video con base en la señal de la CPU ex502. Por ejemplo, es posible que la información de identificación descrita en la Modalidad 5 se utilice para identificar los datos de video. La información de identificación no está limitada a aquella descrita en la Modalidad 5 sino que puede ser cualquier información siempre y cuando la información indique que estándar cumplen los datos de video. Por ejemplo, cuando se puede determinar que estándar cumplen los datos de video con base en una señal externa para determinar que los datos de video se utilizan para una televisión o un disco, etcétera, la determinación se puede hacer con base en esta señal externa. Adicionalmente, la CPU ex502 selecciona una frecuencia impulsora con base en, por ejemplo, una tabla de consulta en la cual los estándares de los datos de video se asocian con las frecuencias impulsoras como se muestra en la FIGURA 38. La frecuencia impulsora se puede seleccionar al almacenar la tabla de consulta en la memoria intermedia ex508 y en una memoria interna de un LSI y con referencia a la tabla de consulta por la CPU ex502.
La FIGURA 37 ilustra pasos para ejecutar un método en la presente modalidad. En primer lugar, en el Paso exS200, la unidad de procesamiento de señales ex507 obtiene información de identificación de los datos multiplexados .
Después, en el Paso exS201, la CPU ex502 determina si los datos de video se generan o no por medio del método de codificación y el aparato de codificación descritos en cada una de las modalidades, con base en la información de identificación. Cuando los datos de video son generados por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades, en el Paso exS202, la CPU ex502 transmite una señal para establecer la frecuencia impulsora a una frecuencia impulsora más alta a la unidad de control de frecuencias impulsoras ex512. Luego, la unidad de control de frecuencias impulsoras ex512 establece la frecuencia impulsora a la frecuencia impulsora más alta. Por otra parte, cuando la información de identificación indica que los datos de video cumplen con el estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, en el Paso exS203, la CPU ex502 transmite una señal para establecer la frecuencia impulsora a una frecuencia impulsora más baja a la unidad de control de frecuencias impulsoras ex512. Luego, la unidad de control de frecuencias impulsoras ex512 establece la frecuencia impulsora a la frecuencia impulsora más baja que aquella en el caso donde los datos de video son generados por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades.
Adicionalmente , junto con la conmutación de las frecuencias impulsoras, el efecto de conservación de energía se puede mejorar al cambiar el voltaje que se aplica al LSI ex500 o un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia impulsora se establece más baja, es posible que el voltaje que se aplica al LSI ex500 o el aparato que incluye el LSI ex500 se establezca a un voltaje más bajo que aquel en el caso donde la frecuencia impulsora se establece más alta.
Adicionalmente, cuando la cantidad de procesamiento para la decodificación es más grande, la frecuencia impulsora se puede establecer más alta, y cuando la cantidad de procesamiento para la decodificación es más pequeña, la frecuencia impulsora se puede establecer más baja como el método para establecer la frecuencia impulsora. De esta manera, el método de establecimiento no está limitado a aquellos descritos anteriormente. Por ejemplo, cuando la cantidad de procesamiento para' decodificar datos de video de conformidad con MPEG-4 AVC es más grande que la cantidad de procesamiento para la decodificación de datos de video generados por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades, es posible que la frecuencia impulsora se establezca en orden inverso al establecimiento descrito anteriormente.
Adicionalmente , el método para establecer la frecuencia impulsora no está limitado al método para establecer la frecuencia impulsora más baja. Por ejemplo, cuando la información de identificación indica que los datos de video se generan por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades, es posible que el voltaje que se aplica al LSI ex500 o el aparato que incluye el LSI ex500 se establezca más alto. Cuando la información de identificación indica que los datos de video cumplen con el estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, es posible que el voltaje que se aplica al LSI ex500 o el aparato que incluye el LSI ex500 se establezca más bajo. Como otro ejemplo, es posible que cuando la información de identificación indica que los datos de video se generan por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades, la impulsión de la CPU ex502 no tenga que suspenderse. Cuando la información de identificación indica que los datos de video cumplen con el estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, es posible que la impulsión de la CPU ex502 se suspenda en un tiempo determinado debido a que la CPU ex502 tiene capacidad de procesamiento adicional. Incluso cuando la información de 11 identificación indica que los datos de video se generan por medio del método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las modalidades, es posible que en el caso donde la CPU ex502 tiene capacidad de procesamiento adicional, la impulsión de la CPU ex502 se suspenda en un tiempo determinado. En este caso, es posible que el tiempo de suspensión se establezca más corto que aquel en el caso cuando la información de identificación indica que los datos de video cumplen con el estándar convencional, tal como MPEG-2, MPEG- 4 AVC y VC-1.
Por consiguiente, el efecto de conservación de energía se puede mejorar al conmutar entre las frecuencias impulsoras de acuerdo con el estándar que cumplen los datos de video. Adicionalmente, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se impulsa utilizando una batería, la vida útil de la batería se puede extender con el efecto de conservación de energía.
Modalidad 8 Existen casos donde una pluralidad de datos de video que cumplen con diferentes estándares, se proporcionan a los dispositivos y sistemas, tal como una televisión y un teléfono celular. Con el propósito de hacer posible la decodificación de la pluralidad de datos de video que cumplen con los diferentes estándares, la unidad de procesamiento de señales ex507 del LSI ex500 necesita cumplir con los diferentes estándares. Sin embargo, los problemas del incremento en la escala del circuito del LSI ex500 y el incremento en el costo se elevan con el uso individual de las unidades de procesamiento de señales ex507 que cumplen con los estándares respectivos.
Con el propósito de resolver el problema, lo que se idea es una configuración en la cual la unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las modalidades y la unidad de procesamiento de decodificación que cumple con el estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1 se comparten parcialmente. Ex900 en la FIGURA 39A muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imágenes en movimiento descrito en cada una de las modalidades y el método de decodificación de imágenes en movimiento que cumple con MPEG-4 AVC tienen, parcialmente en común, los detalles del procesamiento, tal como la codificación entrópica, cuantificación inversa, filtración de desbloqueo y predicción con compensación de movimiento. Es posible que los detalles de procesamiento que se comparten incluyan el uso de una unidad de procesamiento de decodificación ex902 que cumple con MPEG-4 AVC. En contraste, es posible que una unidad de procesamiento de decodificación especializada ex901 se utilice para otro procesamiento que es único para un aspecto de la presente invención. Es probable que la unidad de procesamiento de decodificación sea compartida para uno de la decodificación entrópica, filtración de desbloqueo y compensación de movimiento, o la totalidad del procesamiento. La unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las modalidades puede ser compartida para que el procesamiento sea compartido y una unidad de procesamiento de de'codificación especializada se puede utilizar para el procesamiento único para aquel de MPEG-4 AVC.
Adicionalmente, exlOOO en la FIGURA 39B muestra otro ejemplo en que se comparte parcialmente el procesamiento. Este ejemplo utiliza una configuración que incluye una unidad de procesamiento de decodificación especializada exlOOl que soporta el procesamiento único para un aspecto de la presente invención, una unidad de procesamiento de decodificación especializada exl002 que soporta el procesamiento único para otro estándar convencional y una unidad de procesamiento de decodificación exl003 que soporta el procesamiento que es compartido entre el método de decodificación de imágenes en movimiento de acuerdo con el aspecto de la presente invención y el método de decodificación de imágenes en movimiento convencional. En este documento, las unidades de procesamiento de decodificación especializadas exlOOl y exl002 no están especializadas necesariamente para el procesamiento de acuerdo con el aspecto de la presente invención y el procesamiento del estándar convencional, respectivamente, y pueden ser aquellas capaces de implementar el procesamiento general. Adicionalmente , la configuración de la presente modalidad puede ser implementada por el LSI ex500.
Como tal, la reducción de la escala del circuito de un LSI y la reducción del costo son posibles al compartir la unidad de procesamiento de decodificación para que el procesamiento sea compartido entre el método de decodificación de imágenes en movimiento de acuerdo con el aspecto de la presente invención y el método de decodificación de imágenes en movimiento de conformidad con el estándar convencional.
Cada uno de los elementos estructurales en cada una de las modalidades descritas anteriormente se puede configurar en la forma de un producto de hardware exclusivo o se puede materializar al ejecutar un programa de software adecuado para el elemento estructural. Cada uno de los elementos estructurales se puede materializar por medio de una unidad de ejecución de programas, tal como una CPU y un procesador, que leen y ejecutan el programa de software grabado en un medio de grabación tal como un disco duro o una memoria semiconductora. En este documento, el programa de software para materializar el aparato de decodificación de imágenes de acuerdo con cada de las modalidades es un programa descrito posteriormente.
En otras palabras, este programa causa que la computadora ejecute los pasos de la filtración de desbloqueo.
Aunque los métodos de filtración de desbloqueo y el aparato de filtración de desbloqueo de acuerdo con uno o más aspectos de la presente invención han sido descritos anteriormente con base en las modalidades, la presente invención no está limitada a esas modalidades. Varias clases de modificaciones hechas a las modalidades cuando se llega a las mismas por cualquier persona experta en el campo y modalidades configuradas para combinar elementos estructurales en las diferentes modalidades se pueden incluir en el alcance de uno o más aspectos de la presente invención. Aplicabilidad Industrial Un método de procesamiento de imágenes de acuerdo con esta invención es aplicable a la decodificación por compresión de varios datos multimedia. El método de procesamiento de imágenes de acuerdo con esta invención es útil como procesos de decodificación por compresión en el almacenamiento, transmisión, comunicación y similares utilizando, por ejemplo, teléfonos móviles, dispositivos de DVD, computadoras personales.
Lista de Signos de Referencia 100, 300 Aparato de codificación de imágenes en movimiento 105 Sustractor 110 Unidad de transformación 120 Unidad de cuantificación 130 Unidad de cuantificación inversa/transformación inversa 140 Sumador 150 Unidad de filtración de desbloqueo 151 Primer filtro de desbloqueo 152 Segundo filtro de desbloqueo 153 Unidad de control de filtros 154 Unidad de cálculo de intensidad de límite 155 Unidad de cálculo de Te 156 Unidad de selección de filtros 160 Unidad de compensación adaptable a la muestra 165 Unidad de filtración de bucle adaptable 170 Memoria de tramas 180 Unidad de predicción 190 Codificador entrópico 200 Aparato de codificación de imágenes en movimiento 290 Decodificador entrópico 230 Unidad de cuantificación inversa/transformación inversa 240 Sumador 250 Unidad de filtración de desbloqueo 260 Unidad de compensación adaptable a la muestra 255 Unidad de filtración de bucle adaptable 270 Memoria de tramas 280 Unidad de predicción 310 Unidad de filtración de desbloqueo horizontal 320 Unidad de filtración de desbloqueo vertical Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (13)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un método de procesamiento de imágenes para realizar una filtración en bloques de imagen utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro, caracterizado porque comprende: un primer paso de cálculo de parámetros para calcular un primer parámetro que indica una intensidad de límite entre dos bloques de imagen adyacentes; un segundo paso de cálculo de parámetros para calcular un segundo parámetro que indica un valor límite para cada uno de los filtros de desbloqueo, utilizando una suma lineal del primer parámetro y un parámetro de cuantificación; y un paso de selección para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre los filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro.
2. El método de procesamiento de imágenes de conformidad con la reivindicación 1, caracterizado porque, en el segundo paso de cálculo de parámetros, el segundo parámetro se calcula de tal manera que un valor del segundo parámetro es más grande cuando un valor del primer parámetro es más grande.
3. El método de procesamiento de imágenes de conformidad con las reivindicaciones 1 o 2, caracterizado porque, en el segundo paso de cálculo de parámetros, el segundo parámetro se calcula de tal manera que el valor del segundo parámetro es más grande cuando un valor del parámetro de cuantificación es más grande.
4. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado porque, en el paso de selección, uno o más de cada uno de los valores umbral se calcula de tal manera que el valor umbral es más grande cuando un valor del segundo parámetro es más grande.
5. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 4, caracterizado porque, en el paso de selección: un primer valor umbral y un segundo valor umbral se determinan, el primer valor umbral es para seleccionar uno de los filtros de desbloqueo y el segundo valor umbral es para determinar si se selecciona o no cualquiera de los filtros de desbloqueo; y se selecciona o no uno de los filtros de desbloqueo para utilizar cualquiera de los filtros de desbloqueo.
6. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 5, caracterizado porque además comprende un paso de determinación de ej ecutabilidad para determinar si se realiza o no la filtración utilizando el primer parámetro antes de ejecutar el paso de selección.
7. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 6, caracterizado porque el primer paso de cálculo de parámetros incluye: un primer paso de determinación para determinar si por lo menos uno de los dos bloques de imagen adyacentes es o no un bloque que es intracodificado; y un paso de establecimiento para establecer un primer valor fijo para el primer parámetro cuando se determina en el primer paso de determinación que por lo menos uno de los dos bloques de imagen adyacentes es el bloque que es intracodificado .
8. El método de procesamiento de imágenes de conformidad con la reivindicación 7, caracterizado porque además el primer paso de cálculo de parámetros incluye un paso de establecimiento para establecer, para el primer parámetro, un segundo valor fijo diferente del primer valor fijo cuando se determina en el paso de determinación que los dos bloques de imagen adyacentes son bloques que no son intracodificados .
9. El método de procesamiento de imágenes de conformidad con la reivindicación 7, caracterizado porque además el primer paso de cálculo de parámetros incluye: un segundo paso de determinación para determinar si por lo menos uno de los dos bloques de imagen adyacentes incluye o no por lo menos un coeficiente de transformación que no es cero cuando se determina en el primer paso de determinación que los dos bloques de imagen adyacentes son bloques que no son intracodificados ; y un paso de establecimiento para establecer el primer parámetro utilizando un resultado del segundo paso de determinación.
10. El método de procesamiento de imágenes de conformidad con la reivindicación 7, caracterizado porque además, cuando se determina en el primer paso de determinación que los dos bloques de imagen adyacentes son bloques que no son intracodificados , el primer paso de cálculo de parámetros incluye: un segundo paso de determinación para determinar si por lo menos uno de los dos bloques adyacentes incluye o no por lo menos un coeficiente que no es cero; un tercer paso de determinación para determinar si los dos bloques de imagen adyacentes tienen o no índices de referencia diferentes cada uno que indica una imagen de referencia en la inter-codificación; un cuarto paso de determinación para determinar si un valor absoluto de diferencia entre los dos bloques de imagen adyacentes excede o no un valor umbral predeterminado, el valor absoluto de diferencia es uno de un valor absoluto de diferencia entre componentes de vectores de movimiento horizontales de los dos bloques de imagen adyacentes y un valor absoluto de diferencia entre componentes de vectores de movimiento verticales de los dos bloques de imagen adyacentes; y un paso de establecimiento para establecer el primer valor fijo para el primer parámetro en el caso donde (i) se determina en el segundo paso de determinación que por lo menos el coeficiente de transformación que no es cero está incluido, (ü) se determina en el tercer paso de determinación que los índices de imagen de referencia son los mismos y (iii) se determina en el cuarto paso de determinación que el valor absoluto de diferencia excede el valor umbral predeterminado; o en otros casos, el paso de establecimiento para establecer un segundo valor fijo diferente del primer valor fijo para el primer parámetro. ¦
11. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 10, caracterizado porque comprende: un paso de compresión para comprimir un bloque de error de predicción el cual es una diferencia entre un bloque actual que es codificado y un bloque de predicción cada uno de los cuales incluye una pluralidad de pixeles; un paso de reconstrucción para generar un bloque reconstruido al decodificar el bloque de error de predicción comprimido y agregar el bloque de error de predicción decodificado al bloque de predicción; un paso de filtración que incluye el primer paso de cálculo de parámetros, el segundo paso de cálculo de parámetros y el paso de selección, el paso de filtración se ejecuta para el bloque reconstruido; un paso de predicción para generar un bloque de predicción utilizando el bloque reconstruido que es filtrado en el paso de filtración; y un paso de codificación para codificar el bloque de error de predicción comprimido para generar una corriente de bits codificada.
12. El método de procesamiento de imágenes de conformidad con cualquiera de las reivindicaciones 1 a 10, caracterizado porque comprende un paso de obtención para obtener una corriente de bits que incluye un bloque actual que es decodificado; un paso de generación para generar un bloque reconstruido al decodificar el bloque actual que es decodificado y agregar el bloque actual decodificado a un bloque de predicción; un paso de filtración que incluye el primer paso de cálculo de parámetros, el segundo paso de cálculo de parámetros y el paso de selección, el paso de filtración se ejecuta para el bloque reconstruido; y un paso de predicción para generar un bloque de predicción utilizando el bloque reconstruido que es filtrado en el paso de filtración.
13. Un aparato de procesamiento de imágenes el cual realiza una filtración en bloques de imagen utilizando una pluralidad de filtros de desbloqueo que tienen diferentes intensidades de filtro, caracterizado porque comprende: una primera unidad de cálculo de parámetros configurada para calcular un primer parámetro que indica una intensidad de límite entre dos bloques de imagen adyacentes; una segunda unidad de cálculo de parámetros configurada para calcular un segundo parámetro que indica un valor límite para cada uno de la pluralidad de filtros de desbloqueo, utilizando una suma lineal del primer parámetro y el parámetro de cuantificación; y una unidad de selección configurada para seleccionar un filtro de desbloqueo que se utiliza en la filtración de entre la pluralidad de filtros de desbloqueo, utilizando uno o más valores umbral los cuales se determinan con base en el segundo parámetro, en donde la segunda unidad de cálculo de parámetros se configura para calcular, como el valor del segundo parámetro, un valor total del primer parámetro y el parámetro de cuantificación .
MX2013014207A 2011-11-25 2012-11-21 Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes. MX2013014207A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161563695P 2011-11-25 2011-11-25
PCT/JP2012/007473 WO2013076978A1 (ja) 2011-11-25 2012-11-21 画像処理方法および画像処理装置

Publications (1)

Publication Number Publication Date
MX2013014207A true MX2013014207A (es) 2014-01-20

Family

ID=48469441

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013014207A MX2013014207A (es) 2011-11-25 2012-11-21 Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes.

Country Status (13)

Country Link
US (8) US9414064B2 (es)
EP (1) EP2785057B1 (es)
JP (5) JP5343178B1 (es)
KR (2) KR102094939B1 (es)
CN (2) CN103621097B (es)
BR (1) BR112013032615A2 (es)
CA (1) CA2840036C (es)
ES (1) ES2831999T3 (es)
MX (1) MX2013014207A (es)
MY (1) MY164978A (es)
PL (1) PL2785057T3 (es)
TW (1) TWI599213B (es)
WO (1) WO2013076978A1 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9414064B2 (en) * 2011-11-25 2016-08-09 Sun Patent Trust Image processing method and image processing apparatus
TWI581623B (zh) * 2012-04-06 2017-05-01 Sony Corp Image processing apparatus and method, program, and recording medium
US10477208B2 (en) * 2012-09-24 2019-11-12 Intel Corporation Histogram segmentation based local adaptive filter for video encoding and decoding
JP2014207536A (ja) * 2013-04-12 2014-10-30 ソニー株式会社 画像処理装置および方法
US9622262B2 (en) 2013-05-03 2017-04-11 Qualcomm Incorporated Transmit opportunity (TXOP) based channel reuse
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
MX2016004705A (es) * 2013-10-14 2016-07-18 Microsoft Technology Licensing Llc Caracteristicas del modo de prediccion copia de bloque interno para codificacion y decodificacion de imagen y video.
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
WO2015100726A1 (en) 2014-01-03 2015-07-09 Microsoft Corporation Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
JP2017512026A (ja) 2014-03-04 2017-04-27 マイクロソフト テクノロジー ライセンシング,エルエルシー イントラブロックコピー予測におけるブロック反転及びスキップモード
CN105493505B (zh) 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
EP3202150B1 (en) 2014-09-30 2021-07-21 Microsoft Technology Licensing, LLC Rules for intra-picture prediction modes when wavefront parallel processing is enabled
JP6396782B2 (ja) * 2014-12-11 2018-09-26 日本電信電話株式会社 デブロッキング処理方法、デブロッキング処理装置、コンピュータプログラム及び記録媒体
JP6545515B2 (ja) * 2015-04-24 2019-07-17 株式会社東芝 画像復号装置
KR20180006411A (ko) * 2015-06-07 2018-01-17 엘지전자 주식회사 디블록킹 필터링을 수행하는 방법 및 장치
EP3358848B1 (en) 2015-09-29 2021-04-21 LG Electronics Inc. Method of filtering image in image coding system
JP7094076B2 (ja) * 2016-08-19 2022-07-01 沖電気工業株式会社 映像符号化装置、プログラム及び方法、並びに、映像復号装置、プログラム及び方法、並びに、映像伝送システム
US11240495B2 (en) 2016-08-21 2022-02-01 Lg Electronics Inc. Image coding/decoding method and apparatus therefor
US20180091812A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
JP6770095B2 (ja) * 2016-12-27 2020-10-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、復号装置、符号化方法及び復号方法
KR20230054495A (ko) * 2016-12-28 2023-04-24 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
TWI833248B (zh) * 2017-04-06 2024-02-21 美商松下電器(美國)知識產權公司 解碼方法及編碼方法
CN107316276B (zh) * 2017-06-30 2020-12-11 京东方科技集团股份有限公司 用于对图像进行拉伸的方法及装置
US10645408B2 (en) 2017-09-17 2020-05-05 Google Llc Dual deblocking filter thresholds
CN114979636B (zh) * 2017-10-09 2023-10-27 佳能株式会社 用于对样本块进行滤波的方法、装置和存储介质
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
KR20210011378A (ko) * 2018-05-23 2021-02-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
US20200068223A1 (en) 2018-08-27 2020-02-27 Qualcomm Incorporated Deblocking filter for video coding and processing
US11356699B2 (en) * 2019-01-11 2022-06-07 Hfi Innovation Inc. Method and apparatus of sub-block deblocking in video coding
EP3932080A4 (en) * 2019-02-27 2022-06-08 Telefonaktiebolaget Lm Ericsson (Publ) UNBLOCKING USING SUBPIXEL MOTION VECTOR THRESHOLD
WO2023113224A1 (ko) * 2021-12-17 2023-06-22 현대자동차주식회사 매핑 기반 비디오 코딩에서 인루프 필터링

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4227160B2 (ja) * 2000-10-20 2009-02-18 パナソニック株式会社 ブロック歪み除去方法
US7929610B2 (en) * 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US7518646B2 (en) * 2001-03-26 2009-04-14 Panavision Imaging Llc Image sensor ADC and CDS per column
MXPA03006715A (es) 2001-11-29 2003-10-24 Matsushita Electric Ind Co Ltd Metodo para la remocion de la distorsion de la codificacion, metodo codificador de video, metodo descodificador de video y aparato y programa para los mismos.
EP3282699B1 (en) 2001-11-29 2019-10-23 Godo Kaisha IP Bridge 1 Coding distortion removal method
JP2003244190A (ja) * 2002-02-19 2003-08-29 Matsushita Electric Ind Co Ltd データフロー制御スイッチ用プロセッサ及びデータフロー制御スイッチ
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
US7167522B2 (en) * 2003-02-27 2007-01-23 Texas Instruments Incorporated Video deblocking filter
JP2004328634A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法
US7460596B2 (en) * 2004-04-29 2008-12-02 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
NO322722B1 (no) 2004-10-13 2006-12-04 Tandberg Telecom As Fremgangsmate for videokoding gjennom reduksjon av blokkartefakter
KR100843196B1 (ko) * 2004-12-17 2008-07-02 삼성전자주식회사 H.264/avc 비디오 디코더의 디블록킹 필터
JP4784188B2 (ja) * 2005-07-25 2011-10-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP4825524B2 (ja) * 2006-01-31 2011-11-30 株式会社東芝 動画像復号装置および動画像復号方法
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
RU2461977C2 (ru) * 2006-12-18 2012-09-20 Конинклейке Филипс Электроникс Н.В. Сжатие и снятие сжатия изображения
US7907789B2 (en) 2007-01-05 2011-03-15 Freescale Semiconductor, Inc. Reduction of block effects in spatially re-sampled image information for block-based image coding
CN100571391C (zh) * 2007-05-09 2009-12-16 安凯(广州)软件技术有限公司 用于视频编解码系统中解块滤波的并行处理方法
CN101389016B (zh) * 2007-09-13 2010-10-20 华为技术有限公司 获得块边界强度和去除块效应的方法和装置
JP2009194617A (ja) * 2008-02-14 2009-08-27 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
CN102098501B (zh) * 2009-12-09 2013-05-08 中兴通讯股份有限公司 一种视频图像去块效应的方法和装置
US9185430B2 (en) * 2010-03-15 2015-11-10 Mediatek Singapore Pte. Ltd. Deblocking filtering method and deblocking filter
US9503741B2 (en) 2011-06-08 2016-11-22 Vixs Systems, Inc. Video decoder with multi-format vector processor and methods for use therewith
KR102010160B1 (ko) * 2011-06-28 2019-08-12 소니 주식회사 화상 처리 장치, 화상 처리 방법 및 기록 매체
US9414064B2 (en) * 2011-11-25 2016-08-09 Sun Patent Trust Image processing method and image processing apparatus

Also Published As

Publication number Publication date
US20160150249A1 (en) 2016-05-26
CN103621097B (zh) 2018-04-24
EP2785057B1 (en) 2020-10-21
MY164978A (en) 2018-02-28
JP6078921B2 (ja) 2017-02-15
EP2785057A4 (en) 2015-04-15
US10924764B2 (en) 2021-02-16
US9313499B2 (en) 2016-04-12
JP2014030234A (ja) 2014-02-13
ES2831999T3 (es) 2021-06-09
EP2785057A1 (en) 2014-10-01
US9414064B2 (en) 2016-08-09
TW201336316A (zh) 2013-09-01
US20220417560A1 (en) 2022-12-29
US20130182764A1 (en) 2013-07-18
KR20170129279A (ko) 2017-11-24
CA2840036C (en) 2018-12-18
US11463731B2 (en) 2022-10-04
US20240146967A1 (en) 2024-05-02
US20200112748A1 (en) 2020-04-09
PL2785057T3 (pl) 2021-05-04
US20160150248A1 (en) 2016-05-26
US20130343456A1 (en) 2013-12-26
US9961371B2 (en) 2018-05-01
JP5343178B1 (ja) 2013-11-13
JP2019037012A (ja) 2019-03-07
KR20140098672A (ko) 2014-08-08
CN108471532A (zh) 2018-08-31
TWI599213B (zh) 2017-09-11
KR102061214B1 (ko) 2019-12-31
CN103621097A (zh) 2014-03-05
US11895335B2 (en) 2024-02-06
WO2013076978A1 (ja) 2013-05-30
JP6799798B2 (ja) 2020-12-16
US20210136417A1 (en) 2021-05-06
JP5386653B2 (ja) 2014-01-15
CN108471532B (zh) 2021-06-29
US10587895B2 (en) 2020-03-10
JP2017085631A (ja) 2017-05-18
KR102094939B1 (ko) 2020-03-31
JP2013255272A (ja) 2013-12-19
CA2840036A1 (en) 2013-05-30
JPWO2013076978A1 (ja) 2015-04-27
BR112013032615A2 (pt) 2017-08-01

Similar Documents

Publication Publication Date Title
AU2018203520B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
MX2013014207A (es) Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes.
AU2016202666B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2017202023B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2017201384B2 (en) Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
AU2012277160B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
AU2012294053B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2011353415B2 (en) Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
AU2012333936B9 (en) Image coding method, image coding apparatus, image decoding method and image decoding apparatus
AU2013273044B2 (en) Video image encoding method, video image encoding device, video image decoding method, and video image decoding device
MX2013001773A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen, y aparato de codificacion y decodificacion de imagen.
AU2013254214B2 (en) Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus
AU2013278760B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
MX2012012443A (es) Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes.
MX2013013909A (es) Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imágenes.
MX2013010231A (es) Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013001774A (es) Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato codificacion de imagen, programa, y circuito integrado.
MX2014000874A (es) Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
MX2013013483A (es) Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2012011165A (es) Metodo de prediccion espacial, metodo de decodificacion de imagenes y metodo de codificacion de imagenes.
MX2013013508A (es) Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2013009864A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013014752A (es) Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2013001652A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen.
MX2013000093A (es) Metodo de filtro, dispositivo de codificacion de imagen dinamica, dispositivo de decodificacion de imagen dinamica y dispositivo de codificacion y decodificacion de imagen dinamica.

Legal Events

Date Code Title Description
GB Transfer or rights

Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME

FG Grant or registration