ES2855298T3 - Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones - Google Patents

Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones Download PDF

Info

Publication number
ES2855298T3
ES2855298T3 ES10737649T ES10737649T ES2855298T3 ES 2855298 T3 ES2855298 T3 ES 2855298T3 ES 10737649 T ES10737649 T ES 10737649T ES 10737649 T ES10737649 T ES 10737649T ES 2855298 T3 ES2855298 T3 ES 2855298T3
Authority
ES
Spain
Prior art keywords
region
partition information
multiple filters
filter
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10737649T
Other languages
English (en)
Inventor
Joel Sole
Yunfei Zheng
Qian Xu
Peng Yin
Xiaoan Lu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital VC Holdings Inc
Original Assignee
InterDigital VC Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=43385768&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2855298(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by InterDigital VC Holdings Inc filed Critical InterDigital VC Holdings Inc
Application granted granted Critical
Publication of ES2855298T3 publication Critical patent/ES2855298T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un aparato, que comprende: un codificador de video (100) para codificar datos de imagen en una trama de imagen, donde dicho codificador de video (100) comprende múltiples filtros, filtrando cada filtro los datos de la imagen basándose en la información de partición de la región, definiendo dicha información de partición de la región la segmentación de una trama de imagen en una pluralidad de regiones, utilizándose los múltiples filtros con diferentes parámetros de filtrado en cada región, y en donde al menos dos de los filtros múltiples (725, 730) usan la misma segmentación basada en la información de partición de la región compartida, y estando determinada separadamente la información de partición de la región (758) por al menos otro de los múltiples filtros, en el que el codificador usa la señalización (760, 765) para permitir que un descodificador seleccione el conjunto particular de la información de partición de la región y los parámetros del filtro usados por los múltiples filtros durante la codificación.

Description

DESCRIPCIÓN
Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones
Referencia cruzada a aplicaciones relacionadas
Esta aplicación reivindica el beneficio de la solicitud provisional de EE. UU. Número de serie 61/223,523, presentada el 7 de julio de 2009 (Expediente Fiscal n° PU090094).
Campo técnico
Los presentes principios se refieren en general a la codificación y descodificación de vídeo y, más en particular, a métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones.
Antecedentes
En los últimos años, están surgiendo los filtros de bucle de entrada y bucle de salida basados en regiones, tales como filtros de interpolación, filtros de desbloqueo/supresión de anomalías, filtros pre/post procesamiento, filtros de bucle, etc., en la codificación de video para mejorar la codificación, eficiencia y calidad perceptiva. Dichos filtros suelen dividir un cuadro de vídeo en varias regiones según el contenido o costo de la tasa de distorsión (RD). Entonces la estructura del filtro y/o los parámetros pueden adaptarse a las características del contenido local de cada región. Este enfoque funciona bien para señales de video no estacionarias. Sin embargo, el filtro basado en regiones generalmente tiene que gastar bits de sobrecarga para codificar las particiones/segmentaciones, lo que degradaría el rendimiento general aportado por la adaptación. Esto es especialmente cierto cuando existen filtros basados en múltiples regiones al mismo tiempo en un codificador/descodificador, y la segmentación se realiza de forma independiente para cada filtro. Los bits empleados para codificar las segmentaciones de todos los filtros serían costosos y pueden desbaratar los logros obtenidos con estos filtros.
Filtro de Bucle Adaptativo de Bloques (BALF)
En un primer enfoque de la técnica anterior, se propone un filtro de bucle adaptativo basado en bloques, en el que un cuadro reconstruido se restaura hacia el cuadro original mediante un filtro Wiener. Los coeficientes del filtro Wiener se estiman en el codificador y se envían al descodificador como información complementaria. Aunque un filtro Wiener puede restaurar el cuadro reconstruido al cuadro original globalmente, hay píxeles que se degradan localmente. Dado que las áreas degradadas reducen el rendimiento predictivo para futuros cuadros de codificación, no filtrar estas áreas mejorará el rendimiento de la codificación. En BALF, el cuadro se divide en bloques de igual tamaño y se utiliza un indicativo de conmutación para cada bloque para controlar si el bloque está filtrado o no. En un segundo enfoque de la técnica anterior, se introduce un esquema de árbol cuádruple para indicar si se ha filtrado o no un bloque de tamaño variable de un cuadro. Cuando se utiliza el esquema de bloques de tamaño variable, la sobrecarga para codificar los tamaños y posiciones de los bloques es costosa, aunque el rendimiento del filtro es mejor que el esquema de bloques del mismo tamaño.
Filtro de Bucle Adaptativo de Espacio-Temporal (STALF)
Inspirado por técnicas de supresión de ruido basadas en la dispersión, se ha propuesto un filtro de bucle no lineal en un tercer enfoque de la técnica anterior. El filtro de bucle no lineal promedia múltiples estimaciones de supresión del ruido que se obtienen al establecer el umbral de los coeficientes en un dominio de transformada sobre-completada. Para el trabajo de supresión de anomalías, la elección de los parámetros de filtrado como, por ejemplo, el umbral, es importante. El umbral aplicado juega un papel crucial en el control de la capacidad de supresión de ruido del filtro, así como en el cálculo de las ponderaciones medias utilizadas para enfatizar las mejores estimaciones de supresión de ruido. En el tercer enfoque de la técnica anterior, los umbrales que se seleccionan por clase de píxeles basados en el parámetro de cuantificación (QP) y la información del modo de codificación se codifican y transmiten como información lateral al descodificador. El umbral no se adapta basándose en el contenido del video.
También se ha propuesto un esquema de adaptación de parámetros del filtro basado en bloques para utilizarlo en la mejora del rendimiento del filtro de supresión de anomalías anterior basándose en la dispersión anterior en la compresión de video. Más concretamente, la adaptación de los parámetros del filtro se basa, no solo en el parámetro de cuantificación y en la información de codificación, sino también en las regiones de las secuencias de video, lo que consigue la adaptación espacio-temporal. En cada región, los parámetros del filtro (por ejemplo, el umbral) se seleccionan basándose en un costo de la tasa de distorsión, ya que la información de la región y los parámetros necesitan ser señalizados.
"Adaptive Quadtree-based Multi-reference Loop Filter" de Yu-Wen Huang et al (VCEG-AK24) propone la partición de cuatro árboles con la selección de uno de los múltiples filtros ALF para cada partición. La subdivisión adicional de cuatro árboles permite conectar/desconectar el filtro seleccionado en cada subpartición.
Filtros basados en múltiples regiones
Cuando hay más de un filtro basado en regiones existente en un codificador/descodificador, la partición o segmentación de un cuadro se realiza independientemente para cada filtro. La información de la partición también debe enviarse al descodificador para cada filtro, lo cual es redundante porque la segmentación generalmente tiene una fuerte correlación con el contenido del video.
Resumen
Estos y otros inconvenientes y desventajas de la técnica anterior se abordan por los presentes principios, que están dirigidos a métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones.
De acuerdo con un aspecto de los presentes principios, se proporciona un aparato. El aparato incluye un codificador de video para codificar datos de imagen para una pluralidad de regiones en una trama de imagen. El codificador de video incluye múltiples filtros para filtrar los datos de la imagen en función de la información de partición de la región para la pluralidad de regiones. La información de partición de la región para la pluralidad de regiones se comparte entre dos de los múltiples filtros, y la información de partición de la región separada es utilizada por un tercero de los múltiples filtros. La información de partición de la región y los parámetros de filtrado se señalizan al descodificador.
De acuerdo con otro aspecto de los presentes principios, se proporciona un método en un codificador de video. El método incluye codificar los datos de imagen para una pluralidad de regiones en una trama de imagen. Los datos de la imagen se filtran mediante múltiples filtros basándose en la información de partición de la región para la pluralidad de regiones. La información de partición de la región para la pluralidad de regiones se comparte entre dos de los múltiples filtros, y la información de partición de la región separada se usa por un tercero de los múltiples filtros. La información de partición de la región y los parámetros de filtrado se señalizan al descodificador.
De acuerdo con otro aspecto de los presentes principios, se proporciona un aparato. El aparato incluye un descodificador de video para descodificar datos de imagen para una pluralidad de regiones en una trama de imagen. El descodificador de video incluye múltiples filtros para filtrar los datos de la imagen en función de la información de partición de la región para la pluralidad de regiones. La información de partición de la región para la pluralidad de regiones se comparte entre dos de los múltiples filtros, y la información de partición de la región separada es utilizada por un tercero de los múltiples filtros. La información de partición de la región y los parámetros de filtrado se señalizan al descodificador.
De acuerdo con otro aspecto de los presentes principios, se proporciona un método en un descodificador de video. El método incluye descodificar los datos de imagen para una pluralidad de regiones en una trama de imagen. Los datos de la imagen se filtran mediante múltiples filtros basándose en la información de partición de la región para la pluralidad de regiones. La información de partición de la región para la pluralidad de regiones se comparte entre dos de los múltiples filtros, y la información de partición de la región separada se usa por un tercero de los múltiples filtros. La información de partición de la región y los parámetros de filtrado se señalizan al descodificador.
Estos y otros aspectos, características y ventajas de los presentes principios se harán aparentes a partir de la siguiente descripción detallada de realizaciones de ejemplo, que deben interpretarse en conexión con los dibujos adjuntos.
Breve descripción de los dibujos
Los presentes principios pueden entenderse mejor de acuerdo con las siguientes figuras de ejemplo, en las que:
la figura 1 es un diagrama de bloques para un codificador de video de ejemplo al que se le pueden aplicar los presentes principios de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 2 es un diagrama de bloques para un descodificador de video de ejemplo al que se le pueden aplicar los presentes principios de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 3 es un diagrama de flujo de un método de ejemplo para codificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 4 es un diagrama de flujo para un método de ejemplo para descodificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 5 es un diagrama de flujo para otro método de ejemplo para codificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 6 es un diagrama de flujo de otro método de ejemplo para descodificar datos de trama de imagen utilizando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con un ejemplo ilustrativo de los presentes principios;
la figura 7 es un diagrama de flujo para otro método de ejemplo para codificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con una realización de la invención; y
la figura 8 es un diagrama de flujo para otro método de ejemplo para descodificar datos de trama de imagen utilizando la codificación de partición colaborativa para filtros basados en regiones de acuerdo con una realización de la invención.
Descripción detallada
Los presentes principios están dirigidos a métodos y aparatos para codificación de partición colaborativa para filtros basados en regiones.
La presente descripción ilustra los presentes principios. Así lo apreciarán los expertos en la técnica que podrán idear diversas disposiciones que, aunque no se describen explícitamente o no se muestran en este documento, incorporan los presentes principios.
Así, por ejemplo, los expertos en la técnica apreciarán que los diagramas de bloques presentes en este documento representas vistas conceptuales de la circuitería ilustrativa que incorpora los principios presentes. De manera similar, se apreciará que cualquier gráfico de flujo, diagrama de flujo, diagrama de transición de estado, pseudocódigo y similares representan diversos procesos que pueden representarse sustancialmente en medios interpretables por ordenador y, por lo tanto, ejecutados por un ordenador, aunque no se muestren explícitamente el ordenador o el procesador.
Las funciones de los diversos elementos mostrados en las figuras pueden proporcionarse mediante el uso de hardware específico, así como hardware capaz de ejecutar software en asociación con software apropiado. Cuando las proporciona un procesador, las funciones pueden ser proporcionadas por un solo procesador específico, por un solo procesador, o por una pluralidad de procesadores individuales, algunos de los cuales pueden ser compartidos. Además, el uso explícito del término "procesador" o "controlador" no debe interpretarse como una referencia exclusiva al hardware capaz de ejecutar software, y puede implícitamente incluir, sin limitación, hardware de procesador digital de señal ("DSP"), memoria de solo lectura ("ROM") para almacenar software, memoria de acceso aleatorio ("RAM") y almacenamiento no volátil.
También se puede incluir otro hardware, convencional y/o personalizado. De manera similar, los conmutadores que se muestran en las figuras son solo conceptuales. Su función puede llevarse a cabo a través de la operación de la lógica del programa, a través de la lógica específica, a través de la interacción del control del programa y la lógica específica, o incluso manualmente, el diseñador puede seleccionar una técnica particular que se entiende más específicamente a partir del contexto.
En las reivindicaciones del mismo, cualquier elemento expresado como un medio para realizar una función especificada está destinada a abarcar cualquier forma de realizar esa función, incluyendo, por ejemplo, a) una combinación de elementos de circuito que realice esa función o b) software en cualquier forma, incluyendo, por lo tanto, firmware, micro código o similares, combinado con los circuitos apropiados para ejecutar ese software para realizar la función. Los presentes principios, tal como los definen tales reivindicaciones, residen en el hecho de que las funcionalidades proporcionadas por los diversos medios enumerados se combinan y se llevan juntos de la manera que exigen las reivindicaciones. Por tanto, se considera que cualesquiera medios que puedan proporcionar esas funcionalidades son equivalentes a los mostrados en este documento.
La referencia en la especificación a "una realización" de los presentes principios, así como a otras variaciones de los mismos, significa que una característica, estructura, particularidad, etc., y semejantes descritas en relación con la realización se incluyen en al menos una realización de los presentes principios. Por tanto, las apariciones de la frase "en una realización", así como cualquier otra variación, que aparece en varios lugares a lo largo de la especificación no se refieren necesariamente a la misma realización.
Debe apreciarse que el uso de cualquiera de las siguientes "/", “y/o" y "al menos uno de", por ejemplo, en los casos de "A/B", "A y/o B" y "al menos uno de A y B", pretende abarcar la selección de la primera opción enumerada (A) solamente, o la selección de la segunda opción enumerada (B) solamente, o la selección de ambas opciones (A y B). Como ejemplo adicional, en los casos de "A, B y/o C" y "al menos uno de A, B y C", dicha expresión pretende abarcar la selección de la primera opción enumerada (A) solamente, o la selección de la segunda opción enumerada (B) solamente, o la selección de la tercera opción enumerada (C) solamente, o la selección de la primera y segunda opciones enumeradas (A y B) solamente, o la selección de la primera y tercera opciones enumeradas (A y C) solamente, o la selección de la segunda y tercera opciones enumeradas (B y C) solamente, o el selección de las tres opciones (A y B y C). Esto lo puede extender, fácilmente un experto en esta técnica y otras relacionadas, para la mayoría de elementos enumerados.
Además, como se usa en este documento, las palabras "trama de imagen" e "imagen" se usan indistintamente y se refieren a una imagen fija o a una trama de imagen de una secuencia de vídeo. Como se sabe, una secuencia de vídeo puede ser un cuadro o un campo.
Además, como se usa en este documento, la frase "región de trama de imagen" (o simplemente "región" para simplificar) se refiere a una parte de una trama de imagen que abarca y/o está formulada de otro modo a partir de, por ejemplo, uno o más bloques o formas arbitrarias de cualquier tamaño. El uno o más bloques pueden relacionarse, por ejemplo, con un super macro bloque, un macro bloque, una partición de macro bloque, una partición de sub macro bloque, etc.
Además, como se usa en este documento, la frase "información de partición de la región" se refiere a cómo se divide la trama de imagen en regiones de trama de imagen. Por lo tanto, dicha información de partición de región puede incluir, pero no se limita a, por ejemplo, el tamaño del bloque si la trama de imagen está dividida en bloques no superpuestos de igual tamaño, o bordes de objeto si la trama de imagen se divide en función de un objeto.
Además, como se usa en este documento, la palabra "señalizar" se refiere a indicar algo a un descodificador correspondiente. Por ejemplo, el codificador puede señalizar información de partición de la región y/o parámetros del filtro para que el descodificador sepa qué información de partición de la región y parámetros del filtro se usaron en el lado del codificador. De esta manera, la misma información de partición de la región y parámetros del filtro se pueden utilizar tanto en el lado del codificador como el lado del descodificador. Así, por ejemplo, un codificador puede transmitir un conjunto particular de información de partición de la región y parámetros del filtro al descodificador de modo que el descodificador pueda usar el mismo conjunto particular de información de partición de la región y parámetros del filtro o, si el descodificador ya tiene la información particular de partición de la región y parámetros del filtro, así como otros, entonces la señalización puede ser utilizada (sin transmisión) para permitir simplemente que el descodificador conozca y seleccione el conjunto particular de información de partición de la región y parámetros del filtro. Al evitar la transmisión de cualquier información real de partición de la región y parámetros del filtro, se pueden realizar ahorros de bits. Debe apreciarse que la señalización se puede lograr en una variedad de formas. Por ejemplo, uno o más elementos de sintaxis, indicadores, etc.se pueden utilizar para enviar información a un descodificador correspondiente.
Además, como se usa en este documento, "sintaxis de alto nivel" se refiere a la sintaxis presente en el flujo de bits que reside jerárquicamente por encima de la capa de macro bloque. Por ejemplo, la sintaxis de alto nivel, como se usa en este documento, puede referirse, pero no se limita a, sintaxis a nivel de encabezado del segmento, nivel de Información Adicional de Mejora (SEI), nivel de Conjunto de Parámetros de Trama de Imagen (PPS), nivel de Conjunto de Parámetros de Secuencia (SPS) y nivel de encabezado de la unidad de Capa de Abstracción de Red (NAL).
Además, debe apreciarse que si bien uno o más ejemplos de los principios presentes descritos en este documento pueden describirse así con respecto a dos filtros de bucle de entrada (Filtro1 y Filtro2) explotando la información de segmentación compartida, los presentes principios no se limitan a los mismos y, por tanto, también se pueden utilizar otros números de filtros de acuerdo con las enseñanzas de los presentes principios proporcionados aquí.
Volviendo a la figura 1, un codificador de video al que se pueden aplicar los presentes principios se indica en general con el número de referencia 100.
El codificador de video 100 incluye una memoria intermedia de ordenamiento de cuadros 110 que tiene una salida en comunicación de señal con una entrada no inversora de un combinador 185. Una salida del combinador 185 está conectada en comunicación de señal con una primera entrada de un transformador y cuantificador 125. Una salida del transformador y cuantificador 125 está conectada en comunicación de señal con una primera entrada de un codificador de entropía 145 y una primera entrada de un transformador inverso y cuantificador inverso 150. Una salida del codificador de entropía 145 está conectada en comunicación de señal con una primera entrada no inversora de un combinador 190. Una salida del combinador 190 está conectada en comunicación de señal con una primera entrada de una memoria intermedia de salida 135.
Una primera salida de un controlador de codificador 105 está conectada en comunicación de señal con una segunda entrada de la memoria intermedia de ordenamiento de cuadros 110, con una segunda entrada del transformador inverso y cuantificador inverso 150, con una entrada de un módulo de decisión tipo trama de imagen 115, con una primera entrada de un módulo de decisión de tipo macro bloque (tipo MB) 120, con una segunda entrada de un módulo de intra predicción 160, con una segunda entrada de un optimizador de partición 165, con una primera entrada de un compensador de movimiento 170, con una primera entrada de un estimador de movimiento 175 y con una segunda entrada de una memoria intermedia de trama de imagen de referencia 180.
Una segunda salida del controlador codificador 105 está conectada en comunicación de señal con una primera entrada de un insertador de Información Adicional de Mejora (SEI) 130, con una segunda entrada del transformador y cuantificador 125, con una segunda entrada del codificador de entropía 145, con una segunda entrada de la memoria intermedia de salida 135, y con una entrada del insertador del Conjunto de Parámetros de Secuencia (SPS) y Conjunto de Parámetros de Trama de imagen (PPS) 140.
Una salida del insertador SEI 130 está conectada en comunicación de señal con una segunda entrada no inversora del combinador 190.
Una primera salida del módulo de decisión 115 está conectada en comunicación de señal con una tercera entrada de la memoria intermedia 110 de ordenamiento de cuadros. Una segunda salida del módulo de decisión del tipo de trama de imagen 115 está conectada en comunicación de señal con una segunda entrada de un módulo de decisión de tipo macro bloque 120.
Una salida del insertador del Conjunto de Parámetros de Secuencia (SPS) y Conjunto de Parámetros de Trama de imagen (PPS) 140 está conectada en comunicación de señal con una tercera entrada no inversora del combinador 190.
Una salida del cuantificador inverso y transformador inverso 150 está conectada en comunicación de señal con una primera entrada no inversora de un combinador 119. Una salida del combinador 119 está conectada en comunicación de señal con una primera entrada del módulo de intra predicción 160 y una primera entrada del optimizador de partición 165. Una salida del optimizador de partición 165 está conectada en comunicación de señal con una entrada de un filtro-1 166 .Una salida del filtro-1 166 está conectada en comunicación de señal con una entrada de un filtro-2 167. Una salida del filtro-2 167 está conectada en comunicación de señal con una primera entrada de una memoria intermedia de trama de imagen de referencia 180. Una salida de la memoria intermedia de trama de imagen de referencia 180 está conectada en comunicación de señal con una segunda entrada del estimador de movimiento 175 y con una tercera entrada del compensador de movimiento 170. Una primera salida del estimador de movimiento 175 está conectada en comunicación de señal con una segunda entrada del compensador de movimiento 170. Una segunda salida del estimador de movimiento 175 está conectada en comunicación de señal con una tercera entrada del codificador de entropía 145.
Una salida del compensador de movimiento 170 está conectada en comunicación de señal con una primera entrada de un conmutador 197. Una salida del módulo de intra predicción 160 está conectada en comunicación de señal con una segunda entrada del conmutador 197. Una salida del módulo de decisión de tipo macro bloque 120 está conectada en comunicación de señal con una tercera entrada del conmutador 197. La tercera entrada del conmutador 197 determina si se debe o no proporcionar la entrada de "datos" del conmutador (en comparación con la entrada de control, es decir, la tercera entrada) por el compensador de movimiento 170 o el módulo de intra predicción 160. La salida del conmutador 197 está conectada en comunicación de señal con una segunda entrada no inversora del combinador 119 y con una entrada inversora del combinador 185.
Una primera entrada de la memoria intermedia de ordenamiento de cuadros 110 y una entrada del controlador del codificador 105 están disponibles como entradas del codificador 100, para recibir una entrada de trama de imagen 101. Además, una segunda entrada del insertador de Información Adicional de Mejora (SEI) 130 está disponible como entrada del codificador 100, para recibir metadatos. Una salida de la memoria intermedia de salida 135 está disponible como salida del codificador 100, para dar salida a un flujo de bits.
Volviendo a la figura 2, un descodificador de video al que se pueden aplicar los presentes principios se indica en general con el número de referencia 200.
El descodificador de video 200 incluye una memoria intermedia de entrada 210 que tiene una salida conectada en comunicación de señal con una primera entrada de un descodificador de entropía 245. Una primera salida del descodificador de entropía 245 está conectada en comunicación de señal con una primera entrada de un transformador inverso y cuantificador inverso 250. Una salida del transformador inverso y cuantificador inverso 250 está conectada en comunicación de señal con una segunda entrada no inversora de un combinador 225. Una salida del combinador 225 está conectada en comunicación de señal con una segunda entrada de un generador de particiones 265 y con una primera entrada de un módulo de intra predicción 260. Una segunda salida del generador de particiones 265 está conectada en comunicación de señal con una primera entrada de un filtro-1 266. Una salida del filtro-1 266 está conectada en comunicación de señal con una primera entrada de un filtro-2 267. Una salida del filtro-2 267 está conectada en comunicación de señal con una primera entrada de una memoria intermedia de trama de imagen de referencia 280. Una salida de la memoria intermedia de trama de imagen de referencia 280 está conectada en comunicación de señal con una segunda entrada de un compensador de movimiento 270.
Una segunda salida del descodificador de entropía 245 está conectada en comunicación de señal con una tercera entrada del compensador de movimiento 270, con una primera entrada del filtro de desbloqueo 265 y con una tercera entrada del módulo de intra predicción 260. Una tercera salida del descodificador de entropía 245 está conectada en comunicación de señal con una entrada de un controlador del descodificador 205. Una primera salida del controlador del descodificador 205 está conectada en comunicación de señal con una segunda entrada del descodificador de entropía 245. Una segunda salida del controlador del descodificador 205 está conectada en comunicación de señal con una segunda entrada del transformador inverso y el cuantificador inverso 250. Una tercera salida del controlador del descodificador 205 está conectada en comunicación de señal con una tercera entrada del filtro de desbloqueo 265, con una segunda entrada del filtro-1 266 y con una segunda entrada del filtro-2267. Una cuarta salida del controlador del descodificador 205 está conectada en comunicación de señal con una segunda entrada del módulo de intra predicción 260, con una primera entrada del compensador de movimiento 270 y con una segunda entrada de la memoria intermedia de imagen de referencia 280.
Una salida del compensador de movimiento 270 está conectada en comunicación de señal con una primera entrada de un conmutador 297. Una salida del módulo de intra predicción 260 está conectada en comunicación de señal con una segunda entrada del conmutador 297. Una salida del conmutador 297 está conectada en comunicación de señal con una primera entrada no inversora del combinador 225.
Una entrada de la memoria intermedia de entrada 210 está disponible como entrada del descodificador 200, para recibir un flujo de bits de entrada. Una primera salida del filtro de desbloqueo 265 está disponible como salida del descodificador 200, para emitir una trama de imagen de salida.
Como se señaló anteriormente, los presentes principios están dirigidos a métodos y aparato para codificación de partición colaborativa para filtros basados en regiones. Se observa que hay mucha coherencia entre los resultados de la segmentación de varios filtros basados en regiones, ya que se basan en información de codificación de video, como modos de codificación, o en el contenido de video en sí. Motivados por esta observación y conocimiento, se propone un enfoque de codificación colaborativa para la información de partición/segmentación de los filtros basados en regiones, para mejorar aún más la eficiencia de la codificación.
Por tanto, de acuerdo con una o más realizaciones de los presentes principios, se proporcionan métodos y aparatos para codificar colaborativamente la información de partición para múltiples filtros basados en regiones dentro de un codificador/descodificador. Dado que la mayoría de los filtros de bucle de entrada o de bucle de salida de región quieren adaptarse a las estadísticas del contenido de video, sus particiones o segmentaciones basadas en las estadísticas de contenido de video deben tener correlaciones. De esta forma, la información de partición de un filtro se puede compartir con otros filtros para evitar desperdiciar más bits de sobrecarga.
En una realización, la partición/segmentación se puede realizar y optimizar de forma conjunta en función del coste de la tasa de distorsión de la trama de imagen (RD). Por tanto, la partición/segmentación de salida es óptima en el sentido de RD y puede ser utilizada por todos los filtros uniendo la optimización. En cada partición de una trama de imagen, diferentes filtros pueden fijar diferentes parámetros de filtrado para esa región, que realiza la adaptación. En otra realización, la información de segmentación/partición se decide considerando conjuntamente la adaptación de parámetros basándose en la información de codificación, el contenido de la trama de imagen y así sucesivamente.
En otra realización, la partición se puede realizar y optimizar para un filtro. Luego, la partición de salida de este filtro se puede usar para algunos otros filtros. Este esquema puede disminuir la complejidad en la optimización de la partición/segmentación, pero probablemente también puede degradar el rendimiento del filtrado.
En otra realización, algunos de los filtros pueden compartir la misma información de segmentación/partición de la región, mientras que otros filtros utilizan su propia segmentación/partición.
La información de segmentación/partición de la región se puede señalizar usando, por ejemplo, una sintaxis de alto nivel o una sintaxis a nivel de región. Alternativamente, la información de segmentación/partición de la región se puede inferir de regiones/tramas de imagen/secuencias codificadas previamente.
Sintaxis
La Tabla 1 muestra elementos de sintaxis de encabezado segmentado de ejemplo de acuerdo con una realización de los principios presentes.
TABLA 1
Figure imgf000007_0001
La semántica de algunos de los elementos sintácticos de la Tabla 1 es la siguiente:
share_partition_flag igual a 1 especifica que se utiliza un enfoque de partición colaborativa para el segmento. share_partition_flag igual a 0 especifica que no se utiliza un enfoque de partición colaborativa lo que, a su vez, significa que cada filtro usará sus propias particiones.
shared_filter_seg_info especifica la información de segmentación del filtro que se comparte entre varios filtros.
filter_seg_info[i] especifica la información de segmentación del filtro del i-ésimo si lo no utiliza la información de segmentación compartida.
Volviendo a la figura 3, se indica un método de ejemplo para codificar datos de imágenes usando la codificación de partición colaborativa para filtros basados en regiones en general con el número de referencia 300. El método 300 incluye un bloque de inicio 305 que pasa el control a un bloque de límite de bucle 310. El bloque de límite de bucle 310 comienza con unos enfoques de segmentación (diferentes disponibles) sobre bucle y pasa el control a un bloque de límite de bucle 315. El bloque de límite de bucle 315 comienza un bucle sobre cada partición (disponible) mediante el enfoque de segmentación (actual) y pasa el control a un bloque de límite de bucle 320. El bloque de límite de bucle 320 realiza un bucle sobre el conjunto de parámetros del filtro y pasa el control a un bloque de función 325. El bloque de función 325 realiza el filtrado utilizando un primer filtro (filtro-1), y pasa el control a un bloque de función 330. El bloque de función 330 realiza el filtrado usando un segundo filtro (filtro-2), y pasa el control a un bloque de límite de bucle 335. El bloque de límite de bucle 335 finaliza el bucle sobre el conjunto de parámetros del filtro y pasa el control a un bloque de función 340. El bloque de función 340 fija los mejores parámetros del filtro para esta partición (por ejemplo, basándose en un costo de tasa de distorsión y/o algún otro criterio) y pasa el control a un bloque de límite de bucle 345. El bloque de límite de bucle 345 finaliza el bucle sobre cada partición mediante el enfoque de segmentación y pasa el control a un bloque de límite de bucle 350. El bloque de límite de bucle 350 finaliza el bucle sobre los enfoques de segmentación y pasa el control a un bloque de función 355. El bloque de función 355 fija la mejor segmentación (por ejemplo, basada en un costo de la tasa de distorsión y/o algún otro criterio) y pasa el control a un bloque de función 360. El bloque de función 360 codifica la segmentación compartida y pasa el control a un bloque de función 365. El bloque de función 365 codifica los parámetros del filtro para la partición y pasa el control a un bloque final 399.
Volviendo a la figura 4, se indica un método de ejemplo para descodificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones en general mediante el número de referencia 400. El método 400 incluye un bloque de inicio 405 que pasa el control a un bloque de función 410. El bloque de función 410 analiza la segmentación actual y pasa el control a un bloque de función 415. El bloque de función 415 analiza los parámetros del filtro para cada partición y pasa el control a un bloque de límite de bucle 420. El bloque de límite de bucle 420 inicia un bucle sobre cada partición y pasa el control a un bloque de función 425. El bloque de función 425 fija los parámetros del filtro y pasa el control a un bloque de función 430. El bloque de función 430 realiza el filtrado usando el filtro-1, y pasa el control a un bloque de función 435. El bloque de función 435 realiza el filtrado usando el filtro-2, y pasa el control a un bloque de límite de bucle 440. El bloque de límite de bucle 440 finaliza el bucle sobre cada partición y pasa el control a un bloque final 499.
Volviendo a la figura 5, se indica otro método de ejemplo para codificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones, en general mediante el número de referencia 500. El método 500 incluye un bloque de inicio 505 que pasa el control a un bloque de límite de bucle 510. El bloque de límite de bucle 510 comienza un bucle sobre (diferentes disponibles) enfoques de segmentación y pasa el control a un bloque de límite de bucle 515. El bloque de límite de bucle 515 comienza un bucle sobre cada partición (disponible) por el enfoque de segmentación (actual) y pasa el control a un bloque de límite de bucle 520. El bloque de límite de bucle 520 comienza un bucle sobre un conjunto de parámetros del filtro y pasa el control a un bloque de función 525. El bloque de función 525 realiza el filtrado utilizando el filtro-1 y pasa el control a un bloque de límite de bucle 535. El bloque de límite de bucle 535 finaliza el bucle sobre el conjunto de parámetros del filtro y pasa el control a un bloque de función 540. El bloque de función 540 fija los mejores parámetros del filtro para esta partición (por ejemplo, basándose en un costo de la tasa de distorsión y/o en algún otro criterio), y pasa el control a un bloque de límite de bucle 545. El bloque de límite de bucle 545 finaliza el bucle sobre cada partición mediante el enfoque de segmentación, y pasa el control a un bloque de límite de bucle 550. El bloque de límite de bucle 550 finaliza el bucle sobre los enfoques de segmentación y pasa el control a un bloque de función 555. El bloque de función 555 fija la mejor segmentación (por ejemplo, basándose en un costo de la tasa de distorsión y/o en algún otro criterio), y pasa el control a un bloque de función 560. El bloque de función 560 codifica la segmentación compartida y pasa el control a un bloque de función 562. El bloque de función 562 encuentra los mejores parámetros del filtro para el filtro-2 con la segmentación compartida y pasa el control a un bloque de función 565. El bloque de función 565 codifica los parámetros del filtro para el filtro-1 y para el filtro-2, y pasa el control a un bloque final 599.
Volviendo a la figura 6, se indica otro método de ejemplo para descodificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones en general con el número de referencia 600. El método 600 incluye un bloque de inicio 605 que pasa el control a un bloque de función 610. El bloque de función 610 analiza una segmentación, y pasa el control a un bloque de función 615. El bloque de función 615 analiza los parámetros del filtro para cada partición para el filtro-1 y el filtro-2, y pasa el control a un bloque de límite de bucle 620.
El bloque de límite de bucle 620 comienza un bucle sobre cada partición y pasa el control a un bloque de función 625. El bloque de función 625 fija los parámetros del filtro y pasa el control a un bloque de función 630. El bloque de función 630 realiza el filtrado usando el filtro-1, y pasa el control a un bloque de función 635. El bloque de función 635 realiza el filtrado usando el filtro-2 y pasa el control a un bloque de límite de bucle 640. El bloque de límite de bucle 640 finaliza el bucle sobre cada partición y pasa el control a un bloque de finalización 699.
Volviendo a la figura 7, se indica otro método de ejemplo más para codificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones en general con el número de referencia 700. El método 700 incluye un bloque de inicio 705 que pasa el control a un bloque de límite de bucle 710. El bloque de límite de bucle 710 comienza un bucle sobre los enfoques de segmentación (disponibles), y pasa el control a un bloque de límite de bucle 715. El bloque de límite de bucle 715 comienza un bucle sobre cada partición por el enfoque de segmentación (actual) y pasa el control a un bloque de límite de bucle 720. El bloque de límite de bucle 720 comienza un bucle sobre un conjunto de parámetros del filtro y pasa el control a un bloque de función 725. El bloque de función 725 realiza el filtrado utilizando el filtro-1 y pasa el control a un bloque de función 730. El bloque de función 730 realiza el filtrado usando el filtro-2, y pasa el control a un bloque de límite de bucle 735. El bloque de límite de bucle 735 finaliza el bucle sobre el conjunto de parámetros del filtro y pasa el control a un bloque de función 740. El bloque de función 740 fija los mejores parámetros del filtro para esta partición (por ejemplo, basándose en un costo de la tasa de distorsión y/o en algún otro criterio), y pasa el control a un bloque de límite de bucle 745. El bloque de límite de bucle 745 finaliza el bucle sobre cada partición mediante el enfoque de segmentación, y pasa el control a un bloque de límite de bucle 750. El bloque de límite de bucle 750 finaliza el bucle sobre los enfoques de segmentación y pasa el control a un bloque de función 755. El bloque de función 755 fija la mejor segmentación (por ejemplo, basándose en un costo de la tasa de distorsión y/o en algún otro criterio), y pasa el control a un bloque de función 758. El bloque de función 758 encuentra los mejores parámetros del filtro y segmentación para el filtro-3 y pasa el control a un bloque de función 760. El bloque de función 760 codifica la segmentación compartida y cualquier segmentación no compartida para el filtro-3, y pasa el control a un bloque de función 765. El bloque de función 765 codifica los parámetros del filtro para el filtro-1, filtro-2 y filtro-3, y pasa el control a un bloque final 799.
Volviendo a la figura 8, se indica otro método de ejemplo más para descodificar datos de trama de imagen usando la codificación de partición colaborativa para filtros basados en regiones en general mediante el número de referencia 800. El método 800 incluye un bloque de inicio 805 que pasa el control a un bloque de función 810. El bloque de función 810 analiza la segmentación compartida y la no compartida para el filtro-3, y pasa el control a un bloque de función 815. El bloque de función 815 analiza los parámetros del filtro para cada partición para el filtro-1, el filtro-2 y el filtro-3, y pasa el control a un bloque de límite de bucle 820. El bloque de límite de bucle 820 comienza un bucle sobre cada partición y pasa el control a un bloque de función 825. El bloque de función 825 fila los parámetros del filtro y pasa el control a un bloque de función 830. El bloque de función 830 realiza el filtrado utilizando el filtro-1, y pasa el control a un bloque de función 835. El bloque de función 835 realiza el filtrado usando el filtro-2, y pasa el control a un bloque de límite de bucle 838. El bloque de límite de bucle 838 finaliza el bucle sobre cada partición y pasa el control a un bloque de función 840. El bloque de función 840 aplica el filtro-3 y sus parámetros de segmentación y filtro y pasa el control a un bloque final 899.
A continuación se dará una descripción de algunos de las muchas ventajas/características que acompañan a la presente invención, algunas de las cuales se han mencionado anteriormente. Por ejemplo, una ventaja/característica es un aparato que tiene un codificador de video para codificar datos de imagen para una pluralidad de regiones en una trama de imagen. El codificador de video incluye múltiples filtros para filtrar los datos de la imagen de acuerdo con la información de partición de la región para la pluralidad de regiones. La información de partición de la región para la pluralidad de regiones se comparte entre los múltiples filtros.
Otra ventaja/característica es el aparato que tiene el codificador de video como se describió anteriormente, en el que la información de partición de la región se combina con la adaptación de parámetros del filtro basándose en al menos uno de la información de la codificación y el contenido de la trama de imagen.
Otra ventaja/característica más es el aparato que tiene el codificador de video como se describe anteriormente, en el que al menos uno de la información de partición de la región y los parámetros del filtro para los múltiples filtros se señaliza usando uno o más elementos de sintaxis de alto nivel o uno o más elementos de sintaxis a nivel de región, o son inferidos por medio de un descodificador correspondiente de al menos una de las regiones previamente codificadas, de las tramas de imagen previamente codificadas y de las secuencias de vídeo previamente codificadas, correspondiendo la trama de imagen a una secuencia de vídeo actualmente codificada.
Otra ventaja/característica más es el aparato que tiene el codificador de video como se describió anteriormente, en el que los filtros múltiples incluyen al menos uno de al menos un filtro de bucle de entrada, al menos un filtro de bucle de salida, al menos un filtro de pre procesamiento y al menos un filtro de post procesamiento.
Además, otra ventaja/característica es el aparato que tiene el codificador de video como se describió anteriormente, en el que una partición de la trama de imagen en la pluralidad de regiones, a partir de las cuales se basa la información de partición de las regiones, se optimiza conjuntamente mediante los múltiples filtros.
Además, otra ventaja/característica es el aparato que tiene el codificador de video como se describió anteriormente, en el que una partición de la trama de imagen en la pluralidad de las regiones, de la que se basa la información de partición de la región, está optimizada por medio de uno de los múltiples filtros, y se comparte con otros de los múltiples filtros.
Además, otra ventaja/característica es el aparato que tiene el codificador de video como se describió anteriormente, en el que la información de partición de la región para la pluralidad de regiones es compartida por al menos dos de los múltiples filtros mientras que al menos otro de los múltiples filtros determina por separado la información de partición de la región a utilizar.
Estas y otras características y ventajas de los presentes principios pueden ser fácilmente determinadas por un experto en la técnica normal basándose en las enseñanzas de este documento. Debe entenderse que las enseñanzas de los presentes principios pueden ejecutarse en diversas formas de hardware, software, firmware, procesadores de propósito especial, o combinaciones de los mismos.
Con preferencia, las enseñanzas de los presentes principios se realizan como una combinación de hardware y software. Además, el software puede realizarse como un programa de aplicación incorporado de manera tangible en una unidad de almacenamiento de programas. El programa de aplicación puede ser cargado a, y ejecutado por, una máquina que comprenda cualquier arquitectura adecuada. Preferiblemente, la máquina se materializa en una plataforma de ordenador que tenga hardware tal como una o más unidades centrales de proceso ("CPU"), una memoria de acceso aleatorio ("RAM") e interfaces de entrada/salida ("I/O"). La plataforma de ordenador también puede incluir un sistema operativo y un código de micro instrucciones. Los diversos procesos y funciones descritos en este documento pueden ser parte del código de micro instrucciones o parte del programa de aplicación, o cualquier combinación de los mismos, que puede ser ejecutada por una CPU. Además, se pueden conectar varias otras unidades periféricas a la plataforma de ordenador, tales como una unidad de almacenamiento de datos adicional y una unidad de impresión.
Debe entenderse además que, debido a que algunos de los componentes del sistema constitutivo y los métodos representados en los dibujos adjuntos se realizan preferiblemente en software, las conexiones reales entre los componentes del sistema o los bloques de función del proceso pueden diferir dependiendo de la manera en que se programan los presentes principios. Dadas las enseñanzas de este documento, una persona con conocimientos ordinarios de la técnica relativa podrá considerar estas y similares realizaciones o configuraciones de los presentes principios.

Claims (15)

REIVINDICACIONES
1. Un aparato, que comprende:
un codificador de video (100) para codificar datos de imagen en una trama de imagen, donde dicho codificador de video (100) comprende múltiples filtros, filtrando cada filtro los datos de la imagen basándose en la información de partición de la región, definiendo dicha información de partición de la región la segmentación de una trama de imagen en una pluralidad de regiones, utilizándose los múltiples filtros con diferentes parámetros de filtrado en cada región, y en donde al menos dos de los filtros múltiples (725, 730) usan la misma segmentación basada en la información de partición de la región compartida, y estando determinada separadamente la información de partición de la región (758) por al menos otro de los múltiples filtros, en el que el codificador usa la señalización (760, 765) para permitir que un descodificador seleccione el conjunto particular de la información de partición de la región y los parámetros del filtro usados por los múltiples filtros durante la codificación.
2. En un codificador de video, un método (700), que comprende:
codificar los datos de imagen en una trama de imagen, en el que los datos de imagen se filtran mediante múltiples filtros, filtrando cada filtro los datos de imagen basándose en la información de partición de la región, definiendo dicha información de partición de la región la segmentación de una trama de imagen en una pluralidad de regiones (725, 730, 758), utilizándose los múltiples filtros con parámetros de filtrado diferentes en cada región, y en el que al menos dos de los múltiples filtros (725, 730) utilizan la misma segmentación basándose en la información de la partición de la región compartida, y estando la información de partición de la región determinada separadamente (758) para al menos otro de los múltiples filtros, en el que dicha codificación comprende además utilizar la señalización (760, 765) para permitir que un descodificador seleccione el conjunto particular de información de partición de la región y los parámetros del filtro utilizados para los múltiples filtros durante la codificación.
3. El método de la reivindicación 2, que comprende además determinar la información de partición de la región compartida considerando conjuntamente la adaptación de los parámetros basándose en al menos uno de información de la codificación y contenido de la trama de imagen.
4. El método de la reivindicación 2, en el que al menos uno de la información de partición de la región y los parámetros del filtro para los múltiples filtros se señalizan usando uno o más elementos de sintaxis de alto nivel o uno o más elementos de sintaxis a nivel de región (760, 765), o son inferidos por un descodificador a partir de al menos una de las regiones previamente codificadas, de las tramas de imagen previamente codificadas y de las secuencias de video previamente codificadas, correspondiendo la trama de imagen a una secuencia de video codificada actual.
5. El método de la reivindicación 2, en el que los múltiples filtros comprenden al menos uno de al menos un filtro de bucle de entrada, al menos un filtro de bucle de salida y al menos un filtro de pre procesamiento.
6. El método de la reivindicación 2, en el que una partición de la trama de imagen en la pluralidad de regiones, de las cuales se basa la información de partición de la región, se optimiza conjuntamente para dichos al menos dos de los múltiples filtros (755).
7. El método de la reivindicación 2, en el que una partición de la trama de imagen en la pluralidad de regiones, de la que se basa la información de partición de la región, se optimiza para uno de dichos al menos dos de los múltiples filtros (555), y se comparte con otros de dichos al menos dos de los múltiples filtros (562).
8. Un aparato, que comprende:
un descodificador de video (200) para descodificar los datos de imagen en una trama de imagen, en el que dicho descodificador de video (200) comprende múltiples filtros, filtrando cada filtro los datos de imagen basándose en la información de partición de la región, definiendo dicha información de partición de la región la segmentación de una trama de imagen en una pluralidad de regiones, utilizándose los múltiples filtros con parámetros de filtrado diferentes en cada región, y en el que al menos dos de los múltiples filtros (830, 835) usan la misma segmentación basándose en la información de partición de la región compartida, y la información de partición de la región se determina separadamente para al menos otro (840) de los múltiples filtros, en el que el descodificador de video utiliza la señalización (810) para permitir que el descodificador seleccione un conjunto particular de información de partición de la región y los parámetros del filtro que fueron utilizados por los correspondientes múltiples filtros durante la codificación.
9. En un descodificador de video, un método que comprende:
descodificar los datos de imagen en una trama de imagen, en el que los datos de imagen se filtran por medio de múltiples filtros, filtrando cada filtro los datos de la imagen basándose en la información de partición de la región, definiendo dicha información de partición de la región la segmentación de una trama de imagen en una pluralidad de regiones (830, 835, 840), utilizándose los múltiples filtros con diferentes parámetros de filtrado en cada región, y en el que al menos dos de los múltiples filtros (830, 835) utilizan la misma segmentación basándose en la información de partición compartida, y la información de partición de la región se determina separadamente para al menos otro (840) de los múltiples filtros, en el que dicha descodificación comprende el uso de la señalización (810) para permitir que el descodificador de vídeo seleccione un conjunto particular de información de partición de la región y los parámetros del filtro que fueron utilizados por los múltiples filtros correspondientes durante la codificación.
10. El método de la reivindicación 9, que comprende además determinar la información de partición de la región considerando conjuntamente la adaptación de los parámetros basándose en al menos uno de la información de la codificación y el contenido de la trama de imagen.
11. El método de la reivindicación 9, en el que al menos uno de la información de partición de la región y los parámetros del filtro para los múltiples filtros se determinan a partir de uno o más elementos de sintaxis de alto nivel o uno o más elementos de sintaxis a nivel de región (410, 415, 610, 615, 810, 815), o se infieren a partir de al menos una de los regiones previamente codificadas, de las tramas de imagen previamente codificadas y de las secuencias de video previamente codificadas, correspondiendo la trama de imagen a una secuencia de video codificada actual.
12. Un medio de almacenamiento que tiene datos de señales de video codificadas de acuerdo con el método de la reivindicación 2.
13. El aparato de la reivindicación 1 que realiza la codificación de datos de imagen para una pluralidad de regiones en una trama de imagen que dispone de medios para realizar el método de acuerdo con cualquiera de las reivindicaciones 3 a 7.
14. El aparato de la reivindicación 8 que realiza la descodificación de datos de imagen para una pluralidad de regiones en una trama de imagen que dispone de medios para realizar el método de acuerdo con cualquiera de las reivindicaciones 10 a 11.
15. Una señal que comprende datos de video codificados de acuerdo con el método de cualquiera de las reivindicaciones 2 a 7.
ES10737649T 2009-07-07 2010-07-07 Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones Active ES2855298T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22352309P 2009-07-07 2009-07-07
PCT/US2010/001917 WO2011005317A2 (en) 2009-07-07 2010-07-07 Methods and apparatus for collaborative partition coding for region based filters

Publications (1)

Publication Number Publication Date
ES2855298T3 true ES2855298T3 (es) 2021-09-23

Family

ID=43385768

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10737649T Active ES2855298T3 (es) 2009-07-07 2010-07-07 Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones

Country Status (10)

Country Link
US (4) US9743081B2 (es)
EP (2) EP2452498B1 (es)
JP (1) JP5702378B2 (es)
KR (8) KR102033025B1 (es)
CN (3) CN102484708A (es)
DK (1) DK2452498T3 (es)
ES (1) ES2855298T3 (es)
HU (1) HUE053687T2 (es)
PL (1) PL2452498T3 (es)
WO (1) WO2011005317A2 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100272191A1 (en) * 2008-01-14 2010-10-28 Camilo Chang Dorea Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering
BRPI0921986A2 (pt) * 2008-11-25 2018-06-05 Thomson Licensing métodos e aparelho para filtralçao por eliminação de artefatos à base de matrizes esparsas para codificação e decodificação de vídeo
KR102033025B1 (ko) 2009-07-07 2019-10-16 톰슨 라이센싱 영역 기반 필터에 대해서 협력적 분할 부호화하는 방법 및 장치
KR101438471B1 (ko) * 2011-01-03 2014-09-16 미디어텍 인크. 필터 유닛 기반 인-루프 필터링 방법
US9001883B2 (en) * 2011-02-16 2015-04-07 Mediatek Inc Method and apparatus for slice common information sharing
EP2521357A1 (de) * 2011-05-06 2012-11-07 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Filterung von kodierten Bildpartitionen
JP5552093B2 (ja) * 2011-06-13 2014-07-16 日本電信電話株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
WO2013144144A1 (en) * 2012-03-30 2013-10-03 Panasonic Corporation Syntax and semantics for adaptive loop filter and sample adaptive offset
US9237343B2 (en) * 2012-12-13 2016-01-12 Mitsubishi Electric Research Laboratories, Inc. Perceptually coding images and videos
BR112016013761B1 (pt) 2014-05-23 2023-03-14 Huawei Technologies Co., Ltd Método e aparelho para reconstruir blocos de imagem utilizando predição, e meio de armazenamento legível por computador
US10419755B2 (en) * 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
AU2017204643B2 (en) 2017-07-07 2020-05-14 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
CN112740689B (zh) * 2018-09-18 2024-04-12 华为技术有限公司 视频编码器、视频解码器及对应方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5176310U (es) 1974-11-20 1976-06-16
JPH035596A (ja) 1989-05-31 1991-01-11 Maeda Corp 裏込め注入工法
JP2643537B2 (ja) * 1990-05-31 1997-08-20 日本電気株式会社 動画復号化装置のポストフィルタ制御方式
DE4118571A1 (de) 1991-06-06 1992-12-10 Philips Patentverwaltung Vorrichtung zur steuerung des quantisierers eines hybrid-kodierers
GB9802112D0 (en) 1998-01-30 1998-04-01 Shimadzu Res Lab Europe Ltd Method of trapping ions in an ion trapping device
US7177358B2 (en) * 2000-06-27 2007-02-13 Mitsubishi Denki Kabushiki Kaisha Picture coding apparatus, and picture coding method
ATE454016T1 (de) 2001-09-12 2010-01-15 Panasonic Corp Bildkodierungs- und biddekodierungsverfahren
CN1514649A (zh) * 2003-08-11 2004-07-21 深圳市中太多媒体通信有限公司 一种用于视频信号压缩的图像前处理方法
WO2005029798A1 (en) * 2003-09-15 2005-03-31 Intel Corporation Adaptive iq imbalance correction for multicarrier wireless communication systems
EP1641274B1 (en) 2004-09-23 2013-06-05 Panasonic Corporation Video coding employing an image de-graining loop-filter
JP4191729B2 (ja) 2005-01-04 2008-12-03 三星電子株式会社 イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ
US7657098B2 (en) * 2005-05-02 2010-02-02 Samsung Electronics Co., Ltd. Method and apparatus for reducing mosquito noise in decoded video sequence
CN2849791Y (zh) 2005-07-15 2006-12-20 上海儒竞电子科技有限公司 基于高精度电阻网络的直流电源电路
US9001899B2 (en) * 2006-09-15 2015-04-07 Freescale Semiconductor, Inc. Video information processing system with selective chroma deblock filtering
US9014280B2 (en) 2006-10-13 2015-04-21 Qualcomm Incorporated Video coding with adaptive filtering for motion compensated prediction
WO2008057308A2 (en) * 2006-11-08 2008-05-15 Thomson Licensing Methods and apparatus for in-loop de-artifact filtering
JP5176310B2 (ja) 2006-12-04 2013-04-03 新日鐵住金株式会社 レールのテルミット溶接方法及びロングレール
US20120114808A1 (en) 2010-11-10 2012-05-10 Sara Lee Corporation Packaging for food product
US10123050B2 (en) 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
EP2161936A1 (en) 2008-09-04 2010-03-10 Panasonic Corporation Locally adaptive filters for video coding controlled by local correlation data
US8548041B2 (en) * 2008-09-25 2013-10-01 Mediatek Inc. Adaptive filter
EP2262267A1 (en) 2009-06-10 2010-12-15 Panasonic Corporation Filter coefficient coding scheme for video coding
KR102033025B1 (ko) 2009-07-07 2019-10-16 톰슨 라이센싱 영역 기반 필터에 대해서 협력적 분할 부호화하는 방법 및 장치
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
KR102145782B1 (ko) * 2011-10-31 2020-08-19 미쓰비시덴키 가부시키가이샤 동화상 부호화 장치, 동화상 부호화 방법 및 컴퓨터 독취 가능한 기억 매체
GB201617444D0 (en) * 2016-10-14 2016-11-30 Fujitsu Ltd Processing digital image to remove unwanted portion

Also Published As

Publication number Publication date
US20170318290A1 (en) 2017-11-02
US11483556B2 (en) 2022-10-25
CN102484708A (zh) 2012-05-30
KR102542401B1 (ko) 2023-06-13
CN105791831A (zh) 2016-07-20
KR20200087879A (ko) 2020-07-21
KR20210043027A (ko) 2021-04-20
DK2452498T3 (da) 2021-02-22
JP2012533215A (ja) 2012-12-20
JP5702378B2 (ja) 2015-04-15
US20120114048A1 (en) 2012-05-10
KR20220011206A (ko) 2022-01-27
KR102350436B1 (ko) 2022-01-14
US11895296B2 (en) 2024-02-06
EP2452498A2 (en) 2012-05-16
US9743081B2 (en) 2017-08-22
KR20120034780A (ko) 2012-04-12
WO2011005317A2 (en) 2011-01-13
KR101788292B1 (ko) 2017-10-19
KR20230093060A (ko) 2023-06-26
KR102135339B1 (ko) 2020-07-20
KR20180113636A (ko) 2018-10-16
US20230027586A1 (en) 2023-01-26
US10708590B2 (en) 2020-07-07
KR101907122B1 (ko) 2018-10-12
HUE053687T2 (hu) 2021-07-28
US20200366892A1 (en) 2020-11-19
KR20190119173A (ko) 2019-10-21
WO2011005317A3 (en) 2011-03-24
KR102033025B1 (ko) 2019-10-16
KR102242039B1 (ko) 2021-04-20
EP2452498B1 (en) 2020-12-16
CN107295339A (zh) 2017-10-24
EP3748967A1 (en) 2020-12-09
KR20170118259A (ko) 2017-10-24
CN107295339B (zh) 2020-06-26
PL2452498T3 (pl) 2021-06-14

Similar Documents

Publication Publication Date Title
ES2855298T3 (es) Métodos y aparatos para la codificación de partición colaborativa para filtros basados en regiones
JP6630988B2 (ja) 複数の隣接する量子化パラメータから量子化パラメータ予測子を決定する方法及び装置
JP5854439B2 (ja) 適応セグメンテーションを用いた動画符号化システムおよび方法
CN107257458B (zh) 采用回路内滤波处理来处理视频的方法和装置
JP5411147B2 (ja) ビット深さスケーラビリティのためのアーチファクト除去のための方法および装置
KR102130480B1 (ko) 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR101490534B1 (ko) 멀티 뷰 코딩된 비디오에서 조도 보상 및/또는 컬러 보상에 대한 코딩 아티팩트 감소 방법 및 장치
JP2018174546A (ja) 符号化装置、復号方法、符号化方法、復号方法、及びプログラム
JP2011501561A5 (es)
CN114125445B (zh) 解码方法、装置、设备及机器可读存储介质
KR20150016602A (ko) 비디오 스트림을 인코딩하기 위한 방법 및 장치
KR20230113387A (ko) 일반화된 샘플 오프셋
TW202025740A (zh) 濾波器