ES2602326T3 - Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo - Google Patents

Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo Download PDF

Info

Publication number
ES2602326T3
ES2602326T3 ES13171556.7T ES13171556T ES2602326T3 ES 2602326 T3 ES2602326 T3 ES 2602326T3 ES 13171556 T ES13171556 T ES 13171556T ES 2602326 T3 ES2602326 T3 ES 2602326T3
Authority
ES
Spain
Prior art keywords
filter
image
preprocessing
processing
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13171556.7T
Other languages
English (en)
Inventor
Peshala V. Pahalawatta
Athanasios Leontaris
Alexandros Tourapis
Kevin J. Stec
Walter Husak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2602326T3 publication Critical patent/ES2602326T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un método para seleccionar un filtro de pre-procesamiento para una distribución escalable de vídeo, en donde la distribución escalable de vídeo comprende la codificación y la reconstitución de imágenes de entrada por intermedio de una capa de base y una o más capas de mejora, cuyo método comprende: introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento, en donde cada imagen de entrada entre las una o más imágenes de entrada está separada en al menos una zona; procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos, en donde el procesamiento comprende, para cada filtro de pre-procesamiento: sub-muestrear una imagen de entrada desde entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada; aplicar una codificación de capa base a la imagen sub-muestreada; interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; y aplicar una codificación en capa de mejora a la imagen resultante de la interpolación adaptativa hacia una segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa, utilizados para la interpolación adaptativa, pueden variar para diferentes zonas en la imagen sub-muestreada; para cada filtro de pre-procesamiento, evaluar una métrica de distorsión de la imagen de salida o de flujo de datos; y seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento y una realimentación operativa procedente de la interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros del filtro de interpolación adaptativa utilizados para la interpolación adaptativa.

Description

imagen1
DESCRIPCIÓN
Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo
5 REFERENCIA CRUZADA PARA SOLICITUDES DE PATENTES RELACIONADAS
La presente solicitud es divisional de la solicitud de patente EP nº 10719456.5 presentada con fecha 19 de septiembre de 2011.
Dicha solicitud de patente EP10719456.5 es una solicitud de fase regional de patentes EP de aplicación internacional nº PCT/US2010/031693, presentada con fecha 20 de abril de 2010, que reivindica la prioridad para la solicitud provisional de Estados Unidos nº 61/242,242, presentada con fecha 14 de septiembre de 2009.
CAMPO DE LA INVENCIÓN
15 La presente idea inventiva se refiere a aplicaciones de vídeo. Más en particular, las formas de realización de la presente invención se refieren a métodos y dispositivos para la selección de filtros de pre-procesamiento y de parámetros de filtro habida cuenta del conocimiento de un proceso de predicción de capa de base (BL) a capa de mejora (EL) que tiene lugar en el decodificador y codificador de capa de mejora EL. Los métodos y dispositivos pueden aplicarse a varias aplicaciones tales como, a modo de ejemplo, codificación de vídeo temporalmente escalable y aplicaciones de vídeo en 3D escalable.
SUMARIO DE LA INVENCIÓN
25 La invención se define por las reivindicaciones independientes. Las reivindicaciones subordinadas se refieren a características opcionales de algunas formas de realización de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 ilustra una arquitectura de codificación de vídeo escalable que comprende una sección de codificación de capa de base (BL) y una sección de codificación de capa de mejora (EL).
La Figura 2 ilustra una arquitectura de decodificación correspondiente al sistema de codificación representado en la Figura 1.
35 La Figura 3 ilustra un proceso en bucle abierto para realizar la optimización de pre-procesador.
La Figura 4 ilustra un proceso en bucle cerrado para realizar una optimización de pre-procesador.
La Figura 5 ilustra un ejemplo adicional del proceso de bucle cerrado en donde tiene lugar una codificación simplificada.
La Figura 6 ilustra una etapa de filtro de pre-procesamiento precedida por una etapa de análisis de imagen/secuencia.
La Figura 7 ilustra una selección de filtros de pre-procesamiento por intermedio de la realimentación operativa recibida 45 desde el codificador de capa de mejora EL.
La Figura 8 ilustra una arquitectura en donde los parámetros de filtros de pre-procesamiento son objeto de predicción sobre la base de los filtros utilizados para las imágenes anteriores.
DESCRIPCIÓN DETALLADA DE FORMAS DE REALIZACIÓN A MODO DE EJEMPLO
A continuación se describen métodos y dispositivos para selección de filtros de pre-procesamiento.
En conformidad con una primera forma de realización, se da a conocer un método para seleccionar un filtro de pre
55 procesamiento para distribución de vídeo, que comprende: introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento; procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos; para cada filtro de pre-procesamiento, evaluar una métrica de la imagen de salida o flujo de datos; y seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de preprocesamiento sobre la base de la métrica evaluada para cada filtro de pre-procesamiento.
En conformidad con una tercera forma de realización, se da a conocer un selector de filtros de pre-procesamiento para la distribución de vídeo, que comprende: una pluralidad de filtros de pre-procesamiento adaptados para recibir una imagen de entrada; módulos de procesamiento para procesar la salida de cada filtro de pre-procesamiento para formar una imagen de salida o flujo de datos; módulos de evaluación de métricas para evaluar, para cada filtro de pre
65 procesamiento, una métrica de la imagen de salida o flujo de datos; y un selector de filtros de pre-procesamiento para seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la métrica evaluada para cada filtro de pre-procesamiento mediante los módulos de distorsión.
imagen2
En conformidad con una cuarta forma de realización, se da a conocer un codificador para codificar una señal de vídeo en 5 conformidad con el método o métodos anteriormente citados.
En conformidad con una quinta forma de realización, se da a conocer un aparato para codificar una señal de vídeo en conformidad con el método o métodos anteriormente citados.
En conformidad con una sexta forma de realización, se da a conocer un sistema para codificar una señal de vídeo en conformidad con el método o métodos anteriormente citados.
En conformidad con una séptima forma de realización, se da a conocer un soporte legible por ordenador que contiene un conjunto de instrucciones que hace que un ordenador realice el método o métodos anteriormente citados.
15 En conformidad con una octava forma de realización, se da a conocer el uso del método o métodos anteriormente citados para codificar una señal de vídeo.
Un método para la distribución de vídeo escalable es para sub-muestrear la señal de vídeo original para una más baja resolución y para codificar los datos sub-muestreados en un flujo de bits de capa de base (BL). El vídeo decodificado de capa de base puede muestrearse luego, en sentido ascendente, para obtener una predicción de la señal de vídeo de resolución completa original. La capa de mejora (EL) puede utilizar esta predicción como una referencia y codificar la información residual que se requiere para recuperar la señal de vídeo de resolución completa original. El sub-muestreo de resolución puede tener lugar en los dominios espaciales, temporales y de precisión de pixels. Véase, a modo de
25 ejemplo, el documento de J.R. Ohm, titulado “Avances en la codificación de vídeo escalable”, Proceedings of the IEEE, vol. 93, nº 1, enero 2005. La distribución de vídeo escalable puede estar también relacionada con la escalabilidad de profundidad de bits, así como con la escalabilidad de multivista o en 3D.
Aunque las figuras y algunas formas de realización de la presente solicitud de patente hacen referencia a una capa de mejora única, la presente idea inventiva está también destinada a casos en donde más de una capa de mejora está presente, para mejorar todavía más la calidad de la señal de vídeo decodificada o para mejorar la funcionalidad/flexibilidad/complejidad del sistema de distribución de vídeo.
La Figura 1 ilustra una realización, a modo de ejemplo, de dicho sistema de codificación de vídeo escalable en donde, a
35 modo de ejemplo, solamente se utiliza una capa de mejora. El módulo predictor de BL (capa de base) a EL (capa de mejora) (110) predice la capa de mejora EL a partir de la señal de vídeo de capa de base BL reconstituida e introduce la predicción como una referencia al codificador de capa de mejora EL (120).
En el caso de transmisión de datos de vídeo de múltiples vistas, o en estéreo, el sub-muestreo puede ser un resultado de la intercalación de diferentes vistas en una sola imagen para la finalidad de transmisión a través de las conexiones de distribución de vídeo existentes. A modo de ejemplo, la disposición en ajedrezado, línea por línea, lado por lado, arribaabajo, son algunas de las técnicas utilizadas para intercalar dos vistas en 3D estereoscópicas en una sola imagen entrelazada a izquierda/derecha para la finalidad de la distribución. En cada caso, diferentes métodos de sub-muestreo pueden utilizarse también tales como a tresbolillo, horizontal, vertical, etc.
45 La solicitud de patente provisional de Estados Unidos nº 61/140,886, presentada con fecha 25 de diciembre, ilustra varias técnicas de interpolación adaptativa de contenidos que pueden utilizarse dentro de un bloque predictor de BL a EL (110) que se representa en la Figura 1. Además, la solicitud de patente provisional de Estados Unidos nº 61/170,995, presentada con fecha 20 de abril de 2009, ilustra técnicas de interpolación dirigidas, en donde los sistemas de interpolación están adaptados dependiendo del contenido y de la zona de imagen objeto de interpolación y los filtros óptimos se señalizan como metadatos para el decodificador de capas de mejora.
La Figura 2 ilustra la arquitectura del decodificador correspondiente para las capas BL y EL. El predictor de BL a EL (210) en el lado del decodificador utiliza las imágenes reconstituidas de capa de base (220) junto con los metadatos de
55 interpolación guiada (230) – correspondiente a los metadatos del predictor (130) de la Figura 1 – para generar una predicción (240) de la capa EL. Los metadatos del predictor se describen con más detalle en la solicitud de patente provisional de Estados Unidos 61/170,995, presentada el 20 de abril de 2009.
Volviendo a la Figura 1, la creación de las imágenes de las capas BL y EL puede ir precedida por módulos de preprocesamiento (140), (150). El pre-procesamiento se aplica a imágenes o vídeo antes de la compresión con el fin de mejorar la eficiencia de la compresión y atenuar los denominados artefactos informáticos. El módulo de preprocesamiento puede comprender, a modo de ejemplo, un filtro de muestreo descendente que está diseñado para eliminar los artefactos informáticos tales como la interferencia denominada aliasing de las imágenes sub-muestreadas. Los filtros de muestreo descendente pueden ser filtros de respuesta de impulsos finitos (FIR) fijos tales como los 65 descritos en el documento de W. Li, J-R. Ohm, M. van der Schaar, H. Jiang y S. Li, titulado “Modelo de verificación de vídeo MPEG-4, versión 18.0”, ISO/IEC JTC1/SC29/WG11 N3908, enero 2001, filtros temporales compensados en
imagen3
movimiento tales como los descritos en el documento de E. Dubois y S. Sabri, titulado “Reducción del ruido en secuencias de imágenes utilizando un filtrado temporal compensado en movimiento”, IEEE Trans. on Communications, Vol. COM-32, nº 7, con fecha julio 1984 o filtros adaptativos tales como los descritos en el documento S. Chang, B. Yu y
M. Vetterli, titulado “Umbral de ondulación adaptativa para supresión de ruido y compresión de la imagen”, IEEE Trans.
5 on Imagen Processing, vol. 9, nº 9, páginas 1532-1546, de fecha septiembre de 2000. Los filtros de muestreo descendente pueden estar también conjuntamente optimizados con un proceso de interpolación/muestreo ascendente particular, tal como se describe en el documento de Y. Tsaig, M. Elad, P. Milanfar y G. Golub, titulado “Predicción variable para filtrado casi-óptimo en codificadores de tasas de bits bajas”, IEEE Trans. Sobre circuitos y sistemas para tecnología de vídeo, vol. 15, nº 1, páginas 154-160, enero 2005.
En las siguientes figuras, se describirán formas de realización de métodos y dispositivos para selección de filtros de preprocesamiento y parámetros de filtros dado el conocimiento del proceso de predicción desde una capa a otra (p.ej., BL a EL). En particular, la forma de realización ilustrada en la Figura 3 contiene una hipótesis para cómo se realizará la predicción de BL a EL. Dicha hipótesis no está basada en la predicción desde las imágenes reconstituidas de BL reales
15 después de la compresión y en cambio, está basada en la predicción de las imágenes no comprimidas (en bucle abierto). Por otro lado, las formas de realización ilustradas en la Figura 4 se refieren a la predicción a partir de las imágenes reconstituidas de BL después de la compresión (bucle cerrado). Según se ilustra en la Figura 5, sin embargo, una compresión simplificada puede utilizarse para la finalidad de reducir la complejidad del proceso de selección de filtros. La compresión simplificada es una aproximación del comportamiento del proceso de compresión completo y permite la consideración de la codificación de artefactos y tasas de bits que pueden introducirse mediante el proceso de compresión.
La Figura 3 ilustra una forma de realización de un pre-procesador y de un método de optimización de pre-procesamiento en conformidad con la idea inventiva. Un módulo de selección de zona opcional (310) separa una imagen de entrada u
25 origen (320) en múltiples zonas. Un ejemplo de dicho módulo de selección de zonas se describe en el documento de la solicitud de patente provisional de Estados Unidos nº 61/170,995, presentada con fecha 20 de abril de 2009. La separación de la imagen de entrada en múltiples zonas permite un diferente pre-procesamiento e interpolación adaptativa a realizarse en cada zona habida cuenta de las características de contenidos de esa zona.
Para cada zona, una búsqueda del filtro de pre-procesamiento óptimo se realiza a través de un conjunto de filtros 1-N indicados como (330-1), (330-2), (330-3), …, (330-N). Los filtros de pre-procesamiento pueden ser filtros separables o no separables, filtros de FIR con diferentes longitudes de soporte, filtros direccionales tales como filtros horizontales, verticales o diagonales, filtros de dominio de frecuencias tales como filtros sobre la base de la transformada cosenoidal discreta (DCT) u ondulación, filtros adaptativos periféricos, filtros temporales compensados en movimiento, etc.
35 La salida de cada filtro (330-i) es objeto de posterior sub-muestreo para la resolución para la capa BL en los respectivos módulos de sub-muestreo (340-1), (340-2), (340-3), …, (340-N).
Los expertos en esta técnica entenderán también que otras formas de realización de los filtros de pre-procesamiento y de los modos de sub-muestreo son también posibles, p.ej., los filtros de pre-procesamiento y los módulos de sub-muestreo pueden integrarse juntos en un componente único o los filtros de pre-procesamiento pueden seguir los módulos de submuestreo en lugar de los precedentes según se ilustra en la Figura 3.
En el caso de un sistema de codificación de vídeo escalable estereoscópico en 3D, la salida sub-muestreada de cada
45 filtro se envía luego por intermedio de un intercalador en 3D para crear imágenes entrelazadas en 3D sub-muestreadas que serán parte de la señal de vídeo de capa de base. Una realización ejemplo de un intercalador en 3D puede encontrarse en la patente de Estados Unidos nº 5,193,0000. Por otro lado, en un caso no en 3D, puede proporcionarse un denominado decimador. A continuación, las imágenes objeto de muestreo ascendente son muestreadas de forma adaptativa, utilizando métodos tales como los descritos en la patente provisional de Estados Unidos 61/140,886 y la patente provisional de Estados Unidos 61/170,995. El intercalador en 3D o el decimador y el muestreo ascendente adaptativo (o, más en general, una técnica que procese la salida sub-muestreada para formar una imagen de salida o flujo de bits) se representan de forma genérica como bloques (350-1), (350-2), (350-3), …, (350-N) en la Figura 3. Según se ilustra en la Figura, la interpolación adaptativa utiliza también la información no filtrada original para determinar el mejor filtro de interpolación. Dicha información se proporciona desde el módulo de selección de zonas (310).
55 En los módulos de cálculo de la distorsión (360-1), (360-2), (360-3), …, (360-N), las imágenes objeto de muestreo ascendente se comparan con el origen de entrada original y se calcula una medida de la distorsión entre las imágenes originales y las imágenes procesadas. Para esta finalidad, pueden utilizarse métricas de distorsión tales como error cuadrático medio (MSE), relación de señal a ruido máxima (PSNR), así como pueden utilizarse, para esta finalidad, métricas de distorsión perceptual que están más adaptadas para las características de los sistemas visuales humanos.
Un módulo de selección de filtros (370) compara las características de distorsión de cada filtro de pre-procesamiento (330-i) y selecciona el filtro de pre-procesador óptimo para la codificación de esa zona de la señal de vídeo. La salida del filtro seleccionado es luego objeto de muestreo descendente (385) y se envía, además, por intermedio del proceso de 65 codificación (390). Como alternativa, el bloque 370 puede seleccionar entre salidas ya objeto de muestreo descendente
imagen4
de los filtros en lugar de seleccionar entre los propios filtros. En tal caso, no se necesitará el módulo de muestreo descendente 385.
El módulo de selección de filtros (370) puede recibir también como entrada (380) estadísticas basadas en zonas
5 adicionales tales como textural, información periférica, etc., procedentes del selector de zonas (310), que puede ayudar con las decisiones de filtros. A modo de ejemplo, dependiendo de la zona, los pesos de ponderación dados a las estimaciones de la distorsión de un filtro pueden aumentarse respecto a otro.
El proceso en bucle abierto representado en la Figura 3 no es óptimo, en el sentido de que en un sistema real, según se ilustra en la Figura 1, la interpolación adaptativa para la predicción de BL a EL tiene lugar sobre las imágenes de BL reconstituidas del decodificador y no sobre el contenido pre-procesado original. El proceso en bucle abierto, sin embargo, es menos intensivo en cálculo informático y puede realizarse “offline” antes de la codificación real del contenido.
Los expertos en esta técnica entenderán también que la forma de realización de la Figura 3 no es específica para una
15 arquitectura escalable. Además, dicha forma de realización puede aplicarse solamente a la capa EL, solamente a la capa BL o a ambas capas EL y BL. Asimismo, diferentes pre-procesadores pueden utilizarse para las capas BL y EL, si así se desea. En el caso de pre-procesamiento de capa de mejora EL, puede realizarse también un muestreo descendente sobre las muestras, p.ej., muestras que no estaban contenidas en la capa de base BL.
La Figura 4 ilustra, una muestra de la presente idea inventiva, en donde se representa un proceso en bucle cerrado para realizar la optimización de pre-procesador. En particular, una etapa de codificación (450-i) se da a conocer para la salida sub-muestreada de cada filtro (430-i). En la etapa de codificación (450-i), cada salida de los filtros es completamente codificada y luego reconstituida (455-i), a modo de ejemplo en conformidad con el sistema ilustrado en la Figura 1. En el caso de codificación de vídeo escalable, dicha codificación comprende la codificación de capa de base BL, la
25 interpolación adaptativa para la predicción de capa BL a capa EL y la codificación de capa EL. La Figura 4 ilustra una realización ejemplo en donde ambos filtros EL (435-11),… (435-1M) se proporcionan para un filtro de capa BL (430-1) y así sucesivamente, hasta el filtro de BL (430-N), para lo que se proporcionan filtros de EL (435-N1) … (435-NM).
Los flujos de bits codificados y reconstituidos a la salida de los módulos (455-i) se utilizan para dos fines: i) cálculo de distorsiones (460-i) y ii) entradas (465) del módulo de selección de filtros (470). En particular, el módulo de selección de filtros (470) seleccionará una de las entradas (465) como salida de flujo de bits codificado (490) en conformidad con las salidas de los módulos de distorsión (460-i). Más concretamente, el filtro que muestra la menor distorsión para cada zona se selecciona como el pre-procesador.
35 La optimización de filtros en conformidad con el ejemplo ilustrado en la Figura 4, puede considerar también la tasa de bits resultante u objetivo, además de la distorsión. Dicho de otro modo, dependiendo del filtro seleccionado, el codificador puede requerir un número diferente de bits para codificar las imágenes. Por lo tanto, en conformidad con una realización ejemplo de la presente idea inventiva, la selección de filtros óptimos puede considerar los bits requeridos para la codificación, además de la distorsión después de los procesos de codificación y/o post-procesamiento. Lo que antecede puede formularse como un problema de optimización en donde el objetivo es minimizar el objeto de distorsión para una limitación de tasas de bits. Una posible técnica para realizar lo que antecede es la denominada optimización Lagrangiana. Dicho proceso tiene lugar en el módulo de selección de filtros (470) y utiliza i) la distorsión calculada en los módulos D (460-i) e ii) las tasas binarias disponibles desde los módulos de codificación (450-i).
45 Más en general, se puede realizar también una optimización basada en uno o más de varios tipos de métricas. Estas métricas pueden incluir la distorsión y/o tasa binaria anteriormente citada, pero puede también extenderse al coste, energía, tiempo, complejidad de cálculo y/o otros tipos de métricas.
Aunque el método descrito en el apartado anterior proporcionará los resultados de filtros óptimos de tasa-distorsión, es muy consumidor de recursos informáticos. Varios métodos para reducir la carga de cálculo informático de dicho ejemplo se examinarán en las figuras siguientes.
La Figura 5 ilustra una realización ejemplo alternativa en donde, para cada selección de filtro potencial, en lugar de calcular la imagen codificada verdadera y la imagen reconstituida del codificador, se utiliza una codificación simplificada
55 (550-i) y la reconstitución como una estimación de la reconstitución verdadera del decodificador.
A modo de ejemplo, una codificación de complejidad total (575) puede realizarse solamente después de que haya concluido la selección de filtros (570). A continuación, los codificadores simplificados (550-i) pueden actualizarse utilizando, a modo de ejemplo, la información de imagen reconstituida y en movimiento (577) a partir del codificador de complejidad total (575). A modo de ejemplo, las memorias intermedias de imágenes de referencia (véase elementos 160, 170 de la Figura 1) de los codificadores simplificados pueden actualizarse para contener las imágenes reconstituidas a partir del codificador simplificado. De modo similar, la información en movimiento generada en el codificador completo, para las zonas anteriores, puede utilizarse en el módulo de estimación de la disparidad de los codificadores simplificados (550-i). A modo de ejemplo, el codificador simplificado podría crear un modelo sobre la base de una denominada 65 codificación intra solamente que utiliza los mismos parámetros de cuantización utilizados a partir del codificador de complejidad global. Como alternativa, el codificador simplificado podría utilizar el filtrado que está basado en una relación
imagen5
de frecuencias a parámetros de cuantización, p.ej., mediante la creación de un modelo de relación de parámetro de cuantización a frecuencia. Además, si se requiere una más alta exactitud, una falta de coincidencia entre los codificadores simplificados y los codificadores de complejidad completa podría utilizarse para actualizar todavía más el modelo.
5 La codificación simplificada realizada por bloques (550-i) antes de la selección de filtros puede ser, a modo de ejemplo, una codificación intra solamente con el fin de eliminar la complejidad de la estimación del movimiento y la compensación correspondiente. Por otro lado, si se utiliza una estimación del movimiento, en tal caso se puede inhibir la estimación del movimiento de sub-pixels. Otra alternativa puede ser la de utilizar un método de optimización de distorsión de nivel de complejidad bajo en lugar de explorar todas las decisiones de codificación posibles durante la compresión. Filtros adicionales tales como filtros de bucles y filtros de post-procesamiento pueden inhibirse o simplificarse. Para realizar una simplificación, se puede activar o desactivar el filtro completamente, o limitar el número de muestras que se utilizan para el filtrado. También es posible ajustar los parámetros de filtro de modo que el filtro utilizará con menos frecuencia y/o utilizará un proceso simplificado para decidir si el filtro se utilizará, o no, para un periférico de bloque particular. Además,
15 los filtros utilizados para algunos componentes de croma pueden inhibirse y estimarse sobre la base de los utilizados para otros componentes de croma o de luma. Además, en otro ejemplo la selección de filtros puede optimizarse para una subzona (p.ej., la parte central de cada zona) en lugar de optimizar una zona completa. En algunos casos, el codificador simplificado puede realizar también la codificación a una resolución más baja o en una complejidad de optimización de distorsión de más baja tasa (RDO). Además, la estimación de la disparidad puede limitarse a medir solamente la disparidad en unidades de pixels completas en lugar de unidades de sub-pixels. Se puede utilizar también una codificación de entropía simplificada (módulo VLC). Asimismo, solamente puede codificarse la componente de luma para la imagen y la distorsión y la tasa para el componente de croma pueden estimarse como una función del luma. En otra realización ejemplo, la codificación simplificada puede ser simplemente un proceso de predicción que modela la salida de los bloques 550-i sobre la base de la salida anterior del codificador completo (bloque 575).
25 La totalidad de las opciones anteriores pueden producirse en los codificadores simplificados (550-i). Dicho de otro modo, los codificadores simplificados (550-i) pueden incluir la totalidad de los módulos de codificación ilustrados en la Figura 1 y cada uno de dichos módulos pueden simplificarse (solos o en combinación) según se describió con anterioridad, intentando mantener la salida no muy distinta de la salida de un codificador completo.
La Figura 6 ilustra otro ejemplo de la presente idea inventiva, en donde una etapa de filtro de pre-procesamiento (610) está precedida por una etapa de análisis de imagen/secuencia (620). La etapa de análisis (620) puede determinar un conjunto reducido (630) de filtros de pre-procesamiento a utilizarse en la optimización. El bloque de análisis de imagen/secuencia (620) puede comprender un cálculo de textura y/o varianza (en el dominio espacial y/o en el
35 transcurso del tiempo) para determinar el tipo de filtros que son necesarios para la aplicación particular en cuestión. A modo de ejemplo, zonas alisadas de la imagen pueden no requerir ningún prefiltrado, en absoluto, antes de la codificación. Algunas zonas pueden requerir, a la vez, un filtrado espacial y un filtrado temporal, mientras que otras solamente pueden requerir un filtrado espacial o temporal. En el caso de escalabilidad de profundidad de bits, las curvas de mapeo de asignación de tonos pueden optimizarse para cada zona. Si se utilizan filtros direccionales, el módulo de análisis de imagen (620) puede incluir análisis sintáctico periféricos para determinar si deben incluirse, o no, filtros direccionales en la optimización y si es así, para determinar las direcciones dominantes a lo largo de las cuales realizar el filtrado. Si así se desea, estas técnicas pueden incorporarse también en el módulo de selección de zonas. Además, un criterio de terminación anticipada puede utilizarse mediante cuyo criterio si un filtro se demuestra que proporciona un rendimiento de tasa-distorsión superior a un valor umbral especificado, no se evaluará ningún filtro adicional en la
45 optimización. Dicho método puede combinarse fácilmente con el análisis de imágenes para reducir todavía más el número de filtros a través de los cuales se realiza una búsqueda.
La Figura 7 ilustra otra forma de realización de la presente idea inventiva, en donde la selección de filtros de preprocesamiento (710) es objeto de ayuda por una realimentación operativa adicional (740) (además de la medida de la distorsión) recibida desde el codificador de capa de mejora (720). A modo de ejemplo, la realimentación operativa podría incluir información sobre los parámetros de filtro de muestreo ascendente adaptativos utilizados para poder generar la predicción de BL a EL. En consecuencia, la selección de filtros de muestreo descendente puede adaptarse para obtener el mejor rendimiento del filtro de muestreo ascendente adaptativo a partir de la etapa de optimización anterior. Lo que antecede puede servir también de ayuda en la selección de zonas para pre-procesamiento.
55 A modo de ejemplo, la imagen puede separarse en múltiples zonas más pequeñas y, en la etapa inicial, un filtro de preprocesamiento diferente puede asumirse para cada zona. Dicha forma de realización puede ser de utilidad en un sistema simplificado en donde no se realiza ningún análisis de imagen anterior. En tal caso, la información de muestreo ascendente (p.ej., si el muestreador ascendente seleccionó, o no, el mismo filtro de muestreo ascendente para múltiples zonas) puede tratarse como una indicación de cómo debería comportarse también la mejor selección de filtro de muestreo descendente. A modo de ejemplo, si los filtros de muestreo ascendente son los mismos para la imagen completa, quizás no sea necesaria la partición de la imagen en zonas y optimizar los filtros de muestreo descendente por separado para cada zona.
65 Después de la codificación de la capa de base BL en el módulo (730), sin embargo, la optimización de la predicción de capas BL a EL puede determinar que el mismo filtro de muestreo ascendente era suficiente para la predicción de
5
15
25
35
45
55
65
múltiples zonas de la imagen. En ese caso, el pre-procesador puede adaptarse también para elegir el mismo, o similar, filtro de pre-procesamiento para esas zonas. Lo que antecede reducirá el número de zonas en las cuales necesita realizarse la optimización en bucle cerrado completa y por lo tanto, se reduce el tiempo de cálculo del proceso. Más en general, esta etapa puede aplicarse también a configuraciones distintas de las configuraciones de BL/EL.
La carga de cálculo de la optimización del pre-procesador puede reducirse todavía más mediante la predicción de los parámetros de filtros de pre-procesamiento sobre la base de los filtros utilizados para imágenes anteriores, o zonas de imagen, de la secuencia. La Figura 8 ilustra una realización ejemplo de dicho sistema.
A modo de ejemplo, la optimización de pre-procesador (810) puede realizarse una vez cada N imágenes/zonas, en donde N es un valor fijo o un valor adaptado sobre la base de los recursos de cálculo disponibles y del tiempo también disponible. En una forma de realización, la decisión (830) de si utilizar, o no, parámetros de filtros previamente optimizados puede depender de la información obtenida a partir del módulo de análisis de imágenes (820) (véase también el módulo de análisis de imágenes (620) de la Figura 6). A modo de ejemplo, si dos imágenes, o zonas de imágenes, se encuentran en una correlación elevada, en tal caso, los parámetros de filtros necesitan optimizarse solamente una vez para una de las zonas y pueden reutilizarse/reajustarse (840) luego para la otra zona. Las zonas de imágenes pueden ser cercanas espaciales o temporales o, en el caso de multivista, zonas de imágenes correspondientes desde cada vista. A modo de ejemplo, cuando se consideran dos imágenes consecutivas de la secuencia de vídeo, la diferencia absoluta media de valores de pixels entre las dos imágenes puede utilizarse como una medida de la correlación temporal y si la diferencia absoluta media es inferior a un valor umbral, en tal caso, pueden reutilizarse los filtros (840).
En otra forma de realización, la decisión (830) de si reutilizar, o no, el mismo filtro, puede realizarse sobre la base del cálculo de la distorsión, en relación con el origen de vídeo original, después de la reconstitución de la imagen decodificada. Si la distorsión calculada es superior a un valor umbral especificado o si la distorsión calculada aumenta notablemente desde la que tenía en la imagen/zona anterior, en tal caso, puede realizarse la optimización del preprocesador.
En otra forma de realización, la información del movimiento que se calcula en la etapa de análisis de imágenes o durante la codificación de vídeo, puede utilizarse para determinar el movimiento de zonas dentro de la imagen. A continuación, los parámetros de filtros utilizados a partir de la imagen anterior pueden seguir el movimiento de la zona correspondiente.
En otra forma de realización, las regiones próximas pueden utilizarse para determinar el filtro establecido para realizar la búsqueda del filtro óptimo. A modo de ejemplo, si la optimización sobre las zonas próximas demuestra que un conjunto de M de entre N filtros totales posibles supera en rendimiento a los demás, en tal caso, solamente pueden utilizarse dichos M filtros en la optimización de la zona de imagen actual.
Además, el filtro utilizado para la zona actual puede adoptar la forma de
a*f(L, T, D, P) + b
en donde L es el valor de filtrado utilizado el filtro optimizado para la zona de imagen a la izquierda de la zona actual, T utiliza el filtro optimizado para la zona de imagen para la parte superior, D la zona de imagen en la parte superior derecha y P la zona de imagen co-localizada a partir de la imagen anterior. La función f combina los valores filtrados procedentes de cada filtro utilizando una medida de la media, mediana u otra medida que tenga en cuenta también la similitud de la zona actual para cada zona próxima. Las variables a y b pueden ser constantes, o depender de las características espaciales/temporales tales como movimiento y textura. Más en general, los filtros considerados podrían ser los de las zonas próximas que han sido ya seleccionados. Una forma de realización para el barrido por trama podría ser el caso L, T, D, P que se acaba de mencionar.
En otra forma de realización, además del rendimiento de tasa-distorsión de los filtros, puede considerarse también el rendimiento de “recurso-distorsión” de los filtros. En este caso, los recursos pueden incluir los bits disponibles pero también pueden incluir la potencia disponible en el dispositivo de codificación, el presupuesto de complejidad del cálculo y también las limitaciones de retardo en el caso de aplicaciones de tiempo limitado.
En otra forma de realización, la medida de la distorsión puede contener una combinación de múltiples métricas de distorsión, o calcularse teniendo en cuenta factores adicionales tales como errores de transmisión y ocultación de errores así como otros de métodos de post-procesamiento utilizados por dispositivos de presentación visual o de reproducción.
En conclusión, los métodos ilustrados en la presente idea inventiva pueden utilizarse para el pre-procesamiento adaptativo de zonas de una secuencia de vídeo. Los métodos están destinados a la mejora del rendimiento de tasadistorsión de la señal de vídeo de salida al mismo tiempo que se minimiza la complejidad de cálculo de la optimización. Aunque los métodos se describen como formas de realización separadas, pueden utilizarse también en combinación con un codificador de vídeo escalable de baja complejidad.
imagen6
Aunque los ejemplos de la presente idea inventiva han sido proporcionados haciendo referencia a técnicas de distribución de vídeo escalables, las enseñanzas de la presente idea inventiva se aplican también a la distribución de vídeo no escalable. A modo de ejemplo, una aplicación sería si la señal de vídeo es objeto de muestreo descendente antes de la codificación para reducir los requisitos del ancho de banda y luego, interpolarse después de la decodificación 5 para una resolución completa. Si se utiliza una técnica de interpolación adaptativa, en tal caso, el muestreo descendente puede optimizarse para tener en cuenta la interpolación adaptativa. En caso de dichas aplicaciones no escalables, la salida será una salida de muestreo ascendente adaptativo en lugar de ser la salida del codificador de capa de mejora EL.
Otra aplicación es la codificación de vídeo intercalada, en donde los filtros de pre-procesamiento pueden optimizarse
10 sobre la base del sistema de desintercalación utilizado en el decodificador. Además, las enseñanzas de la presente idea inventiva pueden aplicarse a aplicaciones en 3D no escalables que sean similares a la codificación de vídeo con entrelazado, en donde las imágenes de vistas a la izquierda y a la derecha pueden ser objeto de muestreo descendente espacial o temporal y de intercalación antes de la codificación, y luego interpolarse, de forma adaptativa, en el decodificador para obtener la resolución espacial o temporal completa. En dicho escenario operativo, ambas vistas
15 derecha e izquierda pueden efectuar una predicción mutua. En un escenario operativo diferente, una sola capa puede contener una trama en un primer tipo de representación espacial en color, con profundidad de bits y/o escala (p.ej., logarítmica o lineal) y otra capa puede contener la misma trama en un segundo tipo de representación espacial en color, profundidad de bits y/o escala. Las enseñanzas de esta idea inventiva pueden aplicarse para optimizar la predicción y compresión de muestras en una sola capa con respecto a las muestras en la otra capa.
20 Los métodos y sistemas descritos en la presente idea inventiva pueden ponerse en práctica en hardware, software, firmware o una de sus combinaciones. Las características descritas como bloques, módulos o componentes pueden ponerse en práctica juntas (p.ej., en un dispositivo lógico tal como un dispositivo lógico integrado) o por separado (p.ej., como dispositivos lógicos conectados por separado). La parte de software de los métodos de la presente idea inventiva
25 puede comprender un soporte legible por ordenador que comprende instrucciones que, cuando se ejecutan, realizan, al menos en parte, los métodos descritos. El soporte legible por ordenador puede comprender, a modo de ejemplo, una memoria de acceso aleatorio (RAM) y/o una memoria de solamente lectura (ROM). Las instrucciones pueden ejecutarse por un procesador (p.ej., un procesador de señal digital (DSP), un circuito integrado específico de la aplicación (ASIC) o dispositivos lógicos programables in situ (FPGA)).
30 Los ejemplos anteriormente establecidos se dan a conocer para proporcionar a los expertos en esta técnica una revelación y descripción completa de cómo obtener y utilizar las formas de realización de la selección de filtros para el pre-procesamiento de señales de vídeo en aplicaciones de vídeo de la idea inventiva y no están previstas para limitar el alcance que los inventores consideran como su idea inventiva. Modificaciones de los modos anteriormente descritos para
35 realizar la idea inventiva pueden utilizarse por expertos en la técnica de vídeo y están previstos para estar previstos dentro del alcance de las reivindicaciones siguientes. Todas las patentes y publicaciones mencionadas en la especificación pueden ser indicativas de los niveles de conocimiento de los expertos en esta técnica a la que pertenece la idea inventiva.
40 Ha de entenderse que la idea inventiva no está limitada a métodos o sistemas particulares, que pueden variar, por supuesto. Ha de entenderse también que la terminología aquí utilizada es para la finalidad de describir formas de realización particulares solamente y no está prevista con carácter limitativo. Tal como se utilizan en esta especificación y en las reivindicaciones adjuntas, las formas singulares “un”, “una” y “el” y “la” incluyen los plurales correspondientes a no ser que el contexto lo dicte claramente de otro modo. El término “pluralidad” incluye dos o más referentes a no ser que el
45 contexto lo dicte claramente de otro modo. A no ser que se defina de otro modo, todos los términos técnicos y científicos aquí utilizados tienen el mismo significado como se suelen entender por un experto en esta técnica a la que pertenece la idea inventiva.
Se han descrito varias formas de realización de la idea inventiva. No obstante, se entenderá que pueden realizarse varias
50 modificaciones sin desviarse por ello del alcance de la presente idea inventiva. En consecuencia, otras formas de realización están dentro del alcance de las reivindicaciones siguientes.
55

Claims (8)

  1. imagen1
    REIVINDICACIONES
    1. Un método para seleccionar un filtro de pre-procesamiento para una distribución escalable de vídeo, en donde la
    distribución escalable de vídeo comprende la codificación y la reconstitución de imágenes de entrada por intermedio de 5 una capa de base y una o más capas de mejora, cuyo método comprende:
    introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento, en donde cada imagen de entrada entre las una o más imágenes de entrada está separada en al menos una zona;
    procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos, en donde el procesamiento comprende, para cada filtro de pre-procesamiento:
    sub-muestrear una imagen de entrada desde entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada;
    15 aplicar una codificación de capa base a la imagen sub-muestreada;
    interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; y
    aplicar una codificación en capa de mejora a la imagen resultante de la interpolación adaptativa hacia una segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa, utilizados para la interpolación adaptativa, pueden variar para diferentes zonas en la imagen sub-muestreada;
    25 para cada filtro de pre-procesamiento, evaluar una métrica de distorsión de la imagen de salida o de flujo de datos; y
    seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento y una realimentación operativa procedente de la interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros del filtro de interpolación adaptativa utilizados para la interpolación adaptativa.
  2. 2. El método según la reivindicación 1, en donde, en el caso de entrada de vídeo en 3D, el procesamiento de la salida de cada filtro de pre-procesamiento comprende la intercalación de la salida sub-muestreada de cada filtro de preprocesamiento para crear imágenes en 3D intercaladas sub-muestreadas.
    35
  3. 3.
    El método según la reivindicación 1, en donde, en caso de entrada de vídeo no en 3D, el procesamiento de la salida de cada filtro de pre-procesamiento comprende la decimación de la salida sub-muestreada de cada filtro de preprocesamiento.
  4. 4.
    El método según una cualquiera de las reivindicaciones precedentes, que comprende, además:
    analizar las imágenes de entrada antes de introducir las imágenes de entrada en la pluralidad de filtros de preprocesamiento determinando una medida de correlación entre las imágenes de entrada analizadas y las imágenes de entrada anteriores; y
    45 si la medida de la correlación supera un valor umbral, reducir el número de filtros de pre-procesamiento en los cuales las imágenes de entrada serán introducidas o el número de zonas a seleccionar posteriormente reutilizando filtros de preprocesamiento con parámetros de filtro de pre-procesamiento optimizados con anterioridad.
  5. 5. El método según la reivindicación 4, en donde
    el método es para distribución de vídeo escalable, incluyendo la distribución de vídeo escalable la codificación y la reconstitución de las imágenes de entrada por intermedio de una capa de base y una o más capas de mejora, y
    55 la pluralidad de filtros de pre-procesamiento comprende una pluralidad de filtros de capa de base y una pluralidad de filtros de capa de mejora.
  6. 6. Un selector de filtros de pre-procesamiento para una distribución de vídeo escalable, en donde la distribución de vídeo escalable comprende la codificación y la reconstitución de imágenes de entrada por intermedio de una capa de base y de una o más capas de mejora, comprendiendo el selector de filtros de pre-procesamiento:
    una pluralidad de filtros de pre-procesamiento adaptados para recibir una imagen de entrada;
    módulos de procesamiento para procesar la salida de cada filtro de pre-procesamiento para formar una imagen de salida 65 o un flujo de datos, en donde los módulos de procesamiento comprende:
    9
    imagen2
    un filtro de sub-muestreo para sub-muestrear una imagen de entrada de entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada;
    un codificador de capa de base destinado a codificar la imagen sub-muestreada;
    5 un filtro de interpolación adaptativa para interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; y
    un codificador de capa de mejora destinado a codificar la imagen resultante de la interpolación adaptativa hacia una
    10 segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa del filtro de interpolación adaptativa que pueden variar para diferentes zonas en la imagen submuestreada;
    módulos de evaluación de métricas de distorsión que sirven para evaluar, para cada filtro de pre-procesamiento, una 15 métrica de distorsión de la imagen de salida o el flujo de datos; y
    un selector de filtros de pre-procesamiento que sirve para seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento por los módulos de evaluación de métricas de distorsión y una realimentación operativa que procede del filtro de
    20 interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros de filtro de interpolación adaptativa utilizados para la interpolación adaptativa.
  7. 7. El selector de filtros de pre-procesamiento según la reivindicación 6, que comprende, además, un selector de zonas
    para seleccionar una o más zonas de la imagen de entrada, en donde la pluralidad de filtros de procesamiento están 25 conectados con el selector de zonas y están adaptados para recibir las una o más zonas seleccionadas.
  8. 8. El selector de filtros de pre-procesamiento según la reivindicación 6, en donde la distribución de vídeo es una distribución de vídeo escalable, que comprende una codificación de capa de base y una codificación de capa de mejora.
    30 9. El selector de filtros de pre-procesamiento según la reivindicación 6, en donde la distribución de vídeo es una distribución de vídeo no escalable.
    35
    10
ES13171556.7T 2009-04-20 2010-04-20 Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo Active ES2602326T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US17099509P 2009-04-20 2009-04-20
US170995P 2009-04-20
US22302709P 2009-07-04 2009-07-04
US223027P 2009-07-04
US24224209P 2009-09-14 2009-09-14
US242242P 2009-09-14

Publications (1)

Publication Number Publication Date
ES2602326T3 true ES2602326T3 (es) 2017-02-20

Family

ID=42543023

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13171556.7T Active ES2602326T3 (es) 2009-04-20 2010-04-20 Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo

Country Status (8)

Country Link
US (1) US20120033040A1 (es)
EP (2) EP2663076B1 (es)
JP (2) JP5044057B2 (es)
CN (2) CN102450009B (es)
DK (1) DK2663076T3 (es)
ES (1) ES2602326T3 (es)
HK (1) HK1214440A1 (es)
WO (1) WO2010123855A1 (es)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538176B2 (en) 2008-08-08 2017-01-03 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
US9774882B2 (en) 2009-07-04 2017-09-26 Dolby Laboratories Licensing Corporation Encoding and decoding architectures for format compatible 3D video delivery
JP5916624B2 (ja) 2010-01-06 2016-05-11 ドルビー ラボラトリーズ ライセンシング コーポレイション マルチ−レイヤ化されたビデオシステムのための複雑度を適応的にするスケーラブル復号及びストリーミング
US8483271B2 (en) * 2010-05-06 2013-07-09 Broadcom Corporation Method and system for 3D video pre-processing and post-processing
JP5693716B2 (ja) 2010-07-08 2015-04-01 ドルビー ラボラトリーズ ライセンシング コーポレイション 参照処理信号を使った多層画像およびビデオ送達のためのシステムおよび方法
US8542751B2 (en) * 2010-08-20 2013-09-24 Intel Corporation Techniques for identifying and reducing block artifacts
KR102062821B1 (ko) * 2010-09-29 2020-01-07 한국전자통신연구원 필터 정보 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2012044093A2 (ko) * 2010-09-29 2012-04-05 한국전자통신연구원 필터 정보 예측을 이용한 영상 부호화/복호화 방법 및 장치
JP5663093B2 (ja) * 2010-10-01 2015-02-04 ドルビー ラボラトリーズ ライセンシング コーポレイション 参照ピクチャー処理のための最適化されたフィルタ選択
US9055305B2 (en) 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
US9161041B2 (en) 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
JP5524423B2 (ja) * 2011-01-09 2014-06-18 メディアテック インコーポレイテッド 効率的なサンプル適応オフセットの装置及び方法
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
KR20120118779A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 전처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 부호화 방법 및 그 장치, 후처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 복호화 방법 및 그 장치
GB2500347B (en) * 2011-05-16 2018-05-16 Hfi Innovation Inc Apparatus and method of sample adaptive offset for luma and chroma components
JP5552092B2 (ja) * 2011-06-13 2014-07-16 日本電信電話株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US20130004071A1 (en) * 2011-07-01 2013-01-03 Chang Yuh-Lin E Image signal processor architecture optimized for low-power, processing flexibility, and user experience
WO2013006310A1 (en) * 2011-07-01 2013-01-10 Vidyo, Inc. Loop filter techniques for cross-layer prediction
US8923403B2 (en) * 2011-09-29 2014-12-30 Dolby Laboratories Licensing Corporation Dual-layer frame-compatible full-resolution stereoscopic 3D video delivery
US9807403B2 (en) 2011-10-21 2017-10-31 Qualcomm Incorporated Adaptive loop filtering for chroma components
TWI461066B (zh) * 2011-11-03 2014-11-11 Ind Tech Res Inst 彈性調整估算搜尋範圍的移動估算方法及視差估算方法
US9756353B2 (en) 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
US20130208809A1 (en) * 2012-02-14 2013-08-15 Microsoft Corporation Multi-layer rate control
US9596463B2 (en) * 2012-02-22 2017-03-14 Qualcomm Incorporated Coding of loop filter parameters using a codebook in video coding
KR20180112099A (ko) * 2012-07-09 2018-10-11 브이아이디 스케일, 인크. 멀티 레이어 비디오 코딩용 코덱 아키텍처
US20140086319A1 (en) * 2012-09-25 2014-03-27 Sony Corporation Video coding system with adaptive upsampling and method of operation thereof
TW201436531A (zh) * 2012-09-28 2014-09-16 Vid Scale Inc 多層視訊編碼適應性升取樣
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
US20140198846A1 (en) * 2013-01-16 2014-07-17 Qualcomm Incorporated Device and method for scalable coding of video information
US10034008B2 (en) 2013-03-06 2018-07-24 Samsung Electronics Co., Ltd. Method and apparatus for scalable video encoding using switchable de-noising filtering, and method and apparatus for scalable video decoding using switchable de-noising filtering
US20140269943A1 (en) * 2013-03-12 2014-09-18 Tandent Vision Science, Inc. Selective perceptual masking via downsampling in the spatial and temporal domains using intrinsic images for use in data compression
US20140267916A1 (en) * 2013-03-12 2014-09-18 Tandent Vision Science, Inc. Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression
US8897378B2 (en) 2013-03-12 2014-11-25 Tandent Vision Science, Inc. Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression
EP2973225A4 (en) * 2013-03-12 2016-11-16 Tandent Vision Science Inc SELECTIVE PERCEPTIVE MASKING THROUGH SCALE SEPARATION IN SPATIAL AND TEMPORAL DOMAINS USING INTRINSIC IMAGES FOR USE IN DATA COMPRESSION
US10091419B2 (en) * 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US9648351B2 (en) * 2013-10-24 2017-05-09 Dolby Laboratories Licensing Corporation Error control in multi-stream EDR video codec
US9589206B2 (en) * 2013-12-05 2017-03-07 Hochschule Pforzheim Optimizing an image filter
JP2016005043A (ja) * 2014-06-13 2016-01-12 株式会社リコー 情報処理装置およびプログラム
CN107211128B (zh) * 2015-03-10 2021-02-09 苹果公司 自适应色度下采样和色彩空间转换技术
WO2017083784A1 (en) 2015-11-11 2017-05-18 Apple Inc. Adaptive chroma downsampling and color space conversion techniques
GB201607879D0 (en) * 2016-05-05 2016-06-22 Magic Pony Technology Ltd Video encoding using hierarchical algorithms
FR3087309B1 (fr) 2018-10-12 2021-08-06 Ateme Optimisation d'un sous-echantillonnage intervenant avant le codage d'images en compression
KR102158007B1 (ko) * 2018-12-24 2020-09-22 서울과학기술대학교 산학협력단 하이브리드망 기반의 영상 전송 시스템 및 방법
WO2020139414A1 (en) * 2018-12-24 2020-07-02 Google Llc Video stream adaptive filtering for bitrate reduction
US20200314423A1 (en) * 2019-03-25 2020-10-01 Qualcomm Incorporated Fixed filters with non-linear adaptive loop filter in video coding
US11445222B1 (en) 2019-09-30 2022-09-13 Isize Limited Preprocessing image data
KR20210067783A (ko) 2019-11-29 2021-06-08 삼성전자주식회사 전자 장치, 그 제어 방법 및 시스템
EP3846477B1 (en) * 2020-01-05 2023-05-03 Isize Limited Preprocessing image data
EP3989587A1 (en) 2020-10-21 2022-04-27 Axis AB Image processing device and method of pre-processing images of a video stream before encoding
WO2022183358A1 (zh) 2021-03-02 2022-09-09 京东方科技集团股份有限公司 视频图像去交错方法和视频图像去交错装置
US11917162B2 (en) * 2021-04-30 2024-02-27 Tencent America LLC Content-adaptive online training with feature substitution in neural image compression
EP4171033A1 (en) 2021-10-20 2023-04-26 Axis AB A method for encoding a video stream

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5193000A (en) 1991-08-28 1993-03-09 Stereographics Corporation Multiplexing technique for stereoscopic video system
CN1199468C (zh) * 2000-01-12 2005-04-27 皇家菲利浦电子有限公司 图像数据压缩
JP2001245298A (ja) * 2000-03-01 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> 画像符号化装置、画像符号化方法及び画像符号化プログラムを記憶した媒体
US7953152B1 (en) * 2004-06-28 2011-05-31 Google Inc. Video compression and encoding method
EP1631090A1 (en) * 2004-08-31 2006-03-01 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus and moving picture decoding apparatus
JP2006180470A (ja) * 2004-11-26 2006-07-06 Canon Inc 画像処理装置及び画像処理方法
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
US20070110155A1 (en) * 2005-11-15 2007-05-17 Sung Chih-Ta S Method and apparatus of high efficiency image and video compression and display
US8023569B2 (en) * 2005-12-15 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for block-based residual upsampling
US20070160134A1 (en) * 2006-01-10 2007-07-12 Segall Christopher A Methods and Systems for Filter Characterization
US7881552B1 (en) * 2006-05-16 2011-02-01 Adobe Systems Incorporated Anti-flicker filter
US20080095235A1 (en) * 2006-10-20 2008-04-24 Motorola, Inc. Method and apparatus for intra-frame spatial scalable video coding
JP2008109247A (ja) * 2006-10-24 2008-05-08 Matsushita Electric Ind Co Ltd ビデオ・ノイズをフィルタリングする方法、装置、集積回路およびエンコーダ
US20100027622A1 (en) * 2006-10-25 2010-02-04 Gokce Dane Methods and apparatus for efficient first-pass encoding in a multi-pass encoder
EP1919209A1 (en) * 2006-10-31 2008-05-07 Sony Deutschland Gmbh Method and device for fast and effective noise reduction
WO2008075247A1 (en) * 2006-12-18 2008-06-26 Koninklijke Philips Electronics N.V. Image compression and decompression
US8238424B2 (en) * 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
JP2010525724A (ja) * 2007-04-25 2010-07-22 エルジー エレクトロニクス インコーポレイティド ビデオ信号をデコーディング/エンコーディングする方法および装置
JP4709189B2 (ja) * 2007-07-23 2011-06-22 日本電信電話株式会社 スケーラブル動画像符号化方法,スケーラブル動画像符号化装置,およびそのプログラムとそれを記録したコンピュータ読み取り可能な記録媒体
WO2010120804A1 (en) * 2009-04-13 2010-10-21 Reald Inc. Encoding, decoding, and distributing enhanced resolution stereoscopic video

Also Published As

Publication number Publication date
EP2422521B1 (en) 2013-07-03
JP2012231526A (ja) 2012-11-22
HK1214440A1 (zh) 2016-07-22
CN102450009B (zh) 2015-07-22
EP2663076A2 (en) 2013-11-13
JP5044057B2 (ja) 2012-10-10
US20120033040A1 (en) 2012-02-09
JP5364820B2 (ja) 2013-12-11
CN104954789A (zh) 2015-09-30
EP2663076B1 (en) 2016-09-14
CN102450009A (zh) 2012-05-09
EP2422521A1 (en) 2012-02-29
WO2010123855A1 (en) 2010-10-28
EP2663076A3 (en) 2014-03-05
JP2012521734A (ja) 2012-09-13
DK2663076T3 (en) 2016-12-05

Similar Documents

Publication Publication Date Title
ES2602326T3 (es) Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo
US8681873B2 (en) Data compression for video
US20150010243A1 (en) Method for encoding/decoding high-resolution image and device for performing same
EP2529553B1 (en) Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
US20130089265A1 (en) Method for encoding/decoding high-resolution image and device for performing same
KR20110081304A (ko) 화상 예측 부호화 장치, 화상 예측 복호 장치, 화상 예측 부호화 방법, 화상 예측 복호 방법, 화상 예측 부호화 프로그램, 및 화상 예측 복호 프로그램
US11206418B2 (en) Method of image encoding and facility for the implementation of the method
KR20170083117A (ko) 디지털 이미지의 블록의 마스크 기반 처리를 위한 시스템 및 방법
KR20190033624A (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN113366847B (zh) 用于视频编解码的方法、装置及可读介质
KR102012906B1 (ko) 디지털 이미지의 블록을 처리하는 시스템 및 방법
Yeh et al. Predictive texture synthesis-based intra coding scheme for advanced video coding
KR101700410B1 (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
BR112021001245A2 (pt) codificador, decodificador, método de codificação e método de decodificação
BR112021001890A2 (pt) codificador, decodificador, método de codificação e método de decodificação
BR112021000616A2 (pt) Codificador, decodificador, método de codificação e método de decodificação
US10742979B2 (en) Nonlinear local activity for adaptive quantization
CN109587481B (zh) 视频编码方法及设备
EP2899975A1 (en) Video encoder with intra-prediction pre-processing and methods for use therewith
US20130170565A1 (en) Motion Estimation Complexity Reduction
EP4383717A1 (en) Coding unit prediction using template matching costs
KR20110087871A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
Nalluri A fast motion estimation algorithm and its VLSI architecture for high efficiency video coding
Abdoli A dynamic predictive search algorithm for fast block-based motion estimation
CN118042136A (zh) 编解码方法和装置