ES2602326T3 - Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo - Google Patents
Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo Download PDFInfo
- Publication number
- ES2602326T3 ES2602326T3 ES13171556.7T ES13171556T ES2602326T3 ES 2602326 T3 ES2602326 T3 ES 2602326T3 ES 13171556 T ES13171556 T ES 13171556T ES 2602326 T3 ES2602326 T3 ES 2602326T3
- Authority
- ES
- Spain
- Prior art keywords
- filter
- image
- preprocessing
- processing
- filters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007781 pre-processing Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 claims abstract description 70
- 230000003044 adaptive effect Effects 0.000 claims abstract description 34
- 238000005070 sampling Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 20
- 230000006872 improvement Effects 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 description 41
- 238000005457 optimization Methods 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 10
- 238000011144 upstream manufacturing Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 4
- 241000023320 Luma <angiosperm> Species 0.000 description 3
- 238000012300 Sequence Analysis Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011045 prefiltration Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010021403 Illusion Diseases 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
- H04N19/194—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un método para seleccionar un filtro de pre-procesamiento para una distribución escalable de vídeo, en donde la distribución escalable de vídeo comprende la codificación y la reconstitución de imágenes de entrada por intermedio de una capa de base y una o más capas de mejora, cuyo método comprende: introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento, en donde cada imagen de entrada entre las una o más imágenes de entrada está separada en al menos una zona; procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos, en donde el procesamiento comprende, para cada filtro de pre-procesamiento: sub-muestrear una imagen de entrada desde entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada; aplicar una codificación de capa base a la imagen sub-muestreada; interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; y aplicar una codificación en capa de mejora a la imagen resultante de la interpolación adaptativa hacia una segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa, utilizados para la interpolación adaptativa, pueden variar para diferentes zonas en la imagen sub-muestreada; para cada filtro de pre-procesamiento, evaluar una métrica de distorsión de la imagen de salida o de flujo de datos; y seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento y una realimentación operativa procedente de la interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros del filtro de interpolación adaptativa utilizados para la interpolación adaptativa.
Description
DESCRIPCIÓN
Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo
La presente solicitud es divisional de la solicitud de patente EP nº 10719456.5 presentada con fecha 19 de septiembre de 2011.
Dicha solicitud de patente EP10719456.5 es una solicitud de fase regional de patentes EP de aplicación internacional nº PCT/US2010/031693, presentada con fecha 20 de abril de 2010, que reivindica la prioridad para la solicitud provisional de Estados Unidos nº 61/242,242, presentada con fecha 14 de septiembre de 2009.
CAMPO DE LA INVENCIÓN
15 La presente idea inventiva se refiere a aplicaciones de vídeo. Más en particular, las formas de realización de la presente invención se refieren a métodos y dispositivos para la selección de filtros de pre-procesamiento y de parámetros de filtro habida cuenta del conocimiento de un proceso de predicción de capa de base (BL) a capa de mejora (EL) que tiene lugar en el decodificador y codificador de capa de mejora EL. Los métodos y dispositivos pueden aplicarse a varias aplicaciones tales como, a modo de ejemplo, codificación de vídeo temporalmente escalable y aplicaciones de vídeo en 3D escalable.
SUMARIO DE LA INVENCIÓN
25 La invención se define por las reivindicaciones independientes. Las reivindicaciones subordinadas se refieren a características opcionales de algunas formas de realización de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 ilustra una arquitectura de codificación de vídeo escalable que comprende una sección de codificación de capa de base (BL) y una sección de codificación de capa de mejora (EL).
La Figura 2 ilustra una arquitectura de decodificación correspondiente al sistema de codificación representado en la Figura 1.
35 La Figura 3 ilustra un proceso en bucle abierto para realizar la optimización de pre-procesador.
La Figura 4 ilustra un proceso en bucle cerrado para realizar una optimización de pre-procesador.
La Figura 5 ilustra un ejemplo adicional del proceso de bucle cerrado en donde tiene lugar una codificación simplificada.
La Figura 6 ilustra una etapa de filtro de pre-procesamiento precedida por una etapa de análisis de imagen/secuencia.
La Figura 7 ilustra una selección de filtros de pre-procesamiento por intermedio de la realimentación operativa recibida 45 desde el codificador de capa de mejora EL.
La Figura 8 ilustra una arquitectura en donde los parámetros de filtros de pre-procesamiento son objeto de predicción sobre la base de los filtros utilizados para las imágenes anteriores.
DESCRIPCIÓN DETALLADA DE FORMAS DE REALIZACIÓN A MODO DE EJEMPLO
A continuación se describen métodos y dispositivos para selección de filtros de pre-procesamiento.
En conformidad con una primera forma de realización, se da a conocer un método para seleccionar un filtro de pre
55 procesamiento para distribución de vídeo, que comprende: introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento; procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos; para cada filtro de pre-procesamiento, evaluar una métrica de la imagen de salida o flujo de datos; y seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de preprocesamiento sobre la base de la métrica evaluada para cada filtro de pre-procesamiento.
En conformidad con una tercera forma de realización, se da a conocer un selector de filtros de pre-procesamiento para la distribución de vídeo, que comprende: una pluralidad de filtros de pre-procesamiento adaptados para recibir una imagen de entrada; módulos de procesamiento para procesar la salida de cada filtro de pre-procesamiento para formar una imagen de salida o flujo de datos; módulos de evaluación de métricas para evaluar, para cada filtro de pre
65 procesamiento, una métrica de la imagen de salida o flujo de datos; y un selector de filtros de pre-procesamiento para seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la métrica evaluada para cada filtro de pre-procesamiento mediante los módulos de distorsión.
En conformidad con una cuarta forma de realización, se da a conocer un codificador para codificar una señal de vídeo en 5 conformidad con el método o métodos anteriormente citados.
En conformidad con una quinta forma de realización, se da a conocer un aparato para codificar una señal de vídeo en conformidad con el método o métodos anteriormente citados.
En conformidad con una sexta forma de realización, se da a conocer un sistema para codificar una señal de vídeo en conformidad con el método o métodos anteriormente citados.
En conformidad con una séptima forma de realización, se da a conocer un soporte legible por ordenador que contiene un conjunto de instrucciones que hace que un ordenador realice el método o métodos anteriormente citados.
15 En conformidad con una octava forma de realización, se da a conocer el uso del método o métodos anteriormente citados para codificar una señal de vídeo.
Un método para la distribución de vídeo escalable es para sub-muestrear la señal de vídeo original para una más baja resolución y para codificar los datos sub-muestreados en un flujo de bits de capa de base (BL). El vídeo decodificado de capa de base puede muestrearse luego, en sentido ascendente, para obtener una predicción de la señal de vídeo de resolución completa original. La capa de mejora (EL) puede utilizar esta predicción como una referencia y codificar la información residual que se requiere para recuperar la señal de vídeo de resolución completa original. El sub-muestreo de resolución puede tener lugar en los dominios espaciales, temporales y de precisión de pixels. Véase, a modo de
25 ejemplo, el documento de J.R. Ohm, titulado “Avances en la codificación de vídeo escalable”, Proceedings of the IEEE, vol. 93, nº 1, enero 2005. La distribución de vídeo escalable puede estar también relacionada con la escalabilidad de profundidad de bits, así como con la escalabilidad de multivista o en 3D.
Aunque las figuras y algunas formas de realización de la presente solicitud de patente hacen referencia a una capa de mejora única, la presente idea inventiva está también destinada a casos en donde más de una capa de mejora está presente, para mejorar todavía más la calidad de la señal de vídeo decodificada o para mejorar la funcionalidad/flexibilidad/complejidad del sistema de distribución de vídeo.
La Figura 1 ilustra una realización, a modo de ejemplo, de dicho sistema de codificación de vídeo escalable en donde, a
35 modo de ejemplo, solamente se utiliza una capa de mejora. El módulo predictor de BL (capa de base) a EL (capa de mejora) (110) predice la capa de mejora EL a partir de la señal de vídeo de capa de base BL reconstituida e introduce la predicción como una referencia al codificador de capa de mejora EL (120).
En el caso de transmisión de datos de vídeo de múltiples vistas, o en estéreo, el sub-muestreo puede ser un resultado de la intercalación de diferentes vistas en una sola imagen para la finalidad de transmisión a través de las conexiones de distribución de vídeo existentes. A modo de ejemplo, la disposición en ajedrezado, línea por línea, lado por lado, arribaabajo, son algunas de las técnicas utilizadas para intercalar dos vistas en 3D estereoscópicas en una sola imagen entrelazada a izquierda/derecha para la finalidad de la distribución. En cada caso, diferentes métodos de sub-muestreo pueden utilizarse también tales como a tresbolillo, horizontal, vertical, etc.
45 La solicitud de patente provisional de Estados Unidos nº 61/140,886, presentada con fecha 25 de diciembre, ilustra varias técnicas de interpolación adaptativa de contenidos que pueden utilizarse dentro de un bloque predictor de BL a EL (110) que se representa en la Figura 1. Además, la solicitud de patente provisional de Estados Unidos nº 61/170,995, presentada con fecha 20 de abril de 2009, ilustra técnicas de interpolación dirigidas, en donde los sistemas de interpolación están adaptados dependiendo del contenido y de la zona de imagen objeto de interpolación y los filtros óptimos se señalizan como metadatos para el decodificador de capas de mejora.
La Figura 2 ilustra la arquitectura del decodificador correspondiente para las capas BL y EL. El predictor de BL a EL (210) en el lado del decodificador utiliza las imágenes reconstituidas de capa de base (220) junto con los metadatos de
55 interpolación guiada (230) – correspondiente a los metadatos del predictor (130) de la Figura 1 – para generar una predicción (240) de la capa EL. Los metadatos del predictor se describen con más detalle en la solicitud de patente provisional de Estados Unidos 61/170,995, presentada el 20 de abril de 2009.
Volviendo a la Figura 1, la creación de las imágenes de las capas BL y EL puede ir precedida por módulos de preprocesamiento (140), (150). El pre-procesamiento se aplica a imágenes o vídeo antes de la compresión con el fin de mejorar la eficiencia de la compresión y atenuar los denominados artefactos informáticos. El módulo de preprocesamiento puede comprender, a modo de ejemplo, un filtro de muestreo descendente que está diseñado para eliminar los artefactos informáticos tales como la interferencia denominada aliasing de las imágenes sub-muestreadas. Los filtros de muestreo descendente pueden ser filtros de respuesta de impulsos finitos (FIR) fijos tales como los 65 descritos en el documento de W. Li, J-R. Ohm, M. van der Schaar, H. Jiang y S. Li, titulado “Modelo de verificación de vídeo MPEG-4, versión 18.0”, ISO/IEC JTC1/SC29/WG11 N3908, enero 2001, filtros temporales compensados en
movimiento tales como los descritos en el documento de E. Dubois y S. Sabri, titulado “Reducción del ruido en secuencias de imágenes utilizando un filtrado temporal compensado en movimiento”, IEEE Trans. on Communications, Vol. COM-32, nº 7, con fecha julio 1984 o filtros adaptativos tales como los descritos en el documento S. Chang, B. Yu y
M. Vetterli, titulado “Umbral de ondulación adaptativa para supresión de ruido y compresión de la imagen”, IEEE Trans.
5 on Imagen Processing, vol. 9, nº 9, páginas 1532-1546, de fecha septiembre de 2000. Los filtros de muestreo descendente pueden estar también conjuntamente optimizados con un proceso de interpolación/muestreo ascendente particular, tal como se describe en el documento de Y. Tsaig, M. Elad, P. Milanfar y G. Golub, titulado “Predicción variable para filtrado casi-óptimo en codificadores de tasas de bits bajas”, IEEE Trans. Sobre circuitos y sistemas para tecnología de vídeo, vol. 15, nº 1, páginas 154-160, enero 2005.
En las siguientes figuras, se describirán formas de realización de métodos y dispositivos para selección de filtros de preprocesamiento y parámetros de filtros dado el conocimiento del proceso de predicción desde una capa a otra (p.ej., BL a EL). En particular, la forma de realización ilustrada en la Figura 3 contiene una hipótesis para cómo se realizará la predicción de BL a EL. Dicha hipótesis no está basada en la predicción desde las imágenes reconstituidas de BL reales
15 después de la compresión y en cambio, está basada en la predicción de las imágenes no comprimidas (en bucle abierto). Por otro lado, las formas de realización ilustradas en la Figura 4 se refieren a la predicción a partir de las imágenes reconstituidas de BL después de la compresión (bucle cerrado). Según se ilustra en la Figura 5, sin embargo, una compresión simplificada puede utilizarse para la finalidad de reducir la complejidad del proceso de selección de filtros. La compresión simplificada es una aproximación del comportamiento del proceso de compresión completo y permite la consideración de la codificación de artefactos y tasas de bits que pueden introducirse mediante el proceso de compresión.
La Figura 3 ilustra una forma de realización de un pre-procesador y de un método de optimización de pre-procesamiento en conformidad con la idea inventiva. Un módulo de selección de zona opcional (310) separa una imagen de entrada u
25 origen (320) en múltiples zonas. Un ejemplo de dicho módulo de selección de zonas se describe en el documento de la solicitud de patente provisional de Estados Unidos nº 61/170,995, presentada con fecha 20 de abril de 2009. La separación de la imagen de entrada en múltiples zonas permite un diferente pre-procesamiento e interpolación adaptativa a realizarse en cada zona habida cuenta de las características de contenidos de esa zona.
Para cada zona, una búsqueda del filtro de pre-procesamiento óptimo se realiza a través de un conjunto de filtros 1-N indicados como (330-1), (330-2), (330-3), …, (330-N). Los filtros de pre-procesamiento pueden ser filtros separables o no separables, filtros de FIR con diferentes longitudes de soporte, filtros direccionales tales como filtros horizontales, verticales o diagonales, filtros de dominio de frecuencias tales como filtros sobre la base de la transformada cosenoidal discreta (DCT) u ondulación, filtros adaptativos periféricos, filtros temporales compensados en movimiento, etc.
35 La salida de cada filtro (330-i) es objeto de posterior sub-muestreo para la resolución para la capa BL en los respectivos módulos de sub-muestreo (340-1), (340-2), (340-3), …, (340-N).
Los expertos en esta técnica entenderán también que otras formas de realización de los filtros de pre-procesamiento y de los modos de sub-muestreo son también posibles, p.ej., los filtros de pre-procesamiento y los módulos de sub-muestreo pueden integrarse juntos en un componente único o los filtros de pre-procesamiento pueden seguir los módulos de submuestreo en lugar de los precedentes según se ilustra en la Figura 3.
En el caso de un sistema de codificación de vídeo escalable estereoscópico en 3D, la salida sub-muestreada de cada
45 filtro se envía luego por intermedio de un intercalador en 3D para crear imágenes entrelazadas en 3D sub-muestreadas que serán parte de la señal de vídeo de capa de base. Una realización ejemplo de un intercalador en 3D puede encontrarse en la patente de Estados Unidos nº 5,193,0000. Por otro lado, en un caso no en 3D, puede proporcionarse un denominado decimador. A continuación, las imágenes objeto de muestreo ascendente son muestreadas de forma adaptativa, utilizando métodos tales como los descritos en la patente provisional de Estados Unidos 61/140,886 y la patente provisional de Estados Unidos 61/170,995. El intercalador en 3D o el decimador y el muestreo ascendente adaptativo (o, más en general, una técnica que procese la salida sub-muestreada para formar una imagen de salida o flujo de bits) se representan de forma genérica como bloques (350-1), (350-2), (350-3), …, (350-N) en la Figura 3. Según se ilustra en la Figura, la interpolación adaptativa utiliza también la información no filtrada original para determinar el mejor filtro de interpolación. Dicha información se proporciona desde el módulo de selección de zonas (310).
55 En los módulos de cálculo de la distorsión (360-1), (360-2), (360-3), …, (360-N), las imágenes objeto de muestreo ascendente se comparan con el origen de entrada original y se calcula una medida de la distorsión entre las imágenes originales y las imágenes procesadas. Para esta finalidad, pueden utilizarse métricas de distorsión tales como error cuadrático medio (MSE), relación de señal a ruido máxima (PSNR), así como pueden utilizarse, para esta finalidad, métricas de distorsión perceptual que están más adaptadas para las características de los sistemas visuales humanos.
Un módulo de selección de filtros (370) compara las características de distorsión de cada filtro de pre-procesamiento (330-i) y selecciona el filtro de pre-procesador óptimo para la codificación de esa zona de la señal de vídeo. La salida del filtro seleccionado es luego objeto de muestreo descendente (385) y se envía, además, por intermedio del proceso de 65 codificación (390). Como alternativa, el bloque 370 puede seleccionar entre salidas ya objeto de muestreo descendente
de los filtros en lugar de seleccionar entre los propios filtros. En tal caso, no se necesitará el módulo de muestreo descendente 385.
El módulo de selección de filtros (370) puede recibir también como entrada (380) estadísticas basadas en zonas
5 adicionales tales como textural, información periférica, etc., procedentes del selector de zonas (310), que puede ayudar con las decisiones de filtros. A modo de ejemplo, dependiendo de la zona, los pesos de ponderación dados a las estimaciones de la distorsión de un filtro pueden aumentarse respecto a otro.
El proceso en bucle abierto representado en la Figura 3 no es óptimo, en el sentido de que en un sistema real, según se ilustra en la Figura 1, la interpolación adaptativa para la predicción de BL a EL tiene lugar sobre las imágenes de BL reconstituidas del decodificador y no sobre el contenido pre-procesado original. El proceso en bucle abierto, sin embargo, es menos intensivo en cálculo informático y puede realizarse “offline” antes de la codificación real del contenido.
Los expertos en esta técnica entenderán también que la forma de realización de la Figura 3 no es específica para una
15 arquitectura escalable. Además, dicha forma de realización puede aplicarse solamente a la capa EL, solamente a la capa BL o a ambas capas EL y BL. Asimismo, diferentes pre-procesadores pueden utilizarse para las capas BL y EL, si así se desea. En el caso de pre-procesamiento de capa de mejora EL, puede realizarse también un muestreo descendente sobre las muestras, p.ej., muestras que no estaban contenidas en la capa de base BL.
La Figura 4 ilustra, una muestra de la presente idea inventiva, en donde se representa un proceso en bucle cerrado para realizar la optimización de pre-procesador. En particular, una etapa de codificación (450-i) se da a conocer para la salida sub-muestreada de cada filtro (430-i). En la etapa de codificación (450-i), cada salida de los filtros es completamente codificada y luego reconstituida (455-i), a modo de ejemplo en conformidad con el sistema ilustrado en la Figura 1. En el caso de codificación de vídeo escalable, dicha codificación comprende la codificación de capa de base BL, la
25 interpolación adaptativa para la predicción de capa BL a capa EL y la codificación de capa EL. La Figura 4 ilustra una realización ejemplo en donde ambos filtros EL (435-11),… (435-1M) se proporcionan para un filtro de capa BL (430-1) y así sucesivamente, hasta el filtro de BL (430-N), para lo que se proporcionan filtros de EL (435-N1) … (435-NM).
Los flujos de bits codificados y reconstituidos a la salida de los módulos (455-i) se utilizan para dos fines: i) cálculo de distorsiones (460-i) y ii) entradas (465) del módulo de selección de filtros (470). En particular, el módulo de selección de filtros (470) seleccionará una de las entradas (465) como salida de flujo de bits codificado (490) en conformidad con las salidas de los módulos de distorsión (460-i). Más concretamente, el filtro que muestra la menor distorsión para cada zona se selecciona como el pre-procesador.
35 La optimización de filtros en conformidad con el ejemplo ilustrado en la Figura 4, puede considerar también la tasa de bits resultante u objetivo, además de la distorsión. Dicho de otro modo, dependiendo del filtro seleccionado, el codificador puede requerir un número diferente de bits para codificar las imágenes. Por lo tanto, en conformidad con una realización ejemplo de la presente idea inventiva, la selección de filtros óptimos puede considerar los bits requeridos para la codificación, además de la distorsión después de los procesos de codificación y/o post-procesamiento. Lo que antecede puede formularse como un problema de optimización en donde el objetivo es minimizar el objeto de distorsión para una limitación de tasas de bits. Una posible técnica para realizar lo que antecede es la denominada optimización Lagrangiana. Dicho proceso tiene lugar en el módulo de selección de filtros (470) y utiliza i) la distorsión calculada en los módulos D (460-i) e ii) las tasas binarias disponibles desde los módulos de codificación (450-i).
45 Más en general, se puede realizar también una optimización basada en uno o más de varios tipos de métricas. Estas métricas pueden incluir la distorsión y/o tasa binaria anteriormente citada, pero puede también extenderse al coste, energía, tiempo, complejidad de cálculo y/o otros tipos de métricas.
Aunque el método descrito en el apartado anterior proporcionará los resultados de filtros óptimos de tasa-distorsión, es muy consumidor de recursos informáticos. Varios métodos para reducir la carga de cálculo informático de dicho ejemplo se examinarán en las figuras siguientes.
La Figura 5 ilustra una realización ejemplo alternativa en donde, para cada selección de filtro potencial, en lugar de calcular la imagen codificada verdadera y la imagen reconstituida del codificador, se utiliza una codificación simplificada
55 (550-i) y la reconstitución como una estimación de la reconstitución verdadera del decodificador.
A modo de ejemplo, una codificación de complejidad total (575) puede realizarse solamente después de que haya concluido la selección de filtros (570). A continuación, los codificadores simplificados (550-i) pueden actualizarse utilizando, a modo de ejemplo, la información de imagen reconstituida y en movimiento (577) a partir del codificador de complejidad total (575). A modo de ejemplo, las memorias intermedias de imágenes de referencia (véase elementos 160, 170 de la Figura 1) de los codificadores simplificados pueden actualizarse para contener las imágenes reconstituidas a partir del codificador simplificado. De modo similar, la información en movimiento generada en el codificador completo, para las zonas anteriores, puede utilizarse en el módulo de estimación de la disparidad de los codificadores simplificados (550-i). A modo de ejemplo, el codificador simplificado podría crear un modelo sobre la base de una denominada 65 codificación intra solamente que utiliza los mismos parámetros de cuantización utilizados a partir del codificador de complejidad global. Como alternativa, el codificador simplificado podría utilizar el filtrado que está basado en una relación
de frecuencias a parámetros de cuantización, p.ej., mediante la creación de un modelo de relación de parámetro de cuantización a frecuencia. Además, si se requiere una más alta exactitud, una falta de coincidencia entre los codificadores simplificados y los codificadores de complejidad completa podría utilizarse para actualizar todavía más el modelo.
5 La codificación simplificada realizada por bloques (550-i) antes de la selección de filtros puede ser, a modo de ejemplo, una codificación intra solamente con el fin de eliminar la complejidad de la estimación del movimiento y la compensación correspondiente. Por otro lado, si se utiliza una estimación del movimiento, en tal caso se puede inhibir la estimación del movimiento de sub-pixels. Otra alternativa puede ser la de utilizar un método de optimización de distorsión de nivel de complejidad bajo en lugar de explorar todas las decisiones de codificación posibles durante la compresión. Filtros adicionales tales como filtros de bucles y filtros de post-procesamiento pueden inhibirse o simplificarse. Para realizar una simplificación, se puede activar o desactivar el filtro completamente, o limitar el número de muestras que se utilizan para el filtrado. También es posible ajustar los parámetros de filtro de modo que el filtro utilizará con menos frecuencia y/o utilizará un proceso simplificado para decidir si el filtro se utilizará, o no, para un periférico de bloque particular. Además,
15 los filtros utilizados para algunos componentes de croma pueden inhibirse y estimarse sobre la base de los utilizados para otros componentes de croma o de luma. Además, en otro ejemplo la selección de filtros puede optimizarse para una subzona (p.ej., la parte central de cada zona) en lugar de optimizar una zona completa. En algunos casos, el codificador simplificado puede realizar también la codificación a una resolución más baja o en una complejidad de optimización de distorsión de más baja tasa (RDO). Además, la estimación de la disparidad puede limitarse a medir solamente la disparidad en unidades de pixels completas en lugar de unidades de sub-pixels. Se puede utilizar también una codificación de entropía simplificada (módulo VLC). Asimismo, solamente puede codificarse la componente de luma para la imagen y la distorsión y la tasa para el componente de croma pueden estimarse como una función del luma. En otra realización ejemplo, la codificación simplificada puede ser simplemente un proceso de predicción que modela la salida de los bloques 550-i sobre la base de la salida anterior del codificador completo (bloque 575).
25 La totalidad de las opciones anteriores pueden producirse en los codificadores simplificados (550-i). Dicho de otro modo, los codificadores simplificados (550-i) pueden incluir la totalidad de los módulos de codificación ilustrados en la Figura 1 y cada uno de dichos módulos pueden simplificarse (solos o en combinación) según se describió con anterioridad, intentando mantener la salida no muy distinta de la salida de un codificador completo.
La Figura 6 ilustra otro ejemplo de la presente idea inventiva, en donde una etapa de filtro de pre-procesamiento (610) está precedida por una etapa de análisis de imagen/secuencia (620). La etapa de análisis (620) puede determinar un conjunto reducido (630) de filtros de pre-procesamiento a utilizarse en la optimización. El bloque de análisis de imagen/secuencia (620) puede comprender un cálculo de textura y/o varianza (en el dominio espacial y/o en el
35 transcurso del tiempo) para determinar el tipo de filtros que son necesarios para la aplicación particular en cuestión. A modo de ejemplo, zonas alisadas de la imagen pueden no requerir ningún prefiltrado, en absoluto, antes de la codificación. Algunas zonas pueden requerir, a la vez, un filtrado espacial y un filtrado temporal, mientras que otras solamente pueden requerir un filtrado espacial o temporal. En el caso de escalabilidad de profundidad de bits, las curvas de mapeo de asignación de tonos pueden optimizarse para cada zona. Si se utilizan filtros direccionales, el módulo de análisis de imagen (620) puede incluir análisis sintáctico periféricos para determinar si deben incluirse, o no, filtros direccionales en la optimización y si es así, para determinar las direcciones dominantes a lo largo de las cuales realizar el filtrado. Si así se desea, estas técnicas pueden incorporarse también en el módulo de selección de zonas. Además, un criterio de terminación anticipada puede utilizarse mediante cuyo criterio si un filtro se demuestra que proporciona un rendimiento de tasa-distorsión superior a un valor umbral especificado, no se evaluará ningún filtro adicional en la
45 optimización. Dicho método puede combinarse fácilmente con el análisis de imágenes para reducir todavía más el número de filtros a través de los cuales se realiza una búsqueda.
La Figura 7 ilustra otra forma de realización de la presente idea inventiva, en donde la selección de filtros de preprocesamiento (710) es objeto de ayuda por una realimentación operativa adicional (740) (además de la medida de la distorsión) recibida desde el codificador de capa de mejora (720). A modo de ejemplo, la realimentación operativa podría incluir información sobre los parámetros de filtro de muestreo ascendente adaptativos utilizados para poder generar la predicción de BL a EL. En consecuencia, la selección de filtros de muestreo descendente puede adaptarse para obtener el mejor rendimiento del filtro de muestreo ascendente adaptativo a partir de la etapa de optimización anterior. Lo que antecede puede servir también de ayuda en la selección de zonas para pre-procesamiento.
55 A modo de ejemplo, la imagen puede separarse en múltiples zonas más pequeñas y, en la etapa inicial, un filtro de preprocesamiento diferente puede asumirse para cada zona. Dicha forma de realización puede ser de utilidad en un sistema simplificado en donde no se realiza ningún análisis de imagen anterior. En tal caso, la información de muestreo ascendente (p.ej., si el muestreador ascendente seleccionó, o no, el mismo filtro de muestreo ascendente para múltiples zonas) puede tratarse como una indicación de cómo debería comportarse también la mejor selección de filtro de muestreo descendente. A modo de ejemplo, si los filtros de muestreo ascendente son los mismos para la imagen completa, quizás no sea necesaria la partición de la imagen en zonas y optimizar los filtros de muestreo descendente por separado para cada zona.
65 Después de la codificación de la capa de base BL en el módulo (730), sin embargo, la optimización de la predicción de capas BL a EL puede determinar que el mismo filtro de muestreo ascendente era suficiente para la predicción de
5
15
25
35
45
55
65
múltiples zonas de la imagen. En ese caso, el pre-procesador puede adaptarse también para elegir el mismo, o similar, filtro de pre-procesamiento para esas zonas. Lo que antecede reducirá el número de zonas en las cuales necesita realizarse la optimización en bucle cerrado completa y por lo tanto, se reduce el tiempo de cálculo del proceso. Más en general, esta etapa puede aplicarse también a configuraciones distintas de las configuraciones de BL/EL.
La carga de cálculo de la optimización del pre-procesador puede reducirse todavía más mediante la predicción de los parámetros de filtros de pre-procesamiento sobre la base de los filtros utilizados para imágenes anteriores, o zonas de imagen, de la secuencia. La Figura 8 ilustra una realización ejemplo de dicho sistema.
A modo de ejemplo, la optimización de pre-procesador (810) puede realizarse una vez cada N imágenes/zonas, en donde N es un valor fijo o un valor adaptado sobre la base de los recursos de cálculo disponibles y del tiempo también disponible. En una forma de realización, la decisión (830) de si utilizar, o no, parámetros de filtros previamente optimizados puede depender de la información obtenida a partir del módulo de análisis de imágenes (820) (véase también el módulo de análisis de imágenes (620) de la Figura 6). A modo de ejemplo, si dos imágenes, o zonas de imágenes, se encuentran en una correlación elevada, en tal caso, los parámetros de filtros necesitan optimizarse solamente una vez para una de las zonas y pueden reutilizarse/reajustarse (840) luego para la otra zona. Las zonas de imágenes pueden ser cercanas espaciales o temporales o, en el caso de multivista, zonas de imágenes correspondientes desde cada vista. A modo de ejemplo, cuando se consideran dos imágenes consecutivas de la secuencia de vídeo, la diferencia absoluta media de valores de pixels entre las dos imágenes puede utilizarse como una medida de la correlación temporal y si la diferencia absoluta media es inferior a un valor umbral, en tal caso, pueden reutilizarse los filtros (840).
En otra forma de realización, la decisión (830) de si reutilizar, o no, el mismo filtro, puede realizarse sobre la base del cálculo de la distorsión, en relación con el origen de vídeo original, después de la reconstitución de la imagen decodificada. Si la distorsión calculada es superior a un valor umbral especificado o si la distorsión calculada aumenta notablemente desde la que tenía en la imagen/zona anterior, en tal caso, puede realizarse la optimización del preprocesador.
En otra forma de realización, la información del movimiento que se calcula en la etapa de análisis de imágenes o durante la codificación de vídeo, puede utilizarse para determinar el movimiento de zonas dentro de la imagen. A continuación, los parámetros de filtros utilizados a partir de la imagen anterior pueden seguir el movimiento de la zona correspondiente.
En otra forma de realización, las regiones próximas pueden utilizarse para determinar el filtro establecido para realizar la búsqueda del filtro óptimo. A modo de ejemplo, si la optimización sobre las zonas próximas demuestra que un conjunto de M de entre N filtros totales posibles supera en rendimiento a los demás, en tal caso, solamente pueden utilizarse dichos M filtros en la optimización de la zona de imagen actual.
Además, el filtro utilizado para la zona actual puede adoptar la forma de
a*f(L, T, D, P) + b
en donde L es el valor de filtrado utilizado el filtro optimizado para la zona de imagen a la izquierda de la zona actual, T utiliza el filtro optimizado para la zona de imagen para la parte superior, D la zona de imagen en la parte superior derecha y P la zona de imagen co-localizada a partir de la imagen anterior. La función f combina los valores filtrados procedentes de cada filtro utilizando una medida de la media, mediana u otra medida que tenga en cuenta también la similitud de la zona actual para cada zona próxima. Las variables a y b pueden ser constantes, o depender de las características espaciales/temporales tales como movimiento y textura. Más en general, los filtros considerados podrían ser los de las zonas próximas que han sido ya seleccionados. Una forma de realización para el barrido por trama podría ser el caso L, T, D, P que se acaba de mencionar.
En otra forma de realización, además del rendimiento de tasa-distorsión de los filtros, puede considerarse también el rendimiento de “recurso-distorsión” de los filtros. En este caso, los recursos pueden incluir los bits disponibles pero también pueden incluir la potencia disponible en el dispositivo de codificación, el presupuesto de complejidad del cálculo y también las limitaciones de retardo en el caso de aplicaciones de tiempo limitado.
En otra forma de realización, la medida de la distorsión puede contener una combinación de múltiples métricas de distorsión, o calcularse teniendo en cuenta factores adicionales tales como errores de transmisión y ocultación de errores así como otros de métodos de post-procesamiento utilizados por dispositivos de presentación visual o de reproducción.
En conclusión, los métodos ilustrados en la presente idea inventiva pueden utilizarse para el pre-procesamiento adaptativo de zonas de una secuencia de vídeo. Los métodos están destinados a la mejora del rendimiento de tasadistorsión de la señal de vídeo de salida al mismo tiempo que se minimiza la complejidad de cálculo de la optimización. Aunque los métodos se describen como formas de realización separadas, pueden utilizarse también en combinación con un codificador de vídeo escalable de baja complejidad.
Aunque los ejemplos de la presente idea inventiva han sido proporcionados haciendo referencia a técnicas de distribución de vídeo escalables, las enseñanzas de la presente idea inventiva se aplican también a la distribución de vídeo no escalable. A modo de ejemplo, una aplicación sería si la señal de vídeo es objeto de muestreo descendente antes de la codificación para reducir los requisitos del ancho de banda y luego, interpolarse después de la decodificación 5 para una resolución completa. Si se utiliza una técnica de interpolación adaptativa, en tal caso, el muestreo descendente puede optimizarse para tener en cuenta la interpolación adaptativa. En caso de dichas aplicaciones no escalables, la salida será una salida de muestreo ascendente adaptativo en lugar de ser la salida del codificador de capa de mejora EL.
Otra aplicación es la codificación de vídeo intercalada, en donde los filtros de pre-procesamiento pueden optimizarse
10 sobre la base del sistema de desintercalación utilizado en el decodificador. Además, las enseñanzas de la presente idea inventiva pueden aplicarse a aplicaciones en 3D no escalables que sean similares a la codificación de vídeo con entrelazado, en donde las imágenes de vistas a la izquierda y a la derecha pueden ser objeto de muestreo descendente espacial o temporal y de intercalación antes de la codificación, y luego interpolarse, de forma adaptativa, en el decodificador para obtener la resolución espacial o temporal completa. En dicho escenario operativo, ambas vistas
15 derecha e izquierda pueden efectuar una predicción mutua. En un escenario operativo diferente, una sola capa puede contener una trama en un primer tipo de representación espacial en color, con profundidad de bits y/o escala (p.ej., logarítmica o lineal) y otra capa puede contener la misma trama en un segundo tipo de representación espacial en color, profundidad de bits y/o escala. Las enseñanzas de esta idea inventiva pueden aplicarse para optimizar la predicción y compresión de muestras en una sola capa con respecto a las muestras en la otra capa.
20 Los métodos y sistemas descritos en la presente idea inventiva pueden ponerse en práctica en hardware, software, firmware o una de sus combinaciones. Las características descritas como bloques, módulos o componentes pueden ponerse en práctica juntas (p.ej., en un dispositivo lógico tal como un dispositivo lógico integrado) o por separado (p.ej., como dispositivos lógicos conectados por separado). La parte de software de los métodos de la presente idea inventiva
25 puede comprender un soporte legible por ordenador que comprende instrucciones que, cuando se ejecutan, realizan, al menos en parte, los métodos descritos. El soporte legible por ordenador puede comprender, a modo de ejemplo, una memoria de acceso aleatorio (RAM) y/o una memoria de solamente lectura (ROM). Las instrucciones pueden ejecutarse por un procesador (p.ej., un procesador de señal digital (DSP), un circuito integrado específico de la aplicación (ASIC) o dispositivos lógicos programables in situ (FPGA)).
30 Los ejemplos anteriormente establecidos se dan a conocer para proporcionar a los expertos en esta técnica una revelación y descripción completa de cómo obtener y utilizar las formas de realización de la selección de filtros para el pre-procesamiento de señales de vídeo en aplicaciones de vídeo de la idea inventiva y no están previstas para limitar el alcance que los inventores consideran como su idea inventiva. Modificaciones de los modos anteriormente descritos para
35 realizar la idea inventiva pueden utilizarse por expertos en la técnica de vídeo y están previstos para estar previstos dentro del alcance de las reivindicaciones siguientes. Todas las patentes y publicaciones mencionadas en la especificación pueden ser indicativas de los niveles de conocimiento de los expertos en esta técnica a la que pertenece la idea inventiva.
40 Ha de entenderse que la idea inventiva no está limitada a métodos o sistemas particulares, que pueden variar, por supuesto. Ha de entenderse también que la terminología aquí utilizada es para la finalidad de describir formas de realización particulares solamente y no está prevista con carácter limitativo. Tal como se utilizan en esta especificación y en las reivindicaciones adjuntas, las formas singulares “un”, “una” y “el” y “la” incluyen los plurales correspondientes a no ser que el contexto lo dicte claramente de otro modo. El término “pluralidad” incluye dos o más referentes a no ser que el
45 contexto lo dicte claramente de otro modo. A no ser que se defina de otro modo, todos los términos técnicos y científicos aquí utilizados tienen el mismo significado como se suelen entender por un experto en esta técnica a la que pertenece la idea inventiva.
Se han descrito varias formas de realización de la idea inventiva. No obstante, se entenderá que pueden realizarse varias
50 modificaciones sin desviarse por ello del alcance de la presente idea inventiva. En consecuencia, otras formas de realización están dentro del alcance de las reivindicaciones siguientes.
55
Claims (8)
-
imagen1 REIVINDICACIONES1. Un método para seleccionar un filtro de pre-procesamiento para una distribución escalable de vídeo, en donde ladistribución escalable de vídeo comprende la codificación y la reconstitución de imágenes de entrada por intermedio de 5 una capa de base y una o más capas de mejora, cuyo método comprende:introducir una o más imágenes de entrada en una pluralidad de filtros de pre-procesamiento, en donde cada imagen de entrada entre las una o más imágenes de entrada está separada en al menos una zona;procesar la salida de cada filtro de pre-procesamiento para formar, para cada filtro de pre-procesamiento, una imagen de salida o un flujo de datos, en donde el procesamiento comprende, para cada filtro de pre-procesamiento:sub-muestrear una imagen de entrada desde entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada;15 aplicar una codificación de capa base a la imagen sub-muestreada;interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; yaplicar una codificación en capa de mejora a la imagen resultante de la interpolación adaptativa hacia una segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa, utilizados para la interpolación adaptativa, pueden variar para diferentes zonas en la imagen sub-muestreada;25 para cada filtro de pre-procesamiento, evaluar una métrica de distorsión de la imagen de salida o de flujo de datos; yseleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento y una realimentación operativa procedente de la interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros del filtro de interpolación adaptativa utilizados para la interpolación adaptativa. - 2. El método según la reivindicación 1, en donde, en el caso de entrada de vídeo en 3D, el procesamiento de la salida de cada filtro de pre-procesamiento comprende la intercalación de la salida sub-muestreada de cada filtro de preprocesamiento para crear imágenes en 3D intercaladas sub-muestreadas.35
-
- 3.
- El método según la reivindicación 1, en donde, en caso de entrada de vídeo no en 3D, el procesamiento de la salida de cada filtro de pre-procesamiento comprende la decimación de la salida sub-muestreada de cada filtro de preprocesamiento.
-
- 4.
- El método según una cualquiera de las reivindicaciones precedentes, que comprende, además:
analizar las imágenes de entrada antes de introducir las imágenes de entrada en la pluralidad de filtros de preprocesamiento determinando una medida de correlación entre las imágenes de entrada analizadas y las imágenes de entrada anteriores; y45 si la medida de la correlación supera un valor umbral, reducir el número de filtros de pre-procesamiento en los cuales las imágenes de entrada serán introducidas o el número de zonas a seleccionar posteriormente reutilizando filtros de preprocesamiento con parámetros de filtro de pre-procesamiento optimizados con anterioridad. - 5. El método según la reivindicación 4, en dondeel método es para distribución de vídeo escalable, incluyendo la distribución de vídeo escalable la codificación y la reconstitución de las imágenes de entrada por intermedio de una capa de base y una o más capas de mejora, y55 la pluralidad de filtros de pre-procesamiento comprende una pluralidad de filtros de capa de base y una pluralidad de filtros de capa de mejora.
- 6. Un selector de filtros de pre-procesamiento para una distribución de vídeo escalable, en donde la distribución de vídeo escalable comprende la codificación y la reconstitución de imágenes de entrada por intermedio de una capa de base y de una o más capas de mejora, comprendiendo el selector de filtros de pre-procesamiento:una pluralidad de filtros de pre-procesamiento adaptados para recibir una imagen de entrada;módulos de procesamiento para procesar la salida de cada filtro de pre-procesamiento para formar una imagen de salida 65 o un flujo de datos, en donde los módulos de procesamiento comprende:9
imagen2 un filtro de sub-muestreo para sub-muestrear una imagen de entrada de entre las una o más imágenes de entrada para una primera resolución con el fin de obtener una imagen sub-muestreada;un codificador de capa de base destinado a codificar la imagen sub-muestreada;5 un filtro de interpolación adaptativa para interpolar, de forma adaptativa, la imagen sub-muestreada codificada en capa de base con miras a una predicción de la capa de base hacia una capa de mejora; yun codificador de capa de mejora destinado a codificar la imagen resultante de la interpolación adaptativa hacia una10 segunda resolución para obtener la imagen de salida o el flujo de datos, en donde los parámetros de filtro de interpolación adaptativa del filtro de interpolación adaptativa que pueden variar para diferentes zonas en la imagen submuestreada;módulos de evaluación de métricas de distorsión que sirven para evaluar, para cada filtro de pre-procesamiento, una 15 métrica de distorsión de la imagen de salida o el flujo de datos; yun selector de filtros de pre-procesamiento que sirve para seleccionar un filtro de pre-procesamiento entre la pluralidad de filtros de pre-procesamiento sobre la base de la métrica de distorsión evaluada para cada filtro de pre-procesamiento por los módulos de evaluación de métricas de distorsión y una realimentación operativa que procede del filtro de20 interpolación adaptativa, en donde la realimentación operativa comprende información sobre los parámetros de filtro de interpolación adaptativa utilizados para la interpolación adaptativa. - 7. El selector de filtros de pre-procesamiento según la reivindicación 6, que comprende, además, un selector de zonaspara seleccionar una o más zonas de la imagen de entrada, en donde la pluralidad de filtros de procesamiento están 25 conectados con el selector de zonas y están adaptados para recibir las una o más zonas seleccionadas.
- 8. El selector de filtros de pre-procesamiento según la reivindicación 6, en donde la distribución de vídeo es una distribución de vídeo escalable, que comprende una codificación de capa de base y una codificación de capa de mejora.30 9. El selector de filtros de pre-procesamiento según la reivindicación 6, en donde la distribución de vídeo es una distribución de vídeo no escalable.3510
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17099509P | 2009-04-20 | 2009-04-20 | |
US170995P | 2009-04-20 | ||
US22302709P | 2009-07-04 | 2009-07-04 | |
US223027P | 2009-07-04 | ||
US24224209P | 2009-09-14 | 2009-09-14 | |
US242242P | 2009-09-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2602326T3 true ES2602326T3 (es) | 2017-02-20 |
Family
ID=42543023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13171556.7T Active ES2602326T3 (es) | 2009-04-20 | 2010-04-20 | Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo |
Country Status (8)
Country | Link |
---|---|
US (1) | US20120033040A1 (es) |
EP (2) | EP2663076B1 (es) |
JP (2) | JP5044057B2 (es) |
CN (2) | CN102450009B (es) |
DK (1) | DK2663076T3 (es) |
ES (1) | ES2602326T3 (es) |
HK (1) | HK1214440A1 (es) |
WO (1) | WO2010123855A1 (es) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9538176B2 (en) | 2008-08-08 | 2017-01-03 | Dolby Laboratories Licensing Corporation | Pre-processing for bitdepth and color format scalable video coding |
US9774882B2 (en) | 2009-07-04 | 2017-09-26 | Dolby Laboratories Licensing Corporation | Encoding and decoding architectures for format compatible 3D video delivery |
JP5916624B2 (ja) | 2010-01-06 | 2016-05-11 | ドルビー ラボラトリーズ ライセンシング コーポレイション | マルチ−レイヤ化されたビデオシステムのための複雑度を適応的にするスケーラブル復号及びストリーミング |
US8483271B2 (en) * | 2010-05-06 | 2013-07-09 | Broadcom Corporation | Method and system for 3D video pre-processing and post-processing |
JP5693716B2 (ja) | 2010-07-08 | 2015-04-01 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 参照処理信号を使った多層画像およびビデオ送達のためのシステムおよび方法 |
US8542751B2 (en) * | 2010-08-20 | 2013-09-24 | Intel Corporation | Techniques for identifying and reducing block artifacts |
KR102062821B1 (ko) * | 2010-09-29 | 2020-01-07 | 한국전자통신연구원 | 필터 정보 예측을 이용한 영상 부호화/복호화 방법 및 장치 |
WO2012044093A2 (ko) * | 2010-09-29 | 2012-04-05 | 한국전자통신연구원 | 필터 정보 예측을 이용한 영상 부호화/복호화 방법 및 장치 |
JP5663093B2 (ja) * | 2010-10-01 | 2015-02-04 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 参照ピクチャー処理のための最適化されたフィルタ選択 |
US9055305B2 (en) | 2011-01-09 | 2015-06-09 | Mediatek Inc. | Apparatus and method of sample adaptive offset for video coding |
US9161041B2 (en) | 2011-01-09 | 2015-10-13 | Mediatek Inc. | Apparatus and method of efficient sample adaptive offset |
JP5524423B2 (ja) * | 2011-01-09 | 2014-06-18 | メディアテック インコーポレイテッド | 効率的なサンプル適応オフセットの装置及び方法 |
US8780996B2 (en) | 2011-04-07 | 2014-07-15 | Google, Inc. | System and method for encoding and decoding video data |
KR20120118779A (ko) * | 2011-04-19 | 2012-10-29 | 삼성전자주식회사 | 전처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 부호화 방법 및 그 장치, 후처리 필터링을 수반한 계층 간 예측을 수행하는 비디오 복호화 방법 및 그 장치 |
GB2500347B (en) * | 2011-05-16 | 2018-05-16 | Hfi Innovation Inc | Apparatus and method of sample adaptive offset for luma and chroma components |
JP5552092B2 (ja) * | 2011-06-13 | 2014-07-16 | 日本電信電話株式会社 | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
US20130004071A1 (en) * | 2011-07-01 | 2013-01-03 | Chang Yuh-Lin E | Image signal processor architecture optimized for low-power, processing flexibility, and user experience |
WO2013006310A1 (en) * | 2011-07-01 | 2013-01-10 | Vidyo, Inc. | Loop filter techniques for cross-layer prediction |
US8923403B2 (en) * | 2011-09-29 | 2014-12-30 | Dolby Laboratories Licensing Corporation | Dual-layer frame-compatible full-resolution stereoscopic 3D video delivery |
US9807403B2 (en) | 2011-10-21 | 2017-10-31 | Qualcomm Incorporated | Adaptive loop filtering for chroma components |
TWI461066B (zh) * | 2011-11-03 | 2014-11-11 | Ind Tech Res Inst | 彈性調整估算搜尋範圍的移動估算方法及視差估算方法 |
US9756353B2 (en) | 2012-01-09 | 2017-09-05 | Dolby Laboratories Licensing Corporation | Hybrid reference picture reconstruction method for single and multiple layered video coding systems |
US20130208809A1 (en) * | 2012-02-14 | 2013-08-15 | Microsoft Corporation | Multi-layer rate control |
US9596463B2 (en) * | 2012-02-22 | 2017-03-14 | Qualcomm Incorporated | Coding of loop filter parameters using a codebook in video coding |
KR20180112099A (ko) * | 2012-07-09 | 2018-10-11 | 브이아이디 스케일, 인크. | 멀티 레이어 비디오 코딩용 코덱 아키텍처 |
US20140086319A1 (en) * | 2012-09-25 | 2014-03-27 | Sony Corporation | Video coding system with adaptive upsampling and method of operation thereof |
TW201436531A (zh) * | 2012-09-28 | 2014-09-16 | Vid Scale Inc | 多層視訊編碼適應性升取樣 |
US10085017B2 (en) * | 2012-11-29 | 2018-09-25 | Advanced Micro Devices, Inc. | Bandwidth saving architecture for scalable video coding spatial mode |
US20140198846A1 (en) * | 2013-01-16 | 2014-07-17 | Qualcomm Incorporated | Device and method for scalable coding of video information |
US10034008B2 (en) | 2013-03-06 | 2018-07-24 | Samsung Electronics Co., Ltd. | Method and apparatus for scalable video encoding using switchable de-noising filtering, and method and apparatus for scalable video decoding using switchable de-noising filtering |
US20140269943A1 (en) * | 2013-03-12 | 2014-09-18 | Tandent Vision Science, Inc. | Selective perceptual masking via downsampling in the spatial and temporal domains using intrinsic images for use in data compression |
US20140267916A1 (en) * | 2013-03-12 | 2014-09-18 | Tandent Vision Science, Inc. | Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression |
US8897378B2 (en) | 2013-03-12 | 2014-11-25 | Tandent Vision Science, Inc. | Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression |
EP2973225A4 (en) * | 2013-03-12 | 2016-11-16 | Tandent Vision Science Inc | SELECTIVE PERCEPTIVE MASKING THROUGH SCALE SEPARATION IN SPATIAL AND TEMPORAL DOMAINS USING INTRINSIC IMAGES FOR USE IN DATA COMPRESSION |
US10091419B2 (en) * | 2013-06-14 | 2018-10-02 | Qualcomm Incorporated | Computer vision application processing |
US9648351B2 (en) * | 2013-10-24 | 2017-05-09 | Dolby Laboratories Licensing Corporation | Error control in multi-stream EDR video codec |
US9589206B2 (en) * | 2013-12-05 | 2017-03-07 | Hochschule Pforzheim | Optimizing an image filter |
JP2016005043A (ja) * | 2014-06-13 | 2016-01-12 | 株式会社リコー | 情報処理装置およびプログラム |
CN107211128B (zh) * | 2015-03-10 | 2021-02-09 | 苹果公司 | 自适应色度下采样和色彩空间转换技术 |
WO2017083784A1 (en) | 2015-11-11 | 2017-05-18 | Apple Inc. | Adaptive chroma downsampling and color space conversion techniques |
GB201607879D0 (en) * | 2016-05-05 | 2016-06-22 | Magic Pony Technology Ltd | Video encoding using hierarchical algorithms |
FR3087309B1 (fr) | 2018-10-12 | 2021-08-06 | Ateme | Optimisation d'un sous-echantillonnage intervenant avant le codage d'images en compression |
KR102158007B1 (ko) * | 2018-12-24 | 2020-09-22 | 서울과학기술대학교 산학협력단 | 하이브리드망 기반의 영상 전송 시스템 및 방법 |
WO2020139414A1 (en) * | 2018-12-24 | 2020-07-02 | Google Llc | Video stream adaptive filtering for bitrate reduction |
US20200314423A1 (en) * | 2019-03-25 | 2020-10-01 | Qualcomm Incorporated | Fixed filters with non-linear adaptive loop filter in video coding |
US11445222B1 (en) | 2019-09-30 | 2022-09-13 | Isize Limited | Preprocessing image data |
KR20210067783A (ko) | 2019-11-29 | 2021-06-08 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 시스템 |
EP3846477B1 (en) * | 2020-01-05 | 2023-05-03 | Isize Limited | Preprocessing image data |
EP3989587A1 (en) | 2020-10-21 | 2022-04-27 | Axis AB | Image processing device and method of pre-processing images of a video stream before encoding |
WO2022183358A1 (zh) | 2021-03-02 | 2022-09-09 | 京东方科技集团股份有限公司 | 视频图像去交错方法和视频图像去交错装置 |
US11917162B2 (en) * | 2021-04-30 | 2024-02-27 | Tencent America LLC | Content-adaptive online training with feature substitution in neural image compression |
EP4171033A1 (en) | 2021-10-20 | 2023-04-26 | Axis AB | A method for encoding a video stream |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5193000A (en) | 1991-08-28 | 1993-03-09 | Stereographics Corporation | Multiplexing technique for stereoscopic video system |
CN1199468C (zh) * | 2000-01-12 | 2005-04-27 | 皇家菲利浦电子有限公司 | 图像数据压缩 |
JP2001245298A (ja) * | 2000-03-01 | 2001-09-07 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化装置、画像符号化方法及び画像符号化プログラムを記憶した媒体 |
US7953152B1 (en) * | 2004-06-28 | 2011-05-31 | Google Inc. | Video compression and encoding method |
EP1631090A1 (en) * | 2004-08-31 | 2006-03-01 | Matsushita Electric Industrial Co., Ltd. | Moving picture coding apparatus and moving picture decoding apparatus |
JP2006180470A (ja) * | 2004-11-26 | 2006-07-06 | Canon Inc | 画像処理装置及び画像処理方法 |
US7876833B2 (en) * | 2005-04-11 | 2011-01-25 | Sharp Laboratories Of America, Inc. | Method and apparatus for adaptive up-scaling for spatially scalable coding |
US20070110155A1 (en) * | 2005-11-15 | 2007-05-17 | Sung Chih-Ta S | Method and apparatus of high efficiency image and video compression and display |
US8023569B2 (en) * | 2005-12-15 | 2011-09-20 | Sharp Laboratories Of America, Inc. | Methods and systems for block-based residual upsampling |
US20070160134A1 (en) * | 2006-01-10 | 2007-07-12 | Segall Christopher A | Methods and Systems for Filter Characterization |
US7881552B1 (en) * | 2006-05-16 | 2011-02-01 | Adobe Systems Incorporated | Anti-flicker filter |
US20080095235A1 (en) * | 2006-10-20 | 2008-04-24 | Motorola, Inc. | Method and apparatus for intra-frame spatial scalable video coding |
JP2008109247A (ja) * | 2006-10-24 | 2008-05-08 | Matsushita Electric Ind Co Ltd | ビデオ・ノイズをフィルタリングする方法、装置、集積回路およびエンコーダ |
US20100027622A1 (en) * | 2006-10-25 | 2010-02-04 | Gokce Dane | Methods and apparatus for efficient first-pass encoding in a multi-pass encoder |
EP1919209A1 (en) * | 2006-10-31 | 2008-05-07 | Sony Deutschland Gmbh | Method and device for fast and effective noise reduction |
WO2008075247A1 (en) * | 2006-12-18 | 2008-06-26 | Koninklijke Philips Electronics N.V. | Image compression and decompression |
US8238424B2 (en) * | 2007-02-09 | 2012-08-07 | Microsoft Corporation | Complexity-based adaptive preprocessing for multiple-pass video compression |
JP2010525724A (ja) * | 2007-04-25 | 2010-07-22 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号をデコーディング/エンコーディングする方法および装置 |
JP4709189B2 (ja) * | 2007-07-23 | 2011-06-22 | 日本電信電話株式会社 | スケーラブル動画像符号化方法,スケーラブル動画像符号化装置,およびそのプログラムとそれを記録したコンピュータ読み取り可能な記録媒体 |
WO2010120804A1 (en) * | 2009-04-13 | 2010-10-21 | Reald Inc. | Encoding, decoding, and distributing enhanced resolution stereoscopic video |
-
2010
- 2010-04-20 ES ES13171556.7T patent/ES2602326T3/es active Active
- 2010-04-20 US US13/255,376 patent/US20120033040A1/en not_active Abandoned
- 2010-04-20 DK DK13171556.7T patent/DK2663076T3/en active
- 2010-04-20 EP EP13171556.7A patent/EP2663076B1/en not_active Not-in-force
- 2010-04-20 CN CN201080012997.2A patent/CN102450009B/zh not_active Expired - Fee Related
- 2010-04-20 CN CN201510333835.3A patent/CN104954789A/zh active Pending
- 2010-04-20 JP JP2012502326A patent/JP5044057B2/ja not_active Expired - Fee Related
- 2010-04-20 WO PCT/US2010/031693 patent/WO2010123855A1/en active Application Filing
- 2010-04-20 EP EP10719456.5A patent/EP2422521B1/en not_active Not-in-force
-
2012
- 2012-07-12 JP JP2012156364A patent/JP5364820B2/ja not_active Expired - Fee Related
-
2016
- 2016-02-24 HK HK16102039.1A patent/HK1214440A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
EP2422521B1 (en) | 2013-07-03 |
JP2012231526A (ja) | 2012-11-22 |
HK1214440A1 (zh) | 2016-07-22 |
CN102450009B (zh) | 2015-07-22 |
EP2663076A2 (en) | 2013-11-13 |
JP5044057B2 (ja) | 2012-10-10 |
US20120033040A1 (en) | 2012-02-09 |
JP5364820B2 (ja) | 2013-12-11 |
CN104954789A (zh) | 2015-09-30 |
EP2663076B1 (en) | 2016-09-14 |
CN102450009A (zh) | 2012-05-09 |
EP2422521A1 (en) | 2012-02-29 |
WO2010123855A1 (en) | 2010-10-28 |
EP2663076A3 (en) | 2014-03-05 |
JP2012521734A (ja) | 2012-09-13 |
DK2663076T3 (en) | 2016-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2602326T3 (es) | Selección de filtro para pre-procesamiento de vídeo en aplicaciones de vídeo | |
US8681873B2 (en) | Data compression for video | |
US20150010243A1 (en) | Method for encoding/decoding high-resolution image and device for performing same | |
EP2529553B1 (en) | Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane | |
US20130089265A1 (en) | Method for encoding/decoding high-resolution image and device for performing same | |
KR20110081304A (ko) | 화상 예측 부호화 장치, 화상 예측 복호 장치, 화상 예측 부호화 방법, 화상 예측 복호 방법, 화상 예측 부호화 프로그램, 및 화상 예측 복호 프로그램 | |
US11206418B2 (en) | Method of image encoding and facility for the implementation of the method | |
KR20170083117A (ko) | 디지털 이미지의 블록의 마스크 기반 처리를 위한 시스템 및 방법 | |
KR20190033624A (ko) | 영상 코딩 시스템에서 인터 예측 방법 및 장치 | |
CN113366847B (zh) | 用于视频编解码的方法、装置及可读介质 | |
KR102012906B1 (ko) | 디지털 이미지의 블록을 처리하는 시스템 및 방법 | |
Yeh et al. | Predictive texture synthesis-based intra coding scheme for advanced video coding | |
KR101700410B1 (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
BR112021001245A2 (pt) | codificador, decodificador, método de codificação e método de decodificação | |
BR112021001890A2 (pt) | codificador, decodificador, método de codificação e método de decodificação | |
BR112021000616A2 (pt) | Codificador, decodificador, método de codificação e método de decodificação | |
US10742979B2 (en) | Nonlinear local activity for adaptive quantization | |
CN109587481B (zh) | 视频编码方法及设备 | |
EP2899975A1 (en) | Video encoder with intra-prediction pre-processing and methods for use therewith | |
US20130170565A1 (en) | Motion Estimation Complexity Reduction | |
EP4383717A1 (en) | Coding unit prediction using template matching costs | |
KR20110087871A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
Nalluri | A fast motion estimation algorithm and its VLSI architecture for high efficiency video coding | |
Abdoli | A dynamic predictive search algorithm for fast block-based motion estimation | |
CN118042136A (zh) | 编解码方法和装置 |